作者:张海燕,中南大学法学院副教授、中南大学人权研究中心研究员。
来源:《政治与法律》2024年第5期。
摘要:经由算法赋能、私法制度提供合法性的网络著作权算法私人执法,借助公权力体系肆意扩张,正在架构新的社会关系和催生新的社会规范。算法的设计缺陷和法律规制的缺失使得网络著作权算法私人执法存在异化为私主体的利益实现工具的风险,可能造成对网络用户合法权益的侵犯,具体体现为侵蚀用户表达权利、挤压公众合理使用空间、剥夺用户经济利益等。权力与权利的平衡应成为矫正网络著作权算法私人执法异化的规制目标,循着公权力合理限制私权力、增益私权利对抗私权力的规制思路,通过立法建立限权与赋权的制度体系,具体应建立算法审查制度、基本权利保护责任制度以及算法问责制度,配置用户算法解释权和申诉权等,可激发最大制度性合力,实现多元主体的利益平衡。
关键词:“通知—屏蔽”;算法私人执法;异化;利益失衡;法律规制
权力是指一主体影响甚至支配另一主体的能力或者机会。美国法学家霍菲尔德从法律概念的逻辑内涵揭示了权力并不为公主体所独有的特性。网络空间中的私权力随着科技发展正在崛起。凭借技术资源、平台和信息优势,网络服务提供者具备了相对于网络用户的优势地位,有能力影响他们的选择乃至设定规则,网络用户则在某种程度上沦为被影响乃至被支配的对象。权力是执法的基础,执法是权力的表现。私权力的崛起为网络治理注入了新的动力,据此著作权人寻求与网络服务提供者合作以打击网络著作权侵权行为,并探索出了“通知—删除”规则。区分于公权力执法,网络服务提供者代替公权力机构处理著作权侵权的执法被称为“私人执法”。“私人执法”不同于“私力救济”,前者是权利人借助第三方的力量寻求“他救”,后者是权利人利用自己的力量进行“自救”。
智能算法可以为私人执法赋能。有学者创造性地使用了“算法私人执法”这一概念来描述由智能算法自动完成私人执法的过程,传统的“人工通知—人工处置”演变为“算法通知—算法处置”模式。随着算法私人执法对不同权力间关系的重塑,诸多“创造性破坏”也随之产生,如数据滥用、算法歧视、侵蚀公共权力等。算法私人执法存在异化为私主体的利益实现工具的风险。“算法暴政”可能使著作权的网络治理陷入困境。为此,有必要警惕算法私人执法的扩张风险,正确辨析算法私人执法的异化表象,诠释其异化的内在轨迹,提出有针对性的矫正方案,以促进算法私人执法走向正义。
一、算法赋能:著作权私人执法的扩张
著作权私人执法的扩张建立在技术的事实性基础以及私法规则授权允许基础之上,探究算法私人执法的扩张基础和异化动因,是规制算法私人执法的前提所在。
(一)从“通知—删除”到“通知—屏蔽”
算法私人执法对传统私人执法的扩张,集中体现为从“通知—删除”规则到“通知—屏蔽”规则的升级。以“通知—删除”规则为核心的传统私人执法被动而范围有限。在“通知—删除”规则下,网络服务提供者需要在收到著作权人有关著作权侵权的通知之后,迅速采取删除、屏蔽、断开链接等必要措施;在收到异议用户发出的反通知之后转送至著作权人,并在著作权人未在合理期限内提起诉讼的情况下恢复相应的内容和链接。在此过程中,网络服务提供者承担着被动的角色,以著作权人的侵权通知或者用户的反通知为触发条件,在特定情况下、特定范围中解决著作权侵权纠纷。“通知—删除”无法有效解决重复侵权的问题,移除侵权内容就像无休止的“打地鼠”游戏。并且由于过去的互联网技术尚不能支持全自动化,再加之侵权数量有限、侵权通知不多,人工处置是网络服务提供者处理著作权侵权纠纷的主要形式,人工审查速度逐渐落后于著作权侵权发生的速度。然而,“通知—删除”规则较好地平衡了三方利益:著作权人能以非诉方式保护著作权,控制作品在网络中的使用,降低定位侵权主体、调解、起诉的巨大成本;网络服务提供者在收到通知或者明知侵权采取行动之后就可以获得安全港规则的庇护,免除法律责任,有利于技术的发展进步;人工审查使得用户上传内容被误删的可能性较低,再加上反通知程序的保障,用户合法权益和社会公共利益也能得到较好保护。
以“通知—屏蔽”规则为核心的算法私人执法相对于传统私人执法,具有以下特点。首先,处置过程算法化。智能算法为识别出所有包含著作权作品的信息和内容提供了技术支持,导致著作权侵权形势日益复杂的同时,自动发送的侵权通知数量不断攀升。因此在人工智能时代,成本高、效率低、标准不一的人工审查举步维艰,算法处置成为应对算法通知的必行之举。其次,内容审核补救措施多元化。将侵权程度不同的情形同等处理有失公允,智能算法为针对性补救措施的采取提供了可能,由此将“或删除或保留”的二元制补救措施发展为多元化的补救措施,如限制流量、变现等措施。最后,介入阶段提前化。内容过滤制度使得著作权私人执法的介入阶段从事后延伸至事前。为了解决重复侵权的问题,网络服务提供者被要求承担更为积极主动的义务——内容过滤,力图在源头上制止著作权侵权内容的上传。内容过滤作为算法私人执法的特有制度,将著作权私人执法的介入阶段从事后扩展至事前事后全过程,极大地拓展了私人执法的覆盖范围。
“通知—屏蔽”规则提高了著作权保护水平,但容易使网络服务提供者归责滑向过错推定,只要有漏判的内容即推定网络服务提供者未尽过滤义务。这加重了其责任,在面对“灰色空间”、合理使用等性质复杂的内容时,以利益为导向的网络服务提供者会趋于从紧从严屏蔽或移除,在私人执法过程中倾向于过度执法,导致对网络用户合法权益和社会公共利益的侵犯。
(二)扩张基础与异化动因
在技术赋能提供事实性基础的同时,法律授权与合同意定也为私人执法的扩张提供着合法性依据。然而,算法自有的设计缺陷、法律规制的相对缺失以及动态条款中用户的权益嬗变,是算法私人执法的异化动因。
1.技术赋能与设计缺陷
技术是把双刃剑。首先,智能算法为算法私人执法奠定技术基础。在以技术性为特征的网络空间中,网络主体对技术工具掌握水平的高低直接决定其在网络空间中行为能力的大小。传统著作权私人执法建立在过去互联网技术的基础之上。通过占有技术工具、掌控技术知识、支配技术架构,网络服务提供者能够支配和影响其他网络主体,从而为著作权私人执法奠定技术基础。随着人工智能时代的到来,智能算法不断推动著作权私人执法算法化。智能算法系统将法律和执法合二为一,网络服务提供者一方面通过控制代码在网络空间中创造强大的架构,制定与国家法律具有高度重合性的私人规则(集中表现为网络服务协议),另一方面通过智能算法系统积极执行私人规则、规制网络行为,对网络用户的行为产生直接影响。例如,网络服务提供者可以设定非法内容的认定标准,并阻止这些内容在网上出现和传播,或识别侵犯著作权内容并进行恰当的处置;网络服务提供者甚至掌握了信息资源获取与分配领域的话语权,能够通过有目的性地向用户传递相关信息,在其主观意识层面形成一种潜移默化的影响,从而以一种“润物细无声”的方式促使用户给出“被期待”的选择。其次,算法设计的内在缺陷是算法私人执法异化的根本动因。其一,算法黑箱使得算法决策过程不透明。算法决策本质上隐藏在代码的面纱后面,其数学复杂性和学习能力使其无法完全透明,再加上商业秘密法的加持,共同促成了算法黑箱。算法黑箱不仅阻碍了用户权利救济和公众监督,而且妨碍了对网络服务提供者的追责。其二,算法偏见导致内容识别出错率高,难以有效区分合法内容和非法内容。算法偏见的出现缘于训练数据的片面性或存在偏见,以及算法价值内嵌与算法设计、部署或应用过程中不可避免地被嵌入个人的价值观念或主观意图。算法偏见将导致假阳性错误的出现,不仅直接侵害内容生产者的合法权益,而且可能引发侵蚀言论自由、压缩合理使用空间等负外部性。其三,算法自主性产生算法的不可控性,阻碍算法私人执法的问责。算法因“自主性”功能,常出现连设计者和研发者也无法控制的自主决策问题,由此网络服务提供者通常以“技术自主错误”而非“平台错误”来逃避责任,平台推责成为常态,传统的“行为—责任”逻辑被切断,因果关系面临危机。
总之,借助技术,算法私人执法肆意扩张,然后依托技术面纱,逃脱现有法律制度的规制。
2.法律授权与规制缺失
责任与权力一体两面,有权必有责,有责必有权;有权无责将导致权力的滥用,有责无权则无法履行职责以达成预设目标。著作权私人执法责任的课以必然伴随着著作权私人执法权力的授予。然而,不断拓展的责任课以机制失去制度化和体系化的约束,可能转化为一种间接的乃至更高位的权力变现手段。随着网络服务提供者私人执法责任的不断加重,私人执法权力也在不断膨胀。算法私人执法在因法律授权而获得合法性的同时,具体法律规制的缺失使其能无视著作权执法内含的公共价值追求、利益平衡目标,异化为私人执法主体的利益实现工具。
一方面,算法私人执法因法律授权而获得合法性根据。受限于管制能力和管制成本,公权力机构的著作权执法无法在网络空间中高效发挥作用,相反网络服务提供者在监控、过滤以及阻止在线内容的访问等方面提供了一个“自然的控制点”,使其成为公权力机构执法的理想伙伴。对此,公权力机构逐渐将管理重心转至网络服务提供者,要求其作为平台方协助甚至“替代”监管部门完成维护网络秩序的公共目标。从收到通知后移除侵权内容到保证侵权内容不在网上出现和传播,网络服务提供者的著作权私人执法责任呈加重趋势,责任的加重也意味着对权力扩张的默认,算法私人执法因此获得存在的合法性根据。例如,欧盟《数字单一市场版权指令》(DSM)第17条明确规定在线内容共享服务提供商(OCCSP)应与版权权利人订立公平和适当的许可协议,以获得权利人的授权,若无授权,则需要承担责任,除非能证明:尽最大努力获得授权;尽专业勤勉的最高行业标准确保权利人已提供必要信息的作品无法获得;收到通知后迅速断开链接或删除内容并阻止侵权内容再次上传。该条虽未明确规定网络服务提供者的内容过滤责任,但是众多学者、法律工作者已基本达成共识,认为该条是内容过滤责任条款。为了实现内容过滤的目标,网络服务提供者应当配置内容过滤权限。因此,该条不仅赋予网络服务提供者以内容过滤责任,而且为其内容过滤权提供合法性依据。
另一方面,算法私人执法凭借法律授权和公权力委托野蛮生长,却缺乏相应的规制,导致算法私人执法的异化风险急剧增加。首先,算法“黑箱”的规制处于法律真空地带。算法私人执法的不透明实施严重限制公众知情的可能性,算法私人执法可能比公权力机构执法更加严格也可能更加宽松,原因就在于算法私人执法的不可预测性。当算法透明依赖于网络服务提供者的自愿披露时,披露的数据可能是部分的、有偏见的甚至是误导性的。虽然各国正在考虑采取各种办法来解决算法“黑箱”的问题,如制定关于使用和设计人工智能的原则,但将这些原则转化为可操作的监管规则尚处于初级阶段。其次,算法私人执法并未受到正当程序的约束。在一般法律程序中可获得的法律保障,如获得通知的权利、申诉权、决策者身份的知情、以书面形式作出决定以便阅读等,在算法私人执法中都处于缺位状态。正当程序要求的缺失使得算法私人执法具有极大的恣意性,网络服务提供者享有较大的徇私空间,同时还影响到网络用户的维权。再次,法律并未为受算法私人执法影响的对象提供救济渠道。网络服务提供者可能在内容公开之前事先应用算法来阻止和过滤内容,或使用算法降低包含涉嫌侵犯著作权内容的网站等级,以减少链接到该网站的可能性。在网络服务提供者没有义务公开决策的理由和程序的情况下,用户针对错误执法要求更正的可能性极小,公众不可能质疑其并未意识到的内容处置行为。最后,算法私人执法问责机制处于缺位状态。尽管网络服务提供者于在线内容获取和促进公共话语方面发挥着关键作用,但其几乎不对算法私人执法负责。哪些涉嫌侵权的材料会触发算法、有关内容限制的决定如何做出、谁在做出这些决定以及用户如何能够影响这些决定,都不明确。算法应该“对谁负责”和“对什么负责”,仍然存在高度的不确定性。
网络服务提供者为尽“责任”以消除不确定性风险,完全可以在技术乃至制度层面给出功利性选择,自我赋予更大的“权力”,进行扩张性执法。
3.合同意定与权益嬗变
以网络服务协议为媒介获得网络用户的权利让渡,是算法私人执法的又一合法性来源。然而,网络服务提供者与网络用户之间在掌握技术资源、信息资源等方面都存在巨大差距,网络用户的权益在网络服务协议随时修改权条款项下存在着极大的被侵害的风险。
一方面,网络服务协议是网络服务提供者和网络用户之间的“法律”,规定各自的权利义务,规范双方之间的关系。网络服务提供者拥有网络服务协议的单方制定权。通过单方制定网络服务协议及其技术实施,网络服务提供者事实上能够塑造用户访问和使用互联网的方式,规范用户在网络空间中的行为。例如,《微博服务使用协议》第4.12条规定:“微博运营方有权对用户使用微博服务的行为及信息进行审查、监督及处理,包括但不限于用户信息(账号信息、个人信息等)、发布内容(位置、文字、图片、音频、视频、商标、专利、出版物等)、用户行为(构建关系、信息、评论、私信、参与话题、参与活动、营销信息发布、举报投诉等)等范畴。”算法私人执法通过合同意定获得合法性基本不会遭遇阻碍,网络用户面对网络服务协议只有接受或离开两种选择,网络用户对特定网络服务的利用以同意网络服务协议为前提。在用户通过简单点击鼠标表示同意之后,其与网络服务提供者之间的网络服务协议就此达成,用户需遵循网络服务提供者的“私人秩序”,接受网络服务提供者对其行为的支配和影响。并且,在谈判地位不对等的基础上达成的网络服务协议往往具有一定的偏颇性,表现为网络服务协议以规范用户行为以及免除网络服务提供者的责任为主要内容。如《微博服务使用协议》第3.3条对微博运营方因侵犯专利权、商标权、著作权等而中断或终止提供微博服务造成损失的免责,第8.3条对“依据合理判断不经通知立即采取一切必要措施以减轻或消除用户行为造成影响”的免责等。关于用户知情权的保障,《微博服务使用协议》规定的是“尽可能通知”,不通知并无任何责任规定。至于监督权,该协议并未对网络服务提供者的错误执法行为规定任何投诉途径和救济渠道。其他平台的网络服务协议亦大致如此。这样,算法私人执法对用户上传内容的处置及过滤均无需通知有关用户,尤其是对缺乏专业知识的网络用户来说,其无法对不知情的侵权行为要求维权或监督。即使对算法私人执法的侵权行为有所了解,网络用户也无有效途径向网络服务提供者提出异议并获得公正处理。
另一方面,网络服务提供者拥有网络服务协议的修改权,动态性条款导致用户的权益可能发生极大地改变。通过单方修改网络服务协议,著作权私人执法的内容能够在网络服务协议中及时更新,与具有稳定性和滞后性的法律规范相比,网络服务协议条款更具灵活性,从而能在法律更新之前,为算法私人执法提供重要的合法性根据。在网络服务协议中,一旦网络服务提供者行使其对合同条款的“保留和授权条款”赋予的权利,即用新的合同内容取代原有的权利义务约定,这种对原初权利义务的矫正,就势必会影响到处于弱势地位的用户权益的实现。如《微博服务使用协议》第9.1条和第9.2条规定“微博运营方有权随时修改本协议的任何条款……如果不同意微博运营方对本协议相关条款所做的修改,用户有权停止使用微博服务。如果用户继续使用微博服务,则视为用户接受微博运营方对本协议相关条款所做的修改。”
二、网络著作权算法私人执法的异化
算法私人执法催生新的社会规范和社会关系。传统著作权执法要求具备双重价值追求——著作权保护和公共价值追求。然而,算法私人执法呈现出偏重著作权保护,忽视公共价值追求,偏袒著作权人利益保护,忽视用户合法权益的失衡状态。算法私人执法的异化造成对用户权益的侵犯。
(一)侵蚀网络用户表达权利
著作权保护与言论自由存在一定的冲突,过度的著作权保护可能侵蚀网络用户的表达权利。
首先,著作权执法由事后向事前延伸,增加了用户表达权利受侵害的可能性。过去以“通知—删除”规则为主要内容的著作权私人执法是一种事后执法,只要求网络服务提供者在收到著作权人的通知之后迅速移除特定侵权内容,并且“通知—删除”规则迫使网络服务提供者在作出是否删除的最终决定前实际考虑用户上传内容的侵权性质,谨慎作出删除决定。因此过去的著作权私人执法作用范围有限,误删合法内容的概率较低,对用户表达权利的侵害较小,为言论自由和信息自由提供了一定的保障。相较之下,以“通知—屏蔽”规则为主要内容的算法私人执法以事前执法为重点,事后执法并存,由于执法标准完全由网络服务提供者自行制定,在考虑到法律的属地性等多重因素后,网络服务提供者往往倾向于最符合其利益的严格执法标准,从而导致过度执法可能性的增加。此外,内容过滤制度改变了著作权法的缺省规则,用户上传的内容由推定合法转变为推定非法,自由上传转变为需要事先经过算法技术的过滤,算法的审查过滤成为内容上传和传播的前置条件,可能导致用户上传的部分合法内容从一开始就得不到“面世”的机会,网络用户表达权利的行使从开始就被遏止,从而放大了算法私人执法对网络用户表达权利的消极影响。
其次,全面执法正在不断挤压执法“灰色空间”,有侵害用户表达权利之虞。全面执法看似为网络著作权提供了更强的保护,但事实上,从成本和收益的角度考虑,全面执法并非最优选择,相反,保留一定的对轻微侵权行为容忍的这种灰色空间更为可取。在前数字时代,执法者几乎不可能进入个人享有的“自由区”,即使在互联网时代的早期,也仍然存在事实上的“执法均衡”或执法“灰色地带”,阻止全面执法的发生;算法技术为全面执法提供了可能性并逐渐朝这个方向发展。算法私人执法使著作权作品的几乎所有使用都能得到控制,由线上传到平台的内容受到过滤和匹配系统中算法的管理,几乎每一个含有作品库中著作权作品片段的内容,都可以被识别出来并交到合作伙伴著作权人手中,以决定是否应采取进一步行动。然而,从成本和收益角度考虑,轻微侵权者通常是经济实力较弱的个体,在网络的匿名性保护下,即使有算法技术的支持,将网络侵权行为与现实个体相连接也不是一件容易的事,并且轻微侵权行为的危害较小,著作权人向侵权个体追责所能获得的赔偿有限。此外,算法的直接自动执法还可能强化过度执法的风险效应,尤其是算法本身可能会引入偏见和歧视。因此,将轻微侵权行为也纳入执法范围,既不能为著作权人带来更多的利益,又增加了执法成本,更削弱了灰色空间的存在对言论自由所具有的特殊意义。轻微侵权行为的主要目的不在于使用著作权作品,而在于表达观点。在算法私人执法全面展开的威慑下,网络用户慎于表达、疲于应对,进而降低了网上内容的多样性。总之,全面执法对执法灰色空间的挤压弊大于利。
算法私人执法对网络公共话语起到一定的引领作用。通过移除内容和保留内容,网络用户可以充分了解网络服务提供者的私人规则,并进行内容调整以符合私人规则。然而过度执法会使合法内容遭遇非法删除,实质是私人规则对法律规则的取代。
(二)挤压公众合理使用空间
数字平台对算法私人执法的依赖正在慢慢侵蚀合理使用空间。合理使用制度是著作权法中的“安全阀”,是平衡著作权人的利益和社会公众利益的重要之举,在兼顾原创者利益的同时又鼓励新的创造。但自动化甚至自主化执行的算法私人执法,正在不断侵蚀合理使用空间,干扰其他主体的后续创作,阻碍创新。
首先,自动化处置的形式审查缺乏合理使用认定程序,增加误删合法内容风险。在用户生成内容涌现引发分散、海量与重复侵权风险的背景下,经过算法技术强化的自动化处置正逐渐取代传统人工删除。海量通知的涌现既源于技术的发展——越来越多的自动化系统被开发以跟踪在线侵权行为和自动提交删除通知,又源于著作权侵权通知的职业化——自动化通知大多被著作权人外包给专门进行自动检测并提交通知的专业机构,并且其收益与通知数量相挂钩,导致专业代理机构有动机也有能力发出大量的通知。如有研究发现,2005年绝大多数通知仍然是由权利人直接发送,2008年由代理人发送的通知占36.8%,2012年增加到59.6%,2016年由代理人发送的通知上升到91.8%,只有7.5%直接来自权利人。与自动化通知相对应,网络服务提供者也使用算法调整自己的系统来裁决和管理移除请求、管理涌入的信息。为了降低审核成本、减少侵权风险,自动化处置倾向于对侵权通知采取形式审查而非实质审查,只要侵权通知符合形式要求,就迅速进行内容移除,缺乏合理使用筛查过程。一方面,著作权人及其代理机构没有保护合理使用的义务,其发送的侵权通知中必然包含大量构成合理使用的内容;另一方面,算法私人执法并未开辟合理使用筛查通道,导致合法内容被误删。除此之外,网络用户并未有效利用纠错与对抗机制,助长算法私人执法对著作权公共领域的侵蚀。2005年的一份实证研究显示,在876份侵权通知中仅有7份反通知,2017年的另一实证研究认为反通知未被充分和经常利用。因此,与传统的人工删除相比,自动化处置会产生更多的“大面积误伤”,侵蚀著作权公共领域。
其次,智能算法主导的内容过滤机制引发“假阳性错误”,进一步挤压合理使用空间。智能算法主导的内容过滤机制已成为网络环境自动著作权执法的趋势。虽然它能帮助网络服务提供者节省消除网络平台侵权的成本,降低因屏蔽或删除侵权内容不及时而须承担侵权责任的风险,但是内容过滤机制的广泛采用会引发“假阳性错误”,损害用户对著作权的合理使用空间。“假阳性错误”是指将合理使用行为误认为侵权行为并错误过滤的现象。“假阳性错误”的出现是技术发展水平与合理使用认定能力不匹配的结果。合理使用本质上作为一种公平原则,需要高度的智力判断以及对上下文的理解,并不是任何技术都能以自动化的方式解决的,特别是某些作品公共领域地位的复杂性可能超出内容过滤技术的识别能力;就目前的技术发展水平来看,内容过滤系统在识别和认定合理使用方面存在困难,自动化系统只会标记出所有包含著作权作品整体或部分的内容,无法将构成合理使用的内容筛查出去。另外,由于信息不对称、专业知识的欠缺,网络用户可能无法准确识别“假阳性错误”、无法正确理解合理使用制度、放弃维权和救济,网络用户的不作为将纵容内容过滤系统对著作权公共领域的侵蚀。私人协议和自动过滤系统对在线内容性质的决定程度逐渐超过了著作权法的规定,合理使用面临走向名存实亡的境地。
(三)剥夺网络用户经济利益
互联网的发展促成网络用户由消费者向创作者蜕变。数字技术从根本上提高了用户复制和改造著作权作品的能力,数字平台增强了用户相互分享这些转换性作品的能力,从而使网络用户从作品的被动消费者转变为主动的共同创作者(与职业创作者相区分,将此类创作者称为业余创作者)。著作权法保护著作权人的经济利益,网络用户作为职业创作者之外的业余创作者,其经济利益也需要得到保护。然而,算法私人执法采取变现措施时,事实上使得著作权人和网络服务提供者能够不断攫取网络用户依靠业余创作而产生的经济利益。变现措施是指在算法标记出包含著作权作品片段的视频并通知著作权人之后,著作权人可以选择在用户创作的该视频上投放广告来盈利,并将所获利润在著作权人与网络服务提供者之间进行分配。通过变现措施,著作权人和网络服务提供者可以从用户的转换性劳动中不当得利,即使用户对受著作权保护作品的使用构成合理使用。反之,作为生产者的用户却被剥夺了经济利益,即便其创作不以获得经济回报为目的。可以说,变现措施维持并发展了“技术封建主义”。“技术封建主义”是指用户免费提供大量有价值的数据以换取网络服务,就像农奴通过农业产出换取土地使用权一样。“技术封建主义”的产生源于网络服务提供者和用户之间的信息不对称。由于没有意识到数据生产是一种劳动,也没有意识到明确的数据所有权,更没有意识到集体谈判能力的重要性,用户难以准确认识网络服务提供者某些行为的剥削性质,相反在其上传的内容被不当删除或被剥夺经济利益后仍会选择返回平台,结果是用户将持续受到网络服务提供者的剥削。用户在信息获取和专业知识方面的相对弱势、保留对平台访问权的愿望以及申诉过程的繁琐性共同创造了一种环境——著作权人和网络服务提供者能够很方便地从用户的劳动中榨取价值而不用付出任何代价。数字平台通过数据收集和分析,复制或模仿社交互动,提高用户对平台的依赖程度,增加平台使用频率,从而形成网络效应,使数字平台的使用成为进行社会互动和维持社会地位的必要前提,进而限制了在数据制度之外生活的可能性,用户拒绝生成数据可能就意味着被排斥。在数据殖民主义下,用户被迫不断免费提供数据以换取网络服务。网络服务提供者对业余创作者的持续剥削将会产生不利后果:第一,当业余创作者不能从其创作中获得经济利益时,特别是当这些利益被转移至未作任何付出的主体时,其创作积极性将受到重创;第二,业余创作者的出现没有导致电影公司等机构创作者经济实力的分散,反而巩固了其精英地位和市场力量,减少了通过远程劳动形式实现社会流动性的机会;第三,业余创作的减少最终将降低数字内容的多样性,导致资本文化极权的出现。
总之,技术发展推动二元化补救措施向多元化补救措施发展,私人执法在算法加持下不断扩张,助推网络服务提供者压榨用户劳动时间,算法私人执法的异化造成劳动异化。
三、网络著作权算法私人执法异化的矫正
网络著作权算法私人执法的异化风险在于技术缺陷和权力扩张,更在于协调各个治理主体关系的制度供给不足。传统法律制度偏重于数据保护,忽视了对算法的规制,更忽视了算法有别于其他技术的权力属性以及对社会权力结构的深刻影响。权力与权利的平衡应成为矫正算法私人执法异化的规制目标。为此,矫正算法要转换思路:数据保护和算法规制并重、技术规制和权力规制并行、单一主体参与到多元主体共治。矫正方案是沿着公权力合理限制私权力、增益私权利对抗私权力的规制思路,通过建立限权与赋权的制度体系,激发最大制度性合力,实现多元主体的利益平衡。
(一)明确规制算法私人执法的基本原则
矫正算法私人执法异化的规制目标是促进权力与权利的平衡。为此,需要算法私人执法体系的构建遵循以人为本原则、利益平衡原则、权责均衡原则和动态化原则。
以人为本原则要求法律制度应当体现以人为本的价值内涵,促使网络服务提供者在技术创新和运用过程中摒弃“资本逻辑”,将人的尊严价值置于最高位阶。因此,算法私人执法法律规制框架的搭建应强调基本权利保护,重视网络用户合法权益以及社会公共利益的保护和救济。
利益平衡原则要求算法私人执法法律规制框架统筹兼顾多方主体的基本权利和合理需求。根据利益平衡原则,权利冲突的各方(著作权人、网络服务提供者以及网络用户)应分担责任,在所有权利都得到尊重的前提下,各自做出小的牺牲以找到最佳平衡点。由于网络服务提供者难以在关涉自身利益的情况下保持公正,并且可能无法正确理解和实施法律,算法私人执法不应完全遵从由网络服务提供者自行制定的私人规则,而应服从以平衡各方利益为目的的法律规则。坚持利益平衡原则,重在处理好网络服务提供者和网络用户之间的权责关系。网络服务提供者由于掌握技术资源、平台资源、信息资源,能随意支配和影响用户的行为,还可能走向垄断地位;网络用户由于分散而处于相对弱势的地位,其正当的合法权利往往难以得到充分保障和体现。对此,一方面应鼓励网络服务提供者之间展开充分有序的竞争,给予用户充分的选择权,另一方面应赋予用户权利以校正其地位差距。
权责均衡原则要求网络服务提供者权责配置之间保持适当张力,总体上保持均衡或对等关系。网络服务提供者的责任过度扩张将导致其消极无为或反向刺激过度自卫的非正常行为;其责任模糊分散会带来责任消解,甚至导致整个责任系统瘫痪以至出现“公地悲剧”现象。因此,算法私人执法法律规制框架的搭建应当坚持权责均衡原则。当前网络服务提供者的责任规定总体多于权力赋予,但这并不意味着网络服务提供者处于弱势地位,相反,从网络用户角度看,正是这些责任规定赋予了网络服务提供者支配和影响其行为的权力。究其原因,责任规定的原则性导致操作上的模糊性,给网络服务提供者留下了较大的自由裁量空间,客观上造成了责任和权力相互拉扯的胶着状态或功利性相互转换的半失控状态,进而导致了权力随责任同步出现超比例增长的制度困境。对此,需要明确网络服务提供者的权力来源和责任规定,做到权责内容清晰化。
动态化原则要求网络服务提供者的权责配置要随着外部环境变化而同步变动,达到动态化均衡,以适应发展迅速的网络空间。网络空间技术的发展推动网络服务提供者私人执法的扩张,法律有相对滞后性,法律责任的不足导致网络服务提供者权责失衡。动态化原则能在一定程度上化解这种矛盾,在保持网络空间制度相对稳定的基础上,既强化责任对权力的跟踪规范效应,又根据实际情况不断调试权力口径以对责任承担起到必要支撑作用,坚持原则性和灵活性的统一。
这些基本原则应贯穿于算法私人执法的各环节,以基本原则为网络服务提供者行动的指引和评价标准,按照基本原则的要求进行算法私人执法法律规制框架的构建,兼顾各方利益,实现利益平衡。
(二)建立算法审查法律制度
智能算法的固有缺陷是算法私人执法异化的根本动因,算法无法识别合理使用等复杂情况,使得网络用户的合法言论被删除、新的创作受打击、经济利益被剥夺;算法不透明则阻碍用户的知情和监督,影响追责。对此,需在算法规制的专门法律中明确算法审查法律制度,算法审查主体应当是国家公权力机关,如法院或网信部门等特定行政部门;审查内容包括算法设计中的公共价值考虑、算法透明度等;审查形式可以是审查主体主动抽查,也可以是个案中的附带审查。
1.审查算法的公共价值
随着著作权私人执法对算法的依赖性与日俱增,智能算法的设计缺陷导致算法私人执法无法考虑合理使用等公共价值,导致大量的“假阳性”现象出现。该问题的解决需要激励网络服务提供者完善算法设计,在算法系统设计中嵌入公共价值,增益算法公共价值。“公共价值具有非资本性和非市场性。公共价值是为了满足公众的基本需要和社会的正常运转而存在的,它具有社会福利和社会保障的性质。”大量合法内容因算法错误识别为著作权侵权而被移除、屏蔽、过滤等,不仅对著作权公共领域产生了严重侵蚀,合理使用空间遭遇挤压,而且对用户的表达权利产生侵害,阻吓言论自由。在此背景下,增益算法公共价值对于维护合理使用、言论自由等具有重要意义。通过设计实现公共价值大有益处,如算法合理使用系统具备灵活性,能够应对不断增长的内容泛滥,且随着智能算法的完善将最新的司法判决、法律规则转化为代码并运行所需时间间隔不断缩短;对无法负担诉讼成本或不愿经历繁琐诉讼程序的人而言,算法合理使用系统提供了一种低成本且便捷的选择。
增益算法公共价值需要采取渐进步骤。首先,根据技术发展情况动态设置审查标准。大数据、机器学习和人工智能等新技术的进步为部署具备公共价值考量的算法系统提供了可行性。但是目前技术水平处于发展初期,自动化系统存在偏见和漏洞等现实问题不容忽视,因此应在动态化原则的指引之下,科学合理地设定算法公共价值审查标准。例如,根据系统设计,只有合理使用的可能性超过一定数值,该内容才被允许传播;低于一定数值则禁止传播;介于两者之间则允许上传,上传之后所获利益在确定是侵权还是合理使用之后再归于著作权人或用户。这些数值通过司法解释或部门规章予以设定,根据算法系统的先进程度进行设定,并随着科学技术的进步而不断调整。如此,智能算法系统所做出的决策并非最终决定,而是生成反映合理使用和言论自由等公共价值概率的分数,国家公权力机关才有权确定认定为合理使用和言论自由的最低标准线。其次,开发认证流程以刺激算法系统之间的竞争。面对众多算法系统,竞争是利用市场手段促进更高效、偏见更少的算法开发的重要工具,开发认证流程可以推动算法系统进行竞争,推动算法系统质量提高。由网信部门、市场监督管理局或第三方专业机构负责开发认证流程,要求算法从开发到部署都必须接受审计和监督,以确保算法的公正性。具体而言,在算法设计和开发阶段对算法进行影响评估,评估算法可能如何运作,确保其按预期功能运行,并找出任何有问题的过程或假设;开发完成后则需对算法本身以及训练数据和算法结果进行审计,以确保算法系统的中立性;在算法部署阶段也需不断进行影响评估并进行“修补”,定期测试算法系统并记录结果,以便了解自动化系统的实际运作,与不断发展的机器学习发展保持同步。最后,在当前阶段,人工审查对于算法决策的补充和补救作用不可或缺。价值取舍具有综合性和灵活性,需要考虑多方因素,在不同利益追求之间维持平衡,它不是非黑即白的数学问题,没有“标准答案”,只有“参考答案”;价值取舍还会随着具体情形的不同和时代的不同而千差万别。价值取舍对于人类来说也是一个难题,更遑论缺乏自主思考能力的算法,因此算法私人执法无法取代人的作用。考虑到算法私人执法不局限于著作权领域,可以在规制算法的专门法律中明确规定网络服务提供者必须设置人工审查。因此算法私人执法实际上包含两级审查:先进行算法筛选,然后对由系统标记但无法得出结论或存在争议的部分交由人工进行审查。
合理使用和言论自由作为算法私人执法过程中最容易被忽视的公共价值,将其植入算法设计,可以有效减轻算法私人执法对言论自由的侵害和对合理使用空间的挤压,将网络用户的基本权利和社会公共利益纳为算法私人执法的重要考虑价值。
2.保证算法透明度
算法“黑箱”导致网络用户和网络服务提供者之间信息不对称,网络用户可能并不知道其上传的内容被采取了措施,不知道内容被非法移除、经济利益被非法剥夺,更无法寻求后续的救济。保证算法透明度是用户维权的前提、公众监督的基础、网络服务提供者承担责任的关键。首先,作为法定义务,网络服务提供者应当在网络服务协议中以明确、易于理解和足够详细的方式发布其采取内容审核补救措施的标准,说明平台可能采取哪些内容审核补救措施,这些措施适用于哪些情形,网络用户如何行使知情权,等等。例如欧盟委员会主张,在线平台应在其服务条款中披露其详细的内容政策,并将其明确传达给用户。这些条款不仅应定义删除或禁止访问内容的政策,而且应阐明确保内容不会导致过度删除的保障措施。其次,根据开放记录策略的要求,网络服务提供者有法定的义务解释相关的结构、逻辑并强调所采用的算法。开放记录策略能够克服自愿披露的缺陷,要求网络服务提供者不得仅出于自身利益考虑而拒绝披露,或者披露部分信息或有偏见的信息。由于算法的复杂性,大多数情况下,披露代码不会使人们理解算法的实际工作方式。因此,与其诉诸于代码披露,不如通过揭示数学和逻辑符号、自然语言和关于如何选择数据的信息的某种组合,包括所选择的操作规则和为验证这些选择而采取的步骤,这样也可以使算法具有足够的透明度。开放记录策略使算法具备可解释性进而提高算法透明度。对此,需要在算法规制的专门法律中明确网络服务提供者发布关键信息的义务和解释算法的义务。值得说明的是,算法透明度审查目标不在于实现算法的全透明,而是适度透明,即达到“鱼缸透明”的程度即可,无需达到“理性透明”的程度。
算法透明有助于保障算法服务对象的知情权,有助于重构算法私人执法与网络服务提供者责任之间的因果关系,以及对算法私人执法进行问责,便于外部监督以降低算法私人执法的异化风险。
(三)构建算法私人执法问责机制
算法私人执法问责机制构建的目的在于让网络服务提供者对算法私人执法行为负责。传统“行为—责任”的逻辑链条一定程度上因算法的介入而断链。算法的不透明性、自主性产生了算法的不可控性,导致网络服务提供者往往以决策是由技术中立的算法模型作出为由拒绝承担责任。但是网络服务提供者不可能从算法私人执法责任中完全脱身,因为网络服务提供者是算法私人执法的主体,使用算法对网上内容采取删除、屏蔽、过滤等措施,既是裁决者又是执行者,履行着对公众而言极为重要的执法职能。这样,网络服务提供者事先审核义务和私人执法行为具有一定的公共属性和平等协商的私法属性。因此追究网络服务提供者对算法私人执法的责任具有合理性。在此背景下,算法私人执法问责机制的构建旨在恢复算法私人执法行为与网络服务提供者责任之间断开的因果关系链条。算法私人执法问责机制不仅要求网络服务提供者对算法私人执法造成的损害负责,而且要求其向受算法私人执法影响的个人说明决策的过程和理由。因此,对算法设计不合理(如算法设计中并未包含公共价值考量)、算法未充分公开(未达到“鱼缸透明”程度)、未提供人工审查渠道以纠正“假阳性错误”、未提供申诉渠道和救济途径等情况,网络服务提供者均需要承担责任。问责机制的构建为私权力的行使引入必要的检查和监督,确保网络服务提供者以公平和有效的方式制定私人规则并进行算法私人执法。国外早已认识到算法问责的重要性并发展了相关的立法实践。如美国基于其政策和法律体系较早进行了监管策略和法律回应,较早通过了《2019年算法问责法案》,形成了较为具体且灵活的算法治理框架及结构,体现出较为明显的实践导向,注重多元主体参与,构建起以“算法问责”为核心的外部控制模式。欧盟委员会发布的《可信人工智能伦理指南》草案中将可问责性作为可信赖人工智能的首要关键条件,强调算法做出的任何决定都必须记录以经过验证和解释。
在吸收域外经验,结合我国算法治理实践的基础上,算法私人执法问责机制应当明确以下主要内容。第一,明确被问责的主体。不同网络平台的特性、用户量及其日均活跃度不同,私人执法不当所引发的风险、影响范围、后果严重程度也不同。因此,应以算法使用规模、涉及主体的多少、所涉公共利益的类型等确定被问责的主体。如美国《2019年算法问责法案》要求美国联邦贸易委员会对企业进行算法审查,适用的对象包括年收入超过5000万美元的公司,以及拥有超过100万消费者数据的数据代理商和企业。第二,明晰算法问责的标准。为避免歧视性、不公平、有害的算法决策结果产生,应当对算法系统采用各种控制措施,以验证它是否符合运营者的意图,并且应能够识别和纠正有害结果,包括算法技术是否进行了影响性评估,对其是否进行了风险层次划分,是否进行了可解释性内容的配套,等等。第三,规范问责程序。根据程序正义的要求,算法问责的正当程序要求包括但不限于,引入第三方作为仲裁者、赋予算法决策相关利益人要求听证的权利、提高程序透明度等。
(四)确立基本权利保护责任制度
网络服务提供者基本权利保护责任的明确是以人为本原则、权责均衡原则和利益平衡原则的内在要求,既有现实依据,又有理论基础。
首先,智能算法发展引致私人执法扩张,基本权利和社会公益面临被侵犯风险,网络服务提供者基本权利保护责任的明确具有现实紧迫性。一方面,根据宪法原则,基本权利保护责任由公权力主体承担,而私主体免于承担,因此网络服务提供者不负有保护基本权利的责任;另一方面,受限于管制成本和管制能力,公权力主体需要依赖于网络服务提供者对在线内容进行有效公共控制,从而赋予网络服务提供者部分执法权力,私人执法随着技术的发展日益膨胀。结果是,在追求公共价值和保护基本权利责任缺失、程序规则和问责机制缺席等因素的共同作用下,网络服务提供者在行使广泛自主权的过程中极有可能侵害其他主体的基本权利和公共利益。为了规制算法私人执法的异化风险,网络服务提供者基本权利保护责任之规定实有必要。
其次,横向效应理论为网络服务提供者基本权利保护责任的规定提供了理论基础。横向效应理论是应对私权力集中对自由造成威胁的一种回应,其拒绝严格区分公共行为者和私人行为者,将基本权利保护等宪法义务延伸至私人行为者。换言之,横向效应理论关注的是宪法权利是否以及在多大程度上可以对私人行为者之间的关系产生影响的问题。横向效应理论的扩张适用可能增加法律不确定性、对分权和法治产生不利影响,因此基本权利保护责任的横向适用应当限于网络服务提供者因公共职能授权而行使其自主权的范围之内,在著作权领域主要限于著作权私人执法。
最后,根据横向效应理论,基本权利保护责任横向适用于网络服务提供者。一方面,网络服务提供者必须在算法私人执法过程中兼顾用户基本权利保护,从算法设计和部署到私人规则制定和修改,都要将基本权利保护作为重要的价值追求。因此,网络服务提供者不仅要遵从以人为本、利益平衡的价值原则,从根本上纠正偏重著作权保护而忽视基本权利保护的偏见思维,而且要重视人工实质审查的补救作用,及时纠正错误执法行为及其结果,并积极配合用户诉讼权利的行使。另一方面,横向效应理论也为适用于公权力机构的著作权执法约束机制引入算法私人执法提供了理论基础,如正当程序原则、透明度原则等。在这些规范的约束下,算法私人执法的异化风险将受到最大的控制。
(五)配置用户算法解释权和申诉权
个人权利的配置是典型的“能力纠正”手段,旨在改善用户与网络服务提供者之间能力悬殊的境况。为使网络用户拥有与算法私人执法相对抗的能力,可以在算法规制的专门法律中明文规定网络用户享有算法解释权和申诉权。
算法解释权的配置对于算法黑箱的透明化发挥着重要的补充作用。算法解释权即受算法决策影响的个人,其可以要求网络服务提供者对特定算法行为进行解释的权利,解释内容不仅包括与自动化决策相关的信息,而且包括决策背后的逻辑和决策机制的合理性,但是不包括源代码。这一权利允许用户依赖算法过程的“人工翻译”,增强算法中人的维度。相对于知情权而言,算法解释权以行为干预为导向,包括用户知情与行为干预两个层次。具体而言,用户知情层次是指具体算法决策结果的理由说明,即解释具体决策考虑的主要因素以及各因素不同的权重;行为干预层次是指用户更正算法决策结果的行为指引,即应提供某个因素将导致算法决策可能发生的改变,并指出决定性因素。同时为了防止算法解释权的滥用,避免产生较高的解释成本,影响算法决策效率,加重企业解释负担,算法解释权应有所限定:行使阶段限于算法决策作出后;权利主体限于权益受到重大不利影响的个人;该权利的启动以人的参与达到必要程度为条件;不得影响他人的合法权益和自由等等。
申诉权的配置是网络用户权利救济的重要保障,尤其是在算法私人执法实质上间接剥夺了网络用户反通知权的背景下。一般来说,提供内容的人应该有机会通过反通知对任何删除决定提出异议,但是算法过滤技术改变了著作权法的缺省规则,发现侵权信息的主体由著作权人转变为网络服务提供者,著作权人的通知程序被消弭了。没有了通知,反通知也就失去了存在的前提,反通知权名存实亡。为了保障网络用户获得救济权利,该申诉权的设置极为重要。该申诉权应获得法律保障并具有一定的强制性,而非由软法或私人规则加以规定、由网络服务提供者酌情确保。与网络用户的申诉权相对应,网络服务提供者负有保障申诉权实现的义务,包括将内容处置措施及时向内容上传者通知,建立有效、快捷的投诉和补救机制,设置辅助的人工审查程序等。用户有权在对网络服务提供者的处理不满意时向法院起诉,寻求司法救济,特别是关于著作权限制和例外方面存在的争议。作为利益关涉方,网络用户通常是最先发现算法私人执法异常的主体,而申诉权的设置使网络用户有能力对算法私人执法异化行为及时提出异议,并要求网络服务提供者予以纠正或诉诸法院强制其纠正。
算法解释权推动信息从信息优势方向信息劣势方流动,有利于矫正双方信息不对称的地位;申诉权增强网络用户在算法私人执法过程中的话语权,维护自身合法权益的同时,也对算法私人执法的异化起到重要的制约作用。
(六)完善规制网络著作权算法私人执法的规范体系
《中华人民共和国网络安全法》《中华人民共和国数据安全法》《全国人民代表大会常务委员会关于加强网络信息保护的决定》等均赋予网络服务提供者信息监管与处置的权力。另外,中国修订并出台了其它与算法私人执法相关的法律法规、规范性文件,如《中华人民共和国个人信息保护法》(以下简称:《个人信息保护法》)、《中华人民共和国电子商务法》《网络信息内容生态治理规定》《信息安全技术个人信息安全规范》《APP违法违规收集使用个人信息行为认定方法》等,以引导网络服务提供者主体行为,规范算法私人执法。
从我国当前关于算法私人执法的法律制度偏重于对信息内容的管控,这种制度安排导致公权力部门内容审查范围扩大,忽视了算法时代的信息分类处理的不可解释性和“黑箱”现象。从中国网络著作权算法私人执法的整体能效检视,当前我国算法治理的实际能效难以与现实需求相匹配,存在异化风险,有必要在以下方面加以完善。第一,为了克服算法偏见,有效保护用户合理使用权益,应当尝试推进有关合理使用的开放立法,在未来再次启动《中华人民共和国著作权法》修改时将对文本和数据的挖掘与黑箱测试视为合理使用。第二,我国在立法上对网络服务提供者科以积极的监管义务,《互联网信息服务管理办法(修订草案征求意见稿)》(2021年)第16条、第39条进一步规定,互联网信息服务提供者应“建立信息发布审核制度”“加强公共信息巡查”。根据《互联网新闻信息服务管理规定》,互联网新闻信息服务单位应当建立“新闻信息内容管理责任制度”,但是,对于管理什么信息内容及为此应当被赋予何种权责,尚需要有进一步的明确规定。我国可以借鉴德国做法,基于程序正当性的考量,要求网络服务提供者定期将信息监管情况向社会公开以增强透明度。第三,在私权领域,网络服务提供者有必要引入“数据保护官(DPO)”内部审核制度。借鉴欧盟《一般数据条例》,规定具有专业素养的“数据保护官”负责审核数据安全,监控算法的运行状态和运行结果,并向网络服务提供者提供审核建议。在公权领域,建构审计监督制度。我国2020年10月1日发布的《信息安全技术个人信息安全规范》已有算法审计监督机制,相关内容应予以进一步的细化规定。另外,需要引入第三方制约。“算法黑箱”模糊了公私领域的界限,应考虑建立值得信赖的第三方机构监督机制。第四,参考美国《2019年算法问责法案》,我国有必要制定专门的算法问责法,明确算法问责的主体,明晰算法问责的标准。既然公权力在网络信息监管领域对网络服务提供者进行赋权,那也有义务对其权力运行给予必要的监督。责任有失的情况下,算法应用方及其法定代表人、相关监督部门应作为追责对象,承担连带责任。用户可以合理使用权益遭受损害为由提起给付之诉。第五,《个人信息保护法》第24条和第48条对算法解释权的权利范围、启动条件有了初步的规定,但算法解释权的解释内容、适用范围、解释标准还有待进一步细化和限定。算法的社会嵌入性和应用领域应是设定衡量算法解释义务标准时的首要考虑因素。第六,保证网络用户事后救济的权利。如果负面决策是由于数据错误而产生的,算法决策相对人就有权要求更正数据或放弃算法决策,转而申请人工决策。《信息网络传播权保护条例》第16条、第17条就规定了用户对于网络服务提供者信息监管权力行使的异议与救济程序,其问题在于网络服务提供者在实行信息审查与处置时并不以相关法律法规为直接依据,而是直接援引其与用户之间订立的服务协议,将其视为基于网络服务关系而进行的平台内部秩序维护。信息监管遵照何种判断标准有待细化,用户的异议与救济程序能否发挥作用也有待立法进一步完善。
未来我国网络著作权算法私人执法治理体系的构建应综合考量当前网络法律体系的立法现状和发展需要,针对算法执法主体的特征、不同主体之间的权利义务关系等进行专门性立法。
四、结论
当前网络著作权算法私人执法正从法律的自动执行机制逐步转变为超越法律的私人秩序维护机制。这种不断扩展的执法机制失去体系化和制度化约束,可能异化为一种间接的乃至更高位的权力变现手段。算法私人执法不仅挑战着权力的根本属性,而且冲击着公共利益的内在价值。必须警惕算法私人执法的负面效应,洞察算法缺陷与正义需求,及时促进秩序范式的创新,以实现著作权保护以人为本与算法向善的根本关怀。为此,防范私人执法异化,矫正的首要路径应是回归权力与权利的平衡点,呼应不同主体之间对权力义务再配置的现实诉求,赋予私人执法相对人救济权,助推法律与技术的正当契合,实现网络著作权利益平衡的价值皈依。