算法推荐的“技术中立”成为了许多平台企业规避侵权责任的抗辩理由,若加放任,不仅可能导致受害者无法得到应有的补偿,还有可能导致算法推荐技术被滥用,不利于行业的健康有序发展。
文 |陈兵编辑|朱弢
来源:财经E法
随着移动互联基础设施的建设和移动终端设备的普及,信息通信技术和数字数据技术的应用场景和频次得到极大丰富和提升,海量的用户数据的生产、流动、使用、开发得到极大提速,算法技术的开发和应用得到极大激励。以海量数据为基础的算法推荐技术与网约车、网络购物、灵活用工等应用场景深度融合,给数字经济高质量发展注入强大动能。然而,算法推荐服务的广泛应用也可能引发算法黑箱、算法歧视、信息茧房等问题,对市场秩序、消费者福利以及经营者权益产生不利影响。
近期,中国首例算法推荐案——北京市海淀区人民法院对北京爱奇艺科技有限公司(下称“爱奇艺”)诉北京字节跳动科技有限公司(下称“字节跳动”)侵害《延禧攻略》(下称“延剧”)信息网络传播权一案作出判决。
在案中,原告爱奇艺诉称,字节跳动未经授权,在延剧热播期间,其运营的今日头条App利用信息流推荐技术,将用户上传的截取自延剧的短视频向公众传播并推荐。爱奇艺认为,字节跳动在应知或明知侵权内容的情况下,未尽到合理注意义务,存在主观过错,侵害了自己对延剧享有的信息网络传播权。
法院经审理认定,字节跳动具有充分的条件、能力和合理的理由知道其众多头条号用户大量地实施了涉案侵权行为,属于法律所规定的应当知道情形。字节跳动在本案中所采取的相关措施,尚未达到“必要”程度。
最终,法院认为字节跳动的涉案行为构成帮助侵权,并判定其赔偿原告爱奇艺经济损失150万元及诉讼合理开支50万元,共计200万元。
作为全国首例算法推荐案,该案引发了对提供算法推荐服务的平台应承担何等注意义务及责任的广泛探讨。毋庸置疑,明确算法推荐侵权责任,将更有利于算法推荐技术的合理合法应用,同时也警醒算法推荐服务提供者,有助于引导有关行业和平台合规运营。
算法推荐侵权归责之困
一般情况下,行为人因过错侵害他人合法权益造成损害的,应承担侵权责任。然而,随着自动化算法技术的广泛应用,平台可以在无需人为干预的情况下进行信息推送、合同签订以及信息删除等行为。若这种自动化算法产生的行为导致侵权损害发生,将可能面临法律责任追究困难的局面,由于算法技术是中立的,并不存在人为导致的主观过错,这种困境也被一些学者称为“责任鸿沟”。
所谓“责任鸿沟”,是算法的设计者和运营者未能预测算法自主学习及其运行产生的后果,人对机器的行动并没有足够的控制权,因此无法要求人去承担类似传统的机器制造者和操作者的过错责任。依照传统的归责原则,一个法律主体只有在其知晓自己的行为及其后果,并且可以自由选择是否作为的时候,才应该承担法律责任。
“责任鸿沟”在爱奇艺诉字节跳动一案中亦有体现,字节公司在辩称其已尽到合理注意义务时提出,涉案信息流推荐技术不会识别视频的具体内容,其无选择推荐涉嫌侵权内容的主观意愿,不存在法律意义上的推荐行为。总体而言,字节跳动意在主张推送侵权视频是算法推荐技术所为,公司不具有主观过错。
由此,算法推荐的“技术中立”成为许多平台企业规避侵权责任的抗辩理由,若放任其规避应承担的相应责任,不仅可能导致受害者无法得到应有的补偿,还有可能导致算法推荐技术被滥用,成为平台企业规避法律责任的“挡箭牌”,不利于相关行业的健康有序发展。
那么应如何认定算法推荐侵权的法律责任呢?
算法推荐侵权的两种情形
算法推荐侵权的法律责任认定,应当结合个案具体情形进行判断,此处将区分几种情形进行分析,明确不同类型的算法推荐侵权的责任认定、责任分配以及责任承担方式。
在涉及算法推荐侵权的案件中,侵权行为通常可能牵涉三个主体,包括算法开发者、算法使用者、算法消费者。
其中,算法开发者是指开发设计算法推荐技术的主体;算法使用者是指使用算法推荐技术为用户提供服务,对算法的运行具有控制力、支配力的主体;算法消费者则是在数字经济背景下应运而生的一种新型的消费者,是通过在智能算法接入互联网、物联网等网络空间,并在算法作用下为生活消费购买商品或接受服务的消费者,其具有身份上的多重性。
详言之,算法消费者相对于算法使用者而言,具有行为的对象属性,是算法使用者所作用的对象,在算法推荐下展开生活消费活动。同时,算法消费者通过使用算法功能来完成生活消费活动,在这一过程,基于人工智能算法的自学习能力,消费者其实也参与了算法的开发与完善。换言之,在人工智能算法技术广泛适用的情景下,所有参与其中的主体,无论是开发者、使用者亦或消费者,其身份和作用的界限只是相对的,是一个动态变化的过程。故在实践中对算法推荐侵权责任的认定,须结合个案场景予以分析,特别是对责任主体的识别需持开放多元的态度,再根据算法推荐是否直接导致侵权行为发生,以及不同主体在该算法推荐服务场景下的角色和作用予以责任划分。由此,可大抵分为两类情形予以考察。
第一种情形,算法推荐直接导致侵权发生。
在此情形中,损害结果是算法推荐技术运行造成的,而非人为所致。此时,如何侵权行为法律责任进行认定与分配?
首先,需要考察算法推荐技术在设计上是否存在引发侵权损害发生的因素,并考察这些因素是否源于算法开发者的主观过错。即便算法推荐技术的自动化运行和深度学习过程无需人为干预,但需要注意,算法推荐技术的开发与设计中能够嵌入开发者的主观意图,使得算法能够在无需人为帮助的情况下,实现算法开发者想要达到的特定目的。若算法推荐技术本身存在导致侵权损害发生的因素,譬如,算法推荐技术在设计过程中加入歧视性的判定条件,导致算法输出结果具有明显的歧视性,则可以推定算法开发者存在主观过错,此时开发者应当对侵权损害的发生负有一定的法律责任。
其次,需要考察算法使用者在使用算法推荐技术过程的一系列关联行为是否存在侵权过错。这里主要聚焦平台企业作为算法使用者的情况,当平台所使用的算法推荐技术并不是由其开发设计时,平台作为使用者而非开发者,也可能会承担法律责任。原因在于,即便存在算法黑箱,平台使用者无法得知算法可能产生损害后果,其对算法的运行也具有实际控制力,因此,当其在知道或应当知道算法推荐技术的运行会导致侵权行为发生,仍放任该侵权算法运行时,同样需要承担相应的法律责任。
在此类情形中,一般不涉及算法消费者的法律责任,因为算法消费者仅是接受算法推荐服务的对象,对算法推荐技术无直接控制力。当然,由于在动态变化的算法互动场景中,无论是开发者、使用者亦或消费者的身份皆可能发生变化。因此,在一些情形中,算法消费者的身份也可能发生转化而需要担责。譬如,用户主动上传内容或主动关闭个性化推荐,都会对算法推荐的精准性产生影响,此时算法消费者与算法使用者的身份发生交融,成为算法推荐行为的共同实施者,由此可能需要对相应的行为效果承担责任。
简单来说,当算法作为一种商品出售或免费供算法消费者使用时,如果算法消费者拥有算法的直接控制权,能够基于其主观意志决定算法的运行与停止,为算法设定运行目标,其身份将会转化为算法使用者,当其使用和消费算法的行为直接导致侵权损害发生时,同样需要承担一定的法律责任。
再如,一些具有识别能力与编辑能力的算法消费者获得的是开源算法,当其在原算法基础上进行编辑时,可能会改变算法的原有运行逻辑和用途,此时算法消费者会转变为算法开发者,若侵权行为的发生与其编辑行为有关,则需要承担法律责任。
此外,还需要注意的是,人工智能算法的自学习能力,会基于算法消费者的行为或者上传的数据不断调整和优化算法,此时,算法消费者其实也在参与算法的开发,可视为辅助开发者。然而,此时的消费者与真正的算法开发者并不能划等号,前者是被动地参与算法的开发,无法真正参与算法的编辑过程,由此形成的算法并不包含消费者的主观意图。因此,即便算法因自动化学习导致侵权行为发生,这些被动的算法开发者并不存在主观过错,因而无需承担与真正的算法开发者相同的法律责任。但是,如果算法消费者存在主观故意的上传虚假信息,甚至存在利用算法获取不正当利益,将算法消费行为演化为妨碍、破坏算法的行为时,则应承担相应的侵权责任,严重者可能面临刑事责任。
对于侵权责任的分配,则需要考察对侵权发生存在主观过错的主体数量,若侵权行为仅由一方主体所致,且该主体具有主观过错,则由其承担全部的法律责任;若侵权行为由两个或者两个以上的主体所致,当这些主体存在共同故意或者过失时,或者虽无共同故意、共同过失,但其侵害行为直接结合发生同一损害后果的,构成共同侵权,则需由这些主体承担连带责任。若两个或两个以上的主体没有共同故意或者过失,但其分别实施的数个行为间接结合发生同一损害后果的,应根据过失大小或者原因力比例,各自承担相应的法律责任。
第二种情形,算法推荐间接致使侵权发生。
在此类情形下,算法推荐技术和服务并非导致侵权损失的直接原因,仅起到间接作用。前述爱奇艺诉字节一案则属于此类案件,字节跳动所采用的信息流推荐技术,仅起到了向用户精准、高效推荐的作用,其本质上是该公司向用户提供网络服务的辅助工具,不会直接导致侵权损失的发生,只会导致侵权结果进一步扩大。
与第一类情形类似,在第二类情形中同样需要对算法的开发者、使用者以及消费者的法律责任进行区分认定。与第一类情形不同的是,第二类情形中的侵权损失主要是由人为所致。以爱奇艺诉字节跳动为例,作为发布涉案侵权短视频的消费者,其在明知或应知爱奇艺拥有该作品独家版权的情况下,发布涉案侵权视频,具有一定的主观过错,侵害了爱奇艺的作品信息网络传播权。
值得注意的是,该案中字节跳动所使用的算法是协同过滤推荐算法,这一算法的核心思路是用户喜好相似,则点击行为也接近。通过内容推荐收集到一定的用户点击量后,就会进行协同过滤推荐。协同过滤推荐技术不识别视频的内容,主要基于用户的点击进行计算和推荐。这意味着,浏览和搜索涉案侵权视频的算法消费者,实际上也参与到了算法的使用过程中,同时具备算法使用者的身份。
然而,算法使用者的身份并不当然导致这些消费者承担法律责任,因为他们的目的仅为浏览而非传播涉案侵权视频,且其被动参与算法使用过程,协同过滤算法推荐特定涉案视频并不属于这些算法消费者(使用者)的主观意愿,仅是源于协同过滤推荐算法原有设计者的初衷。故此,这些兼具算法使用者身份的消费者无需承担法律责任,最终导致侵权内容加速传播、侵权范围不断扩大、侵权后果加重的责任仍要追溯到作为控制、支配算法运行、凭借算法推荐获益的算法使用者上。
概言之,虽然该案中算法消费者和使用者对侵权损失的发生、扩大、加重共同发挥了作用,但是由于两者在主观意图、过错,应负有的相关义务,以及对算法推荐的实际控制及行为效果的获益等方面均有不同,即对侵权损失的形成、原因及效果比例上不尽相同,故在责任认定、分配及承担上亦应不同。但值得注意的是,未来对算法消费者的相应责任应予关注。
一般情况下,网络服务提供者对用户个体的侵权行为适用“通知-删除”规则,因为当用户上传侵权内容后,网络服务提供者只是基于构建网络环境的需要,被动地为网络用户提供信息接入、存储、定位等技术性服务,并不主动介入网络用户所提供信息的内容,故“通知-删除”规则已然能够阻止个体侵权信息的传播。
然而,在爱奇艺诉字节一案中,平台在侵权过程中获得了巨大流量收益和竞争优势,即取得竞争优势与流量、经济利益与引发更大侵权风险并存,故从比例原则来看,理应承担更高的注意义务,采取更加有效的措施来阻止侵权行为发生,若仅要求其承担“通知-删除”义务,并不能达到有效制止、预防侵权行为发生的实质效果。
“技术中立”不再是“避风港”
爱奇艺诉字节跳动一案作为中国算法推荐侵权第一案,不仅为将来随着算法推荐技术广泛应用而增多的算法推荐侵权案件提供指引,也为算法推荐服务行业作出了警示,“技术中立”已难以为算法推荐服务提供者提供“避风港”,其须承担更多的注意义务,以规避法律风险。
2022年1月4日,国家网信办等四部门联合发布《互联网信息服务算法推荐管理规定》(下称《规定》)进一步细化了算法推荐服务者的义务,旨在规范互联网信息服务算法推荐活动,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,促进互联网信息服务健康发展。《规定》已于2022年3月1日起施行。
《规定》明确要求,算法推荐服务提供者应当加强信息安全管理,建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门和有关部门报告。
可见,与提供单纯的信息存储服务相比,算法推荐服务提供者或者说算法使用者具有更高的注意义务,故其不能再单纯依赖“避风港”原则,即认为收到侵权通知再采取必要措施即可免责。同时,在是否采取注意义务和合理措施的甄别上,不能以采取了删除、断开链接措施为由,抗辩其对侵权行为已经尽到了合理的注意义务。这就对作为算法推荐服务提供者或使用者的平台企业提出了更高的责任承担、义务履行,以及风险防范要求。
鉴于此,作为算法使用的主要主体和推荐服务的主要提供者,平台企业应不断提升算法推荐合规水平和合规能力,严格遵守《规定》所明确的义务,建立事前审查和实时完善多场景合规的立体、动态的规则体系,加强算法推荐服务版面页面生态管理,建立完善人工干预和用户自主选择机制,尤其是对于在首页首屏、热搜、精选、榜单类、弹窗等重点环节应当重点把关,避免侵权行为影响进一步扩大化。同时,也需加大对自动识别违法侵权内容的算法识别技术的研发。
总体而言,平台企业在享受算法技术为企业带来巨大红利的同时,也需承担相应的义务与责任,提升防范算法侵权风险的技术水平和治理能力。
作者为南开大学竞争法研究中心主任、法学院教授,中国新一代人工智能发展战略研究院特约研究员