作者 简介:张珺皓,博士研究生,研究方向为数字法学。文章来源:《科技与法律》2024年第6期。基金项目:教育部哲学社会科学研究重大专项项目“社会主义法治建设实践与中国自主法学知识体系构建”(2023JZDZ012)。注释及参考文献已略,引用请以原文为准。
摘要
社交网络平台以往在应对网络暴力时持中立或消极立场,隐蔽在“避风港原则”“红旗规则”下实行“通知-删除”和“反通知”制度。平台中立不符合主体层面的“空间保证人义务说”“第三人责任说”,客体层面的“利益说”“产品责任说”,内容层面的“权利延续说”“资源-技术-权力说”。基于身份关系和非身份关系的网络暴力的规制路径存在差异。基于身份关系的网络暴力治理应基于“特殊保护”和背景设置的原则,与反家暴法、反校园霸凌法等实现衔接。从一般保护的制度完善角度出发,推动反网络暴力法的制定,设置网络暴力的阈值,进行分阶段打击:网络暴力发生之前,对网络暴力防治进行显著提示,建立大型社交平台网暴治理信息共享机制,自动化决策与人工审核相结合;网络暴力可能达到临界状态时,防止受害者“被动离线”,平台人工负有介入的强制性义务,施行动态刷脸验证;网络暴力发生后,平台有及时向反网暴部门通报网络暴力情况与披露施害者基本信息的义务。
一、问题的提出
网络暴力是数字时代不可承受之重。根据2023年9月20日公布施行的《关于依法惩治网络暴力违法犯罪的指导意见》(以下简称《指导意见2023》)第一条,以及2024年6月12日公布,于2024年8月1日起施行的《网络暴力信息治理规定》(以下简称《治理规定2024》)第三十二条对网络暴力的定义,网络暴力的内涵可从对象、形式、内容和后果四方面加以界定。对象层面,针对个人集中发布;形式层面,可以通过文本、图像、音频、视频等多种形式呈现;内容层面,包括但不限于侮辱谩骂、造谣诽谤、煽动仇恨、威逼胁迫、侵犯隐私,以及影响身心健康的指责嘲讽、贬低歧视等;后果层面,可能导致人格和名誉的侵害(民事责任),扰乱网络秩序、破坏网络生态(行政责任),以及造成受害者精神失常、自杀等严重后果(刑事责任)。同时,《治理规定2024》第三十三条也对网络暴力的外延加以规定,依法通过网络检举、揭发他人违法犯罪,或者依法实施舆论监督的不属于网络暴力。
“从严惩治网络暴力”已被写入2024年最高人民法院工作报告。为治理屡禁不止的网络暴力,《指导意见2023》第二十条“促进网络暴力综合治理”中要求夯实网络平台(网络信息服务提供者)的主体责任。《治理规定2024》第七条也指出,网络平台应当履行网络信息内容管理主体责任。
然而,网络平台以往基于“避风港”规则和“红旗”规则建构了“通知-删除”和“反通知”制度,其对参与网络暴力治理采取中立立场。美国1996年公布的《通信审慎法案》(CDA)第230条使在线平台免于因用户的非法内容而承担责任。随后,法院将这种全面豁免权扩展到社交网络平台。在Doev.Myspace,Inc.一案中法院的理由是,网络暴力的受害者可以通过其他途径追究网暴者的责任。后来加利福尼亚第二分区上诉法院认识到,平台因为无须担心网络暴力带来的责任,所以没有动力开发过滤、屏蔽和监控恶意内容的技术。对此,1998年通过的《数字千禧年版权法案》(DMCA)建立起“通知-删除”程序。该程序要求平台在了解到侵权信息后迅速移除或禁用对该材料的访问。同时为保障用户宪法第一修正案的权利,又建立起“反通知”程序,“收到反通知后,及时向提供通知的人提供反通知副本,并告知该人10个工作日内将替换被移除的材料或停止禁用对其的访问,并且在收到反通知后不少于10天、不超过14天,替换被移除的材料并停止禁用对其的访问。”立法者对平台响应和审查此类通知的能力感到自信。
在我国,《中华人民共和国民法典》(以下简称《民法典》)第一千一百九十五条、一千一百九十六条采用了上述两项规则。此外,第一千一百九十六条第二款旨在避免平台陷入烦琐的争议解决流程,督促网络暴力信息的受害者向相关部门投诉或向人民法院提起诉讼,从而引导由公权力来裁断网络暴力的纠纷。这从侧面也能够体现其中立和消极立场。对此,有学者批判这种将责任置身事外和态度超然于外的消极立场,呼吁让平台对网络暴力治理责任“停止免疫”(stopimmunizing)。其中蕴含的理论问题是:为什么网络平台应该参与网络暴力的治理?采取何种路径能够使得平台更好地参与网络暴力治理?为了调和《民法典》与《指导意见2023》《治理规定2024》在治理网络暴力上的不同立场,有必要剖析网络暴力平台治理责任的法理基础和完善相应的治理机制和制度。
二、平台深度参与网络暴力治理的法理基础
学界关于平台参与网络暴力治理的理论基础的探讨多集中于“守门人理论”,一是认为守门人即为“监管者”,守门人义务是一种“准监管义务”。“守门人”的表达存在隐喻的局限,其规范表述为空间安全保障义务和第三人责任。对此,可提炼出主体层面的“网络空间安全保障义务说”和“第三人责任说”。二是守门人的角色定位忽略了平台不仅是平台服务的提供者,同时也是谋求自身利益最大化的市场主体。守门人理论无法处理好隐私与竞争这对法益之间的潜在冲突。对此,可提炼出客体层面的“利益说”和“产品责任说”加以应对。三是要平台成为守门人要赋予平台对内部生态系统特定的监管权力。平台权力的来源分为“权利延续说”和“资源-技术-权力说”。
(一)主体层面的学说
1.“网络空间安全保障义务说”
“网络空间安全保障义务说”认为,平台是网络空间的安全保障人,平台应使得平台内的用户免受攻击性内容的伤害,如果平台未尽到安全保障义务,则应承担相应责任。至于承担何种责任,《中华人民共和国电子商务法》第三十八条第二款只是规定“承担相应的责任”。《民法典》第一千一百九十八条通过“列举+概括”的方式明确了经营场所、公共场所的经营者、管理者或者群众性活动的组织者的安全保障义务。列举部分未包含平台,概括部分是否包含平台则存在两种对立的观点。肯定说认为,对该条进行目的性扩张解释,强调网络服务提供者有义务确保其所控制的网络空间的社会交往安全,如果网络平台未尽到网络空间的安全保障义务,则应基于《民法典》第一千一百九十八条承担补充清偿责任,承担补充责任后可向网暴加害者追偿,否定说主张,该条仅限于物理空间,网络平台的安全保障义务的发生依据在于《民法典》第一千一百九十七条,平台在知道或应当知道网暴加害者利用网络服务侵害他人民事权益而未采取必要措施的,成立网络平台与网暴加害者的共同侵权,在共同侵权的部分对网暴受害者承担连带责任。
在司法实践中,持肯定立场的观点认为,虽然《民法典》第一千一百九十八条没有明确列举网络平台规定为空间安全保障义务的主体,但是其文意也没有将这种具有营利性的组织行为排除在群众性活动之外。为了判定网络平台是否是“经营场所、公共场所”,应以是否与宾馆、商场、银行、车站、机场、体育场馆、娱乐场所具有类似性质为标准。这种性质在于空间安全保障义务人与受保护人之间存在一种极为紧密的关系,如合同关系等。用户在公共网络平台进行社交生活与娱乐,网络平台应基于网络空间的特殊性、用户使用等情况,对平台进行改造,排查和消除对网络用户可能造成的危险和隐患。因此,网络平台成为该条的规制范围。空间安全保障义务分为法定的和约定的安全保障义务。平台与用户签订软件使用或服务协议后产生附随的安全保障义务,同时,基于《民法典》第一千一百九十八条具有法定的安全保障义务。持否定立场的观点认为,《民法典》第一千一百九十八条的空间安全保障仅限于物理空间,该条并非空间安全保障义务的唯一来源。
可采取一种折中的方案,调和上述两种立场的观点:一是从体系解释的立场来看,《民法典》第一千一百九十四—一千一百九十七条是对网络服务提供者安全保障义务的特别规定,第一千一百九十八条是安全保障义务的一般规定。特别规定与一般规定相结合,能够编织起严密的救济网暴侵权损害之网。二是从责任承担上,安全保障义务的补充责任适用于机会丧失、因果关系难以证明、义务保护范围不确定或超越保护范围的情形,在减轻网暴受害者的证明责任、扩大保护网暴受害者范围、加重平台义务、保障受害者的求偿利益等方面具有优势。《民法典》第一千一百九十五条第二款和第一千一百九十七条都规定了连带责任,第一千一百九十八条补充责任的存在也能够阻却连带责任在平台责任归属扩张的趋势。
2.“第三人责任说”
“第三人责任说”意为,平台作为网络侵权、网络违法以及网络犯罪的加害者和受害者双方之外的第三方,如果未尽到合理注意义务,那么也需要承担责任。《民法典》第一千一百七十五条规定,“损害是因第三人造成的,第三人应当承担侵权责任。”平台负担第三人责任的正当化基础在于在因果关系层面中断了网络暴力法律上的因果关系。
首先,平台的行为必须发生在网暴加害者行为之后且独立于加害者,否则不成立“第三人责任”。一是网暴损害完全是由平台所造成的,此时网暴损害完全由平台承担,不存在第三人的问题。例如,作为消息发布源的社交平台,其作为“始作俑者”进行网暴信息的首次发布,其他不知真相的用户只是基于该信息进行合理评论和转发,此时社交平台不再是互联网服务的提供商,主体发生了转换,平台应成为唯一的责任主体。二是平台的行为与加害者的行为构成共同侵权。例如,当加害者发布网暴信息后,平台对其进行不合理加工整理、贴标签、置顶、推荐、引流,等等。此时平台创造内容,超越了第三人的角色从而与加害者的角色等同。三是平台和加害者分别实施网暴行为造成同一损害,平台和加害者的网暴行为都足以造成全部损害,或者平台和加害者分别实施网暴行为造成同一损害,能够确定责任大小或者难以确定责任的大小。前述两种情况构成无意思联络的数人侵权,分别适用《民法典》第一千一百七十一条和一千一百七十二条。难以确认责任大小的情况更为常见,因为网暴的损害具有匿名性、群体性、无形性、潜伏性、未知性而难以评估。
其次,平台负担第三人责任的第一个要件是与网络暴力的发生具有事实上的因果关系。网络暴力发生事实上的因果关系是指平台与网络暴力是否属于“引起与被引起”的关系,即事实上的联系。若平台为网络暴力的发生提供形式或实质的物质、技术或媒介等因素,则平台与网络暴力具有事实上的因果关系。事实上的因果关系是认定网络暴力责任的第一步,如果不存在网络暴力责任事实上的因果关系,那么也就没有必要继续认定网络暴力法律上的因果关系的必要了。例如,如果A社交平台进行定期的网络维护和更新,使得网络信息加害者转战B社交平台发布网暴信息,此时A社交平台因为与B社交平台的网暴信息没有事实上的因果关系,从而不承担责任。
再次,平台负担第三人责任的第二个要件是需要中断加害人与网络暴力的法律上的因果关系。第三方责任的引入往往是网络加害者为减轻或免除自身责任,将责任转移给平台而设定。判断是否中断加害人与网络暴力的法律上的因果关系有两种学说:一是以德国为代表的大陆法系的“相当因果关系说”,即在通常的客观情况下,而非异常的独立原因介入时,考察加害人的行为是否会增加网暴损害后果发生的可能性。二是英美法系的“合理预见说”,即受害人的损害是加害人能够合理地预见,网暴加害人才需要为此承担赔偿责任。所谓可预见的损害,是指按照事物发生和发展的过程而自然的、可能产生的结果。根据两种学说,如果网暴加害者在网络上发布网暴信息,其应该能够预见其发布的信息具有扩散的客观可能性,其不能以第三人责任为借口免除或者减轻自身责任。但是平台未采取措施防治网暴,避免损害进一步扩大,则需要承担网暴扩大的第三方责任。在对外承担上,网暴加害者对网暴受害者的全部损失承担责任,平台对网暴扩大的损失对受害者承担责任,对网暴扩大的损失界定不清的,承担网暴受害者的一半损失。网暴加害者与平台在扩大的损失上承担不真正连带责任。
复次,根据控制和活动水平(control and activity level)可以证明平台的第三方责任。一是平台能够“控制”网暴加害者的不当行为。在“就近原则”下,社交网络平台由于能够立即删除网暴内容或因违规禁言、封禁或者删除用户账户,从而满足了控制因素。二是设定平台的第三方责任能够激励平台考虑其“活动”可能带来的负面影响。当平台的运营至少满足这两个因素之一时,设定平台第三方责任是合理的。
(二)客体层面的学说
1.“利益说”
“利益说”认为,平台因为可以从用户的信息、产生的数据、使用轨迹、流量等方面进行获利,那么根据“谁获利,谁负责”的原则,平台具有积极防治网暴的义务。根据报偿理论,平台需要对自己的活动所提升的侵权、违法和犯罪风险担责。DMCA规定,平台因未通过网暴活动直接获得经济利益而免责,但是“利益说”动摇了这种免责基础。
“利益说”的代表性理论之一是公司法上的“利益者相关理论”(stakeholder theory)。在标准的公司治理模型中,将公司的基本目标设定为将股东的利益最大化。例如在恶意收购中,只要符合股东的最佳利益,即便收购会造成裁员或者减损管理者利益也在所不惜。这一目标阻止了公司董事和经理们将其他利益置于股东财富最大化之前。相比之下,“利益相关者理论”认为没有任何一个利益相关者群体应该将其利益置于其他所有人之上。该理论坚持规范和工具的“整合论断”:在规范背景下,企业对利益相关者负有道德责任,商业决策受到商业伦理的制约;在工具层面,健康的公司环境,包含使员工更加快乐,能够使员工工作更努力和更有效率。网络平台、监管者、网暴加害者、网暴受害者、其他平台用户、网暴受害者的近亲属等主体共同身在网络社区,其彼此之间的利益并非如同网暴所呈现的完全敌对关系,而是呈现利益相关甚至利益共生的关系。平台不能置身事外的利益相关的正当性理由在于:平台不仅作为私主体追求自身的最大利益,而且需要承担促使网络社群良性互动和交流的道德责任,增加网络社区的信息及时性、真实性、有效性能够提升网络平台自身建设水平,吸引更多用户和广告商进驻平台,实现良性互动。例如,从2020年开始,以“清朗”为名的行动计划对网络领域的乱象进行专项集中整治,营造风清气朗的网络环境符合各方主体利益。
“利益说”的代表性理论之二是获利交出理论(disgorgement damages)。获利交出理论认为,侵害他人权益者可能从其侵权行为中获利,民法上使用获利交出来阻却侵权行为。在网暴行为中,看似没有任何一方获利,实则不然,“网暴”具有经济性的一面常为我们所忽视。“网暴经济”可以分为以下两方面:一是网暴的发生是一个集聚的过程,在网暴形成的初期,激烈的互动,如发文、点赞、转发、评论等,能够增加用户广泛的参与度、关注度、活跃度,也能够吸引更多的新用户和媒体关注,进而增加平台的曝光度、知名度、广告收入、竞争优势和市场价值。二是数据收集方面。《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》指出,数据是一种新型生产要素,已快速融入生产、分配、流通、消费和社会服务管理等各环节,能够有效增强数字经济。网暴的发生过程产生更多的用户行为数据,可以用来提高广告定位的精确性、改善用户体验或开发新的收入渠道。可见,平台客观上通过网暴行为进行了获利,要求其交出一部分利益进行网暴防治便具有合理性。网暴经济是平台经济不为人知的阴暗面。
2.“产品责任说”
产品责任说认为,平台提供的网络社交平台可以被视为产品,平台应对网暴的发生承担严格责任。平台责任与产品责任二者似乎风马牛不相及,但是究其细理,也有一定参考价值。
首先,社交网络平台是否是产品存有争议。社交网络平台本身属于无形物,不属于产品。但是社交网络平台依托的软件程序是技术性智力成果,从而属于产品,适用产品责任。
其次,网络暴力是否可以被视为社交网络平台软件的缺陷值得探讨。《中华人民共和国产品质量法》第四十六条规定,产品缺陷是指存在危及人身和财产安全的不合理的危险。网络暴力的损害大多为心理损害,符合产品缺陷的结果标准。综合欧盟国家“消费者合理期待”和美国法上“不合理的危险”两种模式,缺陷是指产品不能提供消费者对产品合理期待的安全,具有不合理的客观危险状态。如今,网络暴力作为网络平台软件带来的最大负面影响,消费者应基于现有技术水平和发展风险对网络平台软件能够合理防范网络暴力具有合理期待,不应在没有平台保护的情况下处于网络暴力的威胁状态。平台软件可能存在积极的产品缺陷,如存在歧视性算法、内容推荐的偏见、推动有害行为的激励机制、为博得流量而纵容网暴信息传播的自动化决策,等等;也可能存在消极的产品缺陷,即没有针对网络暴力识别和防护的技术且同时缺乏能够针对网络暴力的人工审查。该人工审查和技术的标准应设定为能否应对大规模网络暴力为准。如果认定平台所用的软件存在防治网络暴力的缺陷,根据《民法典》第一千二百零三条,网暴受害者可以向平台,也可以向网暴加害者请求赔偿。甚至依据《民法典》第一千二百零七条还可能适用惩罚性赔偿。
再次,从责任承担来看,产品责任的设定是为了突破合同的相对性,畅通消费者向生产者和销售者求偿之路,归责原则也由过去的过错责任发展至现在的过错责任和严格责任的二元并立。一方面,严格责任的适用要极为谨慎,平衡网暴受害者和平台二者之间的利益。可从“善意技术人”的视角出发,如果在软件的开发、更新和维护中,已针对网络暴力尽到了形式审查的技术开发义务,则不应追究平台的产品严格责任。另一方面,严格责任和惩罚性赔偿也应如一把达摩克利斯之剑悬挂在平台之上,推动平台开发网络暴力防范算法以及投入人工成本对网暴内容进行审查。
(三)内容层面的学说
1.“权利延续说”
“权利延续说”认为,平台保留删除不符合使用条款的任何内容或因违规行为删除用户账户的权利。平台不控制用户生成内容的实质,但通常雇佣人员来事后审查内容和用户报告的攻击性内容。如果不承认平台的防治责任,则网暴内容的最初创作者便成为唯一可能承担责任的人。
首先,“权利延续说”的消极对立面是“权利沉默说”,即平台通过不作为的方式,消极放弃审核、删除、屏蔽网暴内容以及断开网暴链接、降低网暴信息热度或流量等权利,那么要承担不积极行使权利的不利后果。
其次,“权利延续说”的积极对立面是“权利滥用说”,即平台在网暴信息的广泛传播中,搭上了流量的快车道和顺风车,通过网暴信息“招蜂引蝶”,通过网暴事件掌握流量密码,成为煽风点火、搬弄是非、诽谤侮辱的间接帮凶,最后隐匿在平台中立的面纱之下,“深藏功与名”。《治理规定2024》第十条便对此作出了禁止性规定,禁止任何组织和个人利用网络暴力事件实施蹭炒热度、推广引流等营销炒作行为。平台具有庞大的用户基础、广泛的传播渠道和算法推荐的放大效应,如果其利用网暴信息进行谋利将带来更大的危害性。
2.“资源-技术-权力说”
“资源-技术-权力说”认为,由于许多社交平台拥有的庞大资源可用于解决网暴内容,因此对平台给予豁免权也是不公平的。社交网络平台可以轻松地将它们的一小部分资源转移到输入监控机制中,以对抗网络暴力。
首先,网络平台具备治理网络暴力的技术能力。由于商业利益的驱动,网络平台可以投入成本对所有用户实行精准营销,那么同理可推知,其也能够顺带解决网暴问题。其次,网络平台投入网暴治理的技术成本和人力成本并非无限扩大。网络平台如果致力于不断更新和升级治理网暴的技术,那么该技术可能被政府部门采购,或者被同行购买,从而能够在一定程度上填补技术治理成本和人力成本,甚至可能获得盈利。
由此可见,平台作为守门人深度参与网络暴力治理具有主体、客体和内容三方面正当的法理基础。基于此,可以进一步探讨平台深度参与网络暴力治理的路径规划。
二、平台深度参与网络暴力治理的路径规划
《指导意见2023》第一条指出,“与传统违法犯罪不同,网络暴力往往针对素不相识的陌生人实施”。然而,这种观点仅从“量”上对网络暴力进行了划分,忽略了针对熟悉的人实施的网络暴力在“质”上的危害性。网暴者对熟悉的人发起网暴,由于掌握了熟悉的人的个人信息、社会关系、使用网络的习惯、应对网暴的经验等“内部资料”,“背刺”受害者,能够使得受害者更容易处于孤立无援的境地,从而造成的网暴杀伤力更强、持续的时间更久。与受害者亲疏关系的远近,会模糊社交平台上言论在“玩笑”与“伤害”之间的界限,甚至以同学恶作剧、夫妻打闹、情侣争吵等说辞为名,行网暴伤害之实,基于身份关系的网络暴力被定位在“隐私和占有欲、求爱和犯罪、侵入和亲密的似是而非的连接点上”;同时,身份关系也影响暴力程度的认定。身份关系是网络暴力是否成立以及程度判断的必备要件和第一要件。由此观之,区分基于身份关系出发的网络暴力治理和基于非身份关系的网络暴力治理具有实践合理性。
(一)基于身份关系的网络暴力治理
1.原则:“特殊保护”和背景设置的原则
首先是保护弱势群体的原则。基于身份关系的网络暴力往往更加隐蔽,受害者可能更加脆弱。降低适用标准有助于保护这些弱势群体,确保他们的权益不被忽视,保障弱势群体在数字空间的数字化生存的“最低水准”。数字弱势群体在网络暴力中话语权失衡,基于特殊保护原则进行网暴治理能够彰显数字平等权。例如,《治理规定2024》第二十四条规定,对遭受网络暴力侵害的未成年人、老年人和残疾人提供网络暴力信息防护指导和保护救助服务,协助启动防护措施,并向网信、公安等相关部门报告。
其次是基于身份关系的网络暴力治理,关系和过去的行为能够将行为置于有意义的背景中。一个孤立事件,如在网络上一次报复性的亲密的聊天记录的公开,可能看起来微不足道,但是基于施暴者与受害者的特殊身份关系,对受害者而言可能具有更强的破坏力。
2.制度:与反家暴法、反校园霸凌法等实现衔接
基于身份关系的网络暴力治理是基于身份关系的传统暴力在网络空间的延伸,反传统暴力的法律通过扩大解释能够与网络暴力治理实现有效衔接,借鉴域外的做法,这种扩大解释以心理或精神伤害为中心。
在家庭暴力领域,一是在概念容纳上,综合《中华人民共和国反家庭暴力法》(以下简称《反家庭暴力法》)第二条和第三十七条规定,家庭暴力是指家庭成员和家庭成员以外共同生活的人之间的侵害身体和精神的行为。该定义从字面上不能涵盖离婚后或者分手后加害者基于以往婚姻关系和恋爱关系的内容进行身心伤害的行为,但是这种暴力实际上是家庭暴力的延续,应一并纳入规制范围。
二是在家暴形式上,在网络上实施的家庭暴力的直接危害后果是受害者的声誉损失带来的精神损害。《反家庭暴力法》第三条规定“国家禁止任何形式的家庭暴力”,从而为容纳数字形式的家庭暴力的概念留有余地。因为数字网暴的形式多表现为网络捏造、网络诽谤、网络骚扰、网络追踪、网络接触以对被害人的心理造成压制,所以数字家暴将传统家暴中许多不会直接引起身体和精神损害的行为纳入了考量之中。此外,数字家暴受害主体不仅是有过或正在进行婚姻或恋爱关系的双方,也包含了双方的近亲属。
三是在网络家庭暴力的宣传教育上,由于如今将由亲密关系的人发起的网络暴力认定为家庭暴力还没有成为普通大众的共识,结合《反家庭暴力法》第九条,各级人民政府应当支持社会服务机构等社会组织开展数字家庭暴力预防知识教育等服务。例如在美国华盛顿反家庭暴力联盟的技术安全项目进行的评估显示,该项目通过教育受害者关于技术安全的知识,旨在减少施暴者带来的风险。评估发现,该项目提高了受害者在保护自己免受线上施暴者伤害方面的信心和知识。
四是物理隔离和心理隔离上,结合《反家庭暴力法》第十五条第二款和第十八条,遭受严重数字家庭暴力及威胁的受害者,公安机关应当通知并协助民政部门将其安置到临时庇护场所,进行生活帮助、心理疏导和情感支持。
五是初期的防控上,结合《反家庭暴力法》第十六条、十七条、二十二条,《指导意见2023》第十五条,《民法典》第九百九十七条,对正在实施或即将实施的数字家暴,可适用法院的人格权侵害禁令制度、人身安全保护令和公安机关的告诫书加以联合惩戒。
在校园霸凌领域,我国没有专门的反校园霸凌立法,而是将防止中小学生霸凌的条款置于《中华人民共和国未成年人保护法》(以下简称《未成年人保护法》)、《中华人民共和国预防未成年人犯罪法》(以下简称《预防未成年人犯罪法》)和《中华人民共和国未成年人网络保护条例》(以下简称《未成年人网络保护条例》)等相关规定中。一是关于网络欺凌的明确规定。《未成年人保护法》第七十七条第一款规定网络欺凌行为是通过网络以文字、图片、音视频等形式对未成年人实施侮辱、诽谤、威胁或者恶意损害形象等行为。《预防未成年人犯罪法》第三十三条规定,“有殴打、辱骂、恐吓、强行索要财物等学生欺凌行为”,该“等”为“等外等”,在网络空间的辱骂、恐吓、侮辱、造谣等均属于网络欺凌行为。二是保护对象的不周延。由于学生学制的延长,反校园网络霸凌的对象应包含成年和未成年的全体在读学生,而不仅仅存在于“未成年人”保护相关法律中。《普通高等学校学生管理规定》对进入高等教育的成年学生也仅在第四十七条模糊规定,学生使用网络时不得编造或者传播虚假、有害信息。三是在欺凌防控制度上,《治理规定2024》第二十七条指出,平台应当优先处理涉未成年人网络暴力信息的投诉、举报。《未成年人保护法》第三十九条和第三十五条第一款分别规定了学校对欺凌的制止义务和教育义务、严重欺凌行为的报告义务以及学校的安全保障义务;第七十七条第二款规定遭受网络欺凌的未成年人及其父母或者其他监护人有权要求社交平台采取删除、屏蔽、断开链接等措施。社交平台收到通知后应当采取必要措施防止网络欺凌行为。秉持着对未成年人特殊保护的原则,该条不适用于“反通知”规则,社交平台在接到相关通知或者主动查明后,应不迟缓地立即和绝对删除。《预防未成年人犯罪法》第二十条、二十一条规定建立学生欺凌防控制度和支持社会工作者进驻学校的笼统表述。无细致严密的规定以应对校园网络霸凌。四是防控技术上,《未成年人网络保护条例》第二十六条创造性地规定了运用“以技术治理技术”的思路,规定网络产品和服务提供者应当采用人工智能、大数据等技术手段加强对网络欺凌信息的识别。同时,为防止“算法黑箱”等技术盲点的出现,《未成年人网络保护条例》第二十六条还规定数字赋能与人工筛选相结合,须采用人工审核的方式识别网络欺凌信息。
(二)基于非身份关系的网络暴力的治理
1.阈值:设置网络暴力的阈值或临界值,进行分阶段打击
设置暴力阈值或临界值是域外的通行做法,能够在善意的网络批判、网络举报或网络评论与恶意的网络暴力之间划出界线。暴力阈值的设定以行为人的感知为主观标准,以网暴的实际危害力作为客观标准。阈值与概率紧密联系,概率的精确计算可以交给网络暴力治理的算法技术,进而构建起以网络暴力阈值或临界值为中心的算法模型。
设置网络暴力的阈值符合网络暴力的发生机制。基于身份关系和非身份关系的网络暴力的形成都需要陌生网络用户的广泛参与。网暴信息戳中陌生人的敏感神经,进而陌生人通过此宣泄情绪,成为“键盘侠”。参与网暴信息的大部分人,他们既没有牢不可摧的联盟,更没有坚如磐石的信仰,其因短暂的热情而聚,也会因为情绪得以发泄而散。因此,设置网络暴力的阈值可以与网民的情绪同频共振,当网民的情绪被引导至非理性阶段即将对当事人造成不可挽回的后果时,网络暴力阈值触发网暴防卫最强硬的机制,迅速扑灭网民的激情,转移和抑制网民的热情,从而为网暴迅速降温。
2.制度:反网络暴力法的制定
针对网络暴力,当下有三种立法模式可供选择:反网络暴力的领域综合立法、针对具体对象的专门立法、非立法中心论。
持反网络暴力的综合立法观点认为,通过综合立法可以建立起基础性的法律制度支撑和相互联结的结构体系,从而有效治理网络暴力。否则,就必须将网络暴力行为拆解为具体的民事侵权责任和违法犯罪类型,再进行独立评价。这种方式在规制效率上不具优势。综合立法能够提供系统化和一体化的法律框架,提高治理的整体效率和效果。持针对具体对象的专门立法的观点认为,出于立法成本和保持法律秩序的稳定性的考虑,在原有的法律部门内,针对具体对象的专门立法可以与已有的规定形成良好衔接。持非立法中心论的观点认为,治理现有网络暴力的焦点不在于立法,而是在于法律执行。例如,澳大利亚的SmartSafe项目中,62%的参与者认为警方只是“有时”认真对待技术促成的网络暴力,并且忽视了非身体暴力的严重性。在具体的执法场景中,即便网暴受害者怀疑到具体的人,即便这些信息是从施暴者的手机发出的,但是警方也经常认为无法确定是施暴者本人发送了这些信息。
针对具体对象的专门立法,并非一个理想的解决方案。因为规制对象可能会扩大或演变,也可能会出现新的、相关的、之前未曾预料到的问题。针对具体对象的专门立法是打补丁式的立法方式,不能提供给网络暴力受害者主动有效的保护,该立法方式被形容为像“悬崖底下的救护车”。治理网络暴力的领域综合立法能够为法律执行提供清晰的依据,科学立法是严格执法的前提,而非立法中心论存在逻辑缺陷。由此可见,应采取反网络暴力的领域综合立法模式,我国反网络暴力已经在部门规章层面出台了《治理规定2024》,应待时机成熟时制定《反网络暴力法》。
在立法框架上,可以采用分级治理的原则。一是对网络暴力及其风险进行分级,设置重大网络暴力及其风险、中度网络暴力及其风险、轻度网络暴力及其风险,以解决重大网络暴力风险为出发点。二是与特殊人群保护相衔接,“针对重点保护人群有规定的,从其规定。”三是在立法早期,可以多一些宣示性的条款,成为法律规定的伦理性规范,待治理网络暴力的经验成熟时再进行修订。
除了明确平台参与网络暴力治理的路径规划,平台还需要建立一套更为全面的一般性治理机制,以确保在所有情况下都能有效应对网络暴力行为。
三、平台一般性治理网络暴力的机制完善
网暴的发生表明网络世界中各种有生力量之间不能自发地形成有序格局,而是如同分子的布朗运动一般呈现无序的状态。如果不对网络暴力进行一般性治理,那么其将在丛林法则下愈演愈烈。
(一)网络暴力发生之前
1.准入门槛:显著提示义务
首先,平台在用户首次注册时,应在社区公约、社区行为准则和使用的准入条约里设置禁止网暴以及相应的处置条款。并且将相关条款进行文本加粗或者加下划线进行显著标识。同时不能在准入条约里过度使用显著标识使得防范网络暴力条款与其他显著标识条款无法区分。通过这种形式以充分发挥平台自治的功能。作为非法律的补救措施,对网暴防治的显著提示能够起到教育功能,使得网络用户了解和意识到技术推动下的网络暴力。关于网暴防治的信息可以在平台软件或者网站的首页或者明显位置进行展示,并且鼓励平台以案说法,结合平台已有的案例进行教育警示。
其次,《治理规定2024》第二十四条规定,平台发现用户面临网络暴力信息风险时,应当及时通过显著方式提示用户,告知用户可以采取的防护措施。显著提示的判断标准是当事人的合理注意,并辅以其他直观性判断要素。显著提示并不禁止信息的呈现,是一种“提示型”的规制模式。结合前述对网络暴力信息的分级,应标注疑似网络暴力信息的危害等级。
2.平台联动:建立大型社交平台网暴治理信息共享机制
网络暴力信息容易跨平台流转,同一个用户可能在多个平台批量注册多个账号,不同用户围绕同一主题进行多平台串联,只有建立大型网络平台网暴信息共享机制,才能避免“按下葫芦浮起瓢”的困境。
第一,平台联动以超级平台和大型平台加入为原则,鼓励小中型平台加入以完善平台的反网暴处置流程,精进自身反网暴技术。倡导超级平台和大型平台对小中型平台提供反网暴的技术指导和经验共享。例如,法国鼓励国内平台相互对照进行合规建设,并在打击网暴上采取一致行动,防止网暴加害人在不同平台之间挑选低标准平台钻监管不统一的空子。
第二,网暴治理信息共享机制的形成可能面临共享能力不足、共享成本高昂以及信息安全和责任难以落实的困境。应在组织设置上,由中央网信办牵头,强化政府监管,结合已有的政府信息共享平台,开辟网络暴力治理信息共享的通道,利用政府信息共享平台对信息安全的维护框架;在制度保障上,《治理规定2024》第二十九条规定了协同治理的理念,网信部门会同公安、文化和旅游、广播电视等相关部门建立健全信息共享、会商通报、取证调证、案件督办等工作机制。在人才保障上,平台应该培训和培养网络暴力治理的专门人才。此外,监管部门也应向平台共享治理网络暴力的信息、手段与方式,应针对网络暴力信息涉及的个人信息与隐私范围确定无条件共享、有条件共享和不予共享的范围。
3.风险识别:自动化决策与人工审核相结合
《治理规定2024》第十二条规定,应建立健全网络暴力信息特征库和典型案例样本库,采用技术手段和人工审核相结合的方式加强对网络暴力信息的识别监测。
首先,在内容界定上,《治理规定2024》第三十二条对网络暴力信息的范围进行了从宽界定,将不良信息也囊括在内。一是因为不良信息极易转化为网络暴力;二是因为不良信息与网暴信息的界限难以甄别。
其次,在身份关系上,基于身份关系的网络暴力应使用比基于非身份关系的网络暴力认定更低的适用标准。一是因为身份关系的特殊性能够加剧受害者的心理压力和伤害。二是对以往基于身份关系的网络暴力比非基于身份关系的网络暴力适用更高证明责任的做法进行纠偏。矫枉过正的方法有助于迅速提高社会对基于身份关系的网络暴力的关注度和敏感度。在网络暴力防控理念深入人心后,可以适时调整标准,使无论受害者是否与网络暴力加害者有身份联系,都适用相同的网络暴力识别标准。
再次,自动化决策系统通常依赖于数据挖掘和机器学习算法来识别模式和行为特征,这些技术可以用来防治网络暴力。例如,使用文本分析技术(如自然语言处理)来检测恶意语言、威胁或其他暴力倾向的语句。深度学习图像描述方法可以将网暴者发送的图像生成一个完整、通顺、适用于对应场景的描述语句,实现从图像到文本的跨模态转换。这样既可以有效防范网暴者通过将文字编辑后转换为图像逃避审查,也能够对网暴者利用发布受害者的隐私图片施行的网暴进行针对性打击。此外,可将混沌序列加密算法嵌入图片水印形成“数字指纹”,让每一张图片都打上传播者的“钢印”。人工审核者在处理复杂的情况和理解上下文方面起着关键作用。他们可以评估自动化系统可能无法正确解读的微妙语境,如讽刺语或双关语。人工审核员的介入可以确保更高的准确性和公平性。可建立一个有效的反馈机制,让系统根据人工审核的结果不断学习和改进,是提高识别精度的关键。
(二)网络暴力可能达到临界状态时
1.绿色防护:防止受害者“被动离线”
当网络暴力达到临界状态时,让受害者完全断开网络连接的方式并不能取得预想的效果。一是,因为即便受害者脱离了该环境,但是网暴遗留的阴影仍然还留在网络空间。受害者可能因此而焦虑、抑郁、网暴后应激障碍、离家出走或者滥用酒精、等等。二是,网暴是群体性的网民对单个个体施行的控制、折磨和孤立行为。网暴后使受害者退网本来便是网暴施暴者的目的之一,退网反而达到了他们的目的。三是,以暂时退网来暂缓网暴的影响剥夺了他人使用网络空间的权利。人是社会性的动物,网络社交已成为人获得正常自由的生命体验不可或缺的部分。同时,网络也可以增强受害者与朋友和家人的关系,并且可以为受害者提供宝贵的在线资源和支持服务的访问权的优势,如网络心理咨询。四是,法理层面,要求网络暴力受害者离线会引发这样一个质问:为什么网络暴力的受害者被要求放弃他们的数字设备和在线身份,而重点不是应该让施暴者为他们的行为负责吗?易言之,法不能向不法让步,该离线的是网暴者,而非网暴受害者。由此可见,不能让受害者因噎废食般地被动离线和断联,不应以阻隔所有网络信息的方式来保护受害者,而是应启动“绿色防护”措施,保障其在网络世界中的“在线权”。《治理规定2024》第二十三条指出,平台应提供便利用户设置屏蔽陌生用户或者特定用户、本人发布信息可见范围、禁止转载或者评论本人发布信息、完善私信规则等网络暴力信息防护选项。该条体现的便是绿色防护的理念。
2.强制义务:平台人工介入
在收到受害者网暴的通知后,应以“先删除后调查”为原则。如果审查代理无法合理判断所报告的材料是否为网络欺凌活动,审查代理或平台必须不迟疑地立即移除可能的网络欺凌信息,并立即进行调查。如果确定材料不是网络欺凌活动,平台必须立即重新发布该材料,但对最初的移除不承担责任。删除可以由自动化决策系统加以操作,再由人工进行审核是否违规以及处理反通知的信息。
现在有些超大型平台关闭了人工咨询的入口,或者要求网暴受害者发送邮件进行举报等方式,即使设置了“一键防暴”“一键举报”“快捷取证”等类似的按钮或者选项,也难以实质性地让网暴受害者获得人工干预的权利和获得感。保留人工处理的通道和开放性处理选项的设置能够有效解决上述问题。
3.动态验证:对所有参与网暴信息散播和加工的人
由于网暴信息形式层出不穷,完全无法穷尽列举。例如,网暴者可能采取谐音,加入特殊字符,编辑文字后使得侵权图像倒立,或者使用特殊字体等方式来进行多样化的网暴,如果一味寄希望于算法进行识别,恐怕不能跟上网暴在形式和数量上的更新速度。为了事后取证方便和防止网暴者换个“马甲”继续网暴,可以在网络暴力可能达到临界状态时,平台开启动态实名刷脸验证制度,一旦网络暴力达到临界值,那么便开启实名刷脸制度,要求话题相关信息的发布者进行实名刷脸验证,否则对该信息进行屏蔽或删除处理,或者清理、屏蔽疑似批量注册的可疑账号。要求用户进行动态验证可以增加其对行为后果的认识,从而起到威慑作用。《治理规定2024》第十三条第二款规定,除真实身份信息动态核验之外,还可以对异常账号采取弹窗提示、违规警示、限制流量等措施。
(三)网络暴力发生后
有研究表明,暴力中的施暴者倾向于将责任转嫁给受害者。例如,声称受害者激怒了他们。针对这样一群无责任意识的网暴群体,对其个人信息的严格保密应有所突破。
1.报告义务:向反网暴部门报告网络暴力情况
网络平台应将以上标注为网络暴力的信息内容、发布主体、发布时间、传播范围,通过文字和图示等形式,清楚明了地加以整理,在网暴发生后一定期限内,通过网络暴力信息共享机制主动向反网暴监管部门报告网络暴力情况。
主动报告制度分为定期报告和应急报告两种类型,致力于长效与短期相结合,治标与治本兼顾。一是与当下清朗行动的频繁性相呼应,定期报告的期限应以一个月为周期,纳入网信办的日常监管流程。二是针对影响范围大、波及范围广、涉及人数多的网暴事件采取应急报告制度,应急报告应在三日以内完成,此时监管部门收到后必须对此进行回应。
2.披露义务:向受害人披露其维权所需要的施害者基本信息
主动披露会导致平台陷入违约和侵权的现实风险,因此平台仅在权利人书面通知、行政机关提出要求及法院作出披露命令或裁判情况下进行被动披露。然而,公力救济模式存有非及时性的缺陷。因此可以承认平台的主动披露义务,对网暴加害者的信息披露需要受到比例原则的制约,要从网暴治理手段的必要性、合目的性和对个人信息侵害最小化的方式进行披露。平台的网暴信息披露义务是一种有限制或有条件的义务。一是主动披露的缘由必须是平台需要应急报告的严重网暴,为了在初期迅速打击网络暴力,应对中度网暴也采取主动披露。二是主动披露的对象仅限于网络暴力的受害者,且在披露之前受害者需要签署防止信息泄露的承诺书。在受害者不方便接收时,通过网络暴力治理信息共享平台联系受害者的近亲属传递网暴信息。三是结合上面的动态验证制度,将施害者的基本身份信息、网暴时间、网暴内容以及验证图像,以及平台对网络暴力信息从萌芽到爆发期间采取的防范措施加以整理,采用邮箱、电话等方式有效送达网络暴力的受害者。披露义务的存在向网暴受害者传达了一个信号,即他们的网暴遭遇被重视并将得到应对,从而改变网暴者试图使网暴受害者处于“群体暴力”威胁的境地。《治理规定2024》第十四条规定,平台将涉网络暴力信息违法违规情形记入用户信用记录,依法依约降低账号信用等级或者列入黑名单,并据以限制账号功能或者停止提供相关服务。为了加大网络暴力的处罚力度,平台可以采取信用计分的方式,对网络暴力进行一票否决。
四、结语
平台积极参与治理的责任不应扩大为平台对信息的无限干预,其作为平台的中立性仍然是主色调,在网络暴力治理时适时转换为积极治理的角色是辅色调。应遵循必要限度,以控制网络暴力的扩大和传播为限。应该警惕平台借治理网暴为由肆意删除、封禁账号,甚至成为政府监控公民的借口,同时应给予用户申诉权以对抗平台的治理权力。基于身份关系和非身份关系划分网络暴力是对网络暴力类型化的初步尝试,在兼顾所有网暴类型的同时,有针对性和侧重点地打击重点网络暴力现象,是矛盾观在网暴治理中的鲜活应用。最后,以一句形象的比喻作为结束语,“如果网络暴力如同癌症附骨入蛆,那么终有一天,我们将如同战胜癌症一般战胜网络暴力。”