打开网易新闻 查看更多图片

这两个事件都是当下的热点事件,只不过一个男性网友关注比较多,另一个女性网友关注比较多。而我想谈的,则是跳出性别互杀的无意义情感宣泄,关注一下更有价值、更有建设性的问题——这两件事情背后的“共谋暴力”,比如武汉大学校方的迟钝、偷拍万人群成员的沉默狂欢。

共谋暴力(Collusive Violence)是近年来比较新的一个概念,指的是:暴力行为得以发生、持续并合法化,是因为社会中的多个权力环节(如制度、文化、媒体、群众)共同保持了纵容、回避或默许的姿态。在互联网时代更包括平台方监管的问题、算法推荐鼓励仇恨与暴力的问题。等等这些让个别人渣产生的单向的暴力行为,变成了众多人的“共谋暴力”,并在算法的主推下,成为一种“暴力工业化”现象。

首先简要介绍一下这两个事件。2023年7月11日,武汉大学经济与管理学院研二女生杨某称,坐在她对面的本科新生肖某“隔空性骚扰”,并拿出手机拍下长达两个小时的五段视频作为证据。当晚,她与肖某对质,索要了手写道歉信,还录下了二人对话。而校方尚未完全核查清楚事件前,两天之内即对肖某作出“记过”处分。

起初,在女性安全高度敏感的舆论氛围中,许多网友本能地站在杨某一边,对男生进行道德谴责。然而随着事件进一步发酵,肖某家属公开其有长期湿疹病史,当晚可能是在衣物下搔痒而非进行不当行为。2025年7月25日,武汉经开区法院一审判决正式出炉,驳回杨某的全部诉求,认定肖某并无性骚扰主观意图,所谓“挑逗动作”缺乏证据支撑,也不符合具体法律构成。

打开网易新闻 查看更多图片

2025年7月下旬,名为“MaskPark ”的 外网聊天群组被曝光:数以万计的男性匿名用户在这个加密交流群中,未经同意分享女性的私密照片和视频,内容多源于偷拍公共空间或前任伴侣的画面,并以群组内部交流、恶意意淫甚至出售交易为乐。更有些专业偷拍器材隐秘至极——香薰、水杯、电源插座等日常物件内置针孔摄像头,涵盖地铁、商场、更衣室、校园寝室等多个情境,受害者包括从儿童到老年人的广泛群体。

消息曝光后,“MaskPark”群组迅速被关闭,但其衍生子群依然在 该匿名聊天软件上蠢蠢欲动。许多受害女性发帖讲述被前伴侣以偷拍身份敲诈曝光、甚至泄露社交账号的经历。

这两件事情证明了:我们所面对的越来越不是个体的暴力行为,而是一个更为隐蔽、结构化的系统:一种由技术、情绪、算法、匿名文化与观众心理共同构成的“共谋暴力”机制。

在这个机制中,暴力的实施者往往并不孤单。杨某的行为之所以能造成如此广泛的社会性伤害,不仅因为她拿起了手机和举报话语,更因为整个平台舆论生态主动为她提供了舞台、推力与情绪动员;而Mask Park群体中的偷拍者,则依赖于加密工具、匿名群组、文件包分类、用户评分等一整套协作逻辑完成侵权行为,而观看者的每一次浏览、下载与“标记收藏”,也都是一次次静默的共谋。

在“共谋暴力”的逻辑中,每一个不作为、每一次默认、每一种冷漠,都是暴力机制得以持续运转的润滑剂。

打开网易新闻 查看更多图片

武汉大学校方的表现便是一例。在接到杨某媛举报后,校方未能第一时间开展公正透明的事实调查,而是仓促做出“记过处分”。这一行为表面是响应举报,实质上却是对情绪性舆论的默认服从。它用一纸处分将学生推入网络绞肉机,既失去了程序正义,也为暴力工业开了绿灯。

单单一个处分还不是武汉大学最大的问题,更严重的是在法院判决、舆论发酵之后,武大校方依然没有想着及时改正错误,而是试图用更多的错误去掩盖。报警让警察叔叔深夜拜访参与讨论的网友,留下了一句注定会“载入史册”的名言“不要因为你的正当……造成不利的后果……”,至此已然成为艺术。

从“共谋暴力”的视角来看,这是一种“制度型沉默共谋”:武汉大学以行政权力为外衣,以公文语气为掩饰,将自身塑造成“高度关注”“秉公处理”“等待上级”“领导通知”的中立者,但实际的每一次沉默、每一封推诿邮件、每一次对外缄口,都是对原始暴力的延续性纵容,甚至升级为一种“合法的伤害”。被网友嘲讽为:处分学生其疾如风,改正错误其徐如林,上门警告侵略如火,等待上级不动如山。

再看Mask Park案中那些“只是看看”的群友——他们不拍摄、不发布,甚至没有下载、打赏、评论——就像DOTA里那些废物一号位一样,队友打团just在那里see。但正是“see”这种看似无害的行为,才构成了偷窥工业化的市场需求侧。每一个点击、每一次浏览,都是对偷拍者“作品”的价值认定,也正是他们让女性的隐私影像从偷拍者手中,流转为供万众取乐的视觉商品。在这一链条中,暴力不是单人的恶意行为,而是万众齐心的共谋狂欢。

打开网易新闻 查看更多图片

更隐蔽的共谋者,则是平台与算法机制。它们并不直接伤害个体,却通过流量优先、情绪激励、热度逻辑持续推送最具争议、最易引爆的性别冲突内容,鼓励用户参与“站队”、制造“对抗”,而不鼓励理性对话与复杂性分析。在这样的结构下,算法成为暴力的催化剂,平台成为暴力的工厂车间——每一次推荐、每一轮话题热榜的更新,都是对暴力的再投资与再生产。

这套系统的恐怖之处在于:它无需恶意就能造成巨大伤害,无需策划便能实现规模扩散。它以“正常运转”的面貌呈现,在程序、机制、算法、惯性中,把一个个原本无害的角色,卷入到一场无尽的暴力协作中。而当我们试图追责时,却发现责任如烟雾般弥散在所有人之间,人人都是帮凶,人人又都无罪。

于是,这就构成了互联网时代新型暴力机制:暴力工业化。

武大杨某媛污蔑案与Mask Park偷拍案,表面上看是两个性别立场截然相反的个案:前者是一场由指控引发的“道德武器化”,后者是匿名社群主导的“偷窥商品化”;一个以“受害”为名,一以“加害”为实。但它们在网络传播机制中,却共同揭示出一个值得深思的深层结构:网络平台与数字工具正在系统性地放大、催化、甚至工业化地生产暴力。

打开网易新闻 查看更多图片

这类暴力的核心,并不再是传统意义上的“肉体伤害”,而是基于图像、信息与舆论的操控权,以“观看—传播—审判”为路径,对个体的声誉、心理、安全乃至社会位置造成长期性毁灭。无论是图书馆里五段被断章取义的视频,还是针孔摄像头偷拍来的影像资料,它们都首先被转化为可传播的“内容原料”,进而进入平台算法的筛选体系,最终以热帖、爆文、集体情绪的形式,形成一套高度程序化的暴力扩散机制。

这正是所谓的“暴力工业化”的核心:暴力不再是一时冲动或私人行为,而是一种平台经济逻辑驱动下的可量产内容。以Mask Park案为例,偷拍行为依赖的是高度隐蔽、价格低廉的微型设备,加密通信平台则提供了庇护所,而用户之间的分享、模仿、再创作构成了一种黑暗中的性别协作与审美同谋。这套机制不仅使暴力得以规模化生产,更使其具备了商业价值——受害者成为“素材供应方”,加害者成为“内容制造者”,观众则是“流量消费者”,整个过程呈现出惊人的工业结构。

而武大案则揭示了另一维度:道德话语也可以成为暴力生产资料。当举报视频、手写道歉信、受害者身份标签被打包成舆论商品时,其真实指控的正当性已被算法驱动的情绪消费淹没。在未经调查的背景下,学校迫于压力仓促处分学生,网友蜂拥而上进行“网络审判”,信息爆炸转瞬变成私刑狂欢。最终无论司法如何判定,名誉已毁、心理已伤,个体早已被“道德审判供应链”碾压得七零八落。

二者背后暴露出的,是制度性权力在数字空间中的空位。法律在面对匿名加密平台时力不从心,伦理在追逐流量快感中节节败退,平台在道德责任与经济激励之间选择沉默或拖延。于是网络暴力不再是偶发事件,而是通过平台算法、社群结构、技术工具持续优化后的“暴力模型”,不断复制、调整、变形,并以极高效率投射到下一个受害者身上。

打开网易新闻 查看更多图片

更深刻的问题在于,这种暴力工业化的逻辑不再区分“正义”与“非正义”,只区分“能传播”与“不能传播”,“可消费”与“无价值”。“图书馆性骚扰者”的标签与“被偷拍女生”的影像,虽处道德光谱两端,但都具备流量价值。在传播机制中,受害者被转化为“流量节点”,无论其是否真实受害,重要的是:他/她的做法或痛苦能否引发情绪共鸣、引导讨论走向、催生话题热点。在这个意义上,受害者不是被同情,而是被消费;加害者不是被惩罚,而是被围观;正义不是被申张,而是被外包给点击率。工业化之力,恐怖如斯。

因为在一个暴力可以工业化生产的时代,任何人都可能是下一个“爆点素材”,也可能是那个被暴力反噬的节点。只有当我们意识到这套机制之所以运转,正是因为我们每一个人的转发与评论、沉默与猎奇,才可能真正遏止这场暴力流水线的无限延展。

更进一步地思考:让我们先回到最基础的前提——男性与女性从不是什么道德等级上的对立物。在人性这一结构中,无论性别,每一个群体中都存在善良者与恶劣者、诚实者与操控者、忠诚者与背叛者。这不是立场的问题,而是统计学意义上的常态分布。社会也从未假设过“所有男性都正直”或“所有女性都善良”;反之亦然,也不是所有的男生都是性骚扰犯、所有的女生都是诬告者。

我们之所以能正常生活,正是因为个体被具体理解,而不是标签套用。在现实生活中,大多数男男女女都在合作而非对抗:我们是同学、同事、朋友、父母、恋人,是彼此依靠的亲密者,而非彼此仇视的敌人。

但这一真实图景,在互联网的传播机制中,被悄然挪移了位置、甚至被系统性地清洗出“视野范围”。

打开网易新闻 查看更多图片

从某博到某音,从某站到某书,这些平台在背后运作的是同一个基本算法逻辑:谁更能引起愤怒、争吵、情绪波动,谁就能获得更多传播、更多关注、更多点击。而在性别议题上,这一逻辑恰恰最容易触发“公共猎巫”和“私我防御”两种情绪机制——前者想要惩罚“他者”,后者想要保护“我们”。

于是,一位极端控制女友的视频被推送出来,标签是“所有女性都情绪化”;一个花心冷漠的男性行为被剪辑成段子,标签是“男人都是冷血动物”。你看到的不是一个人,而是一个代表性别群体的符号,一个用来总结群体本质的“样本人”。而这些样本人越极端、越荒唐、越猎奇,就越能“代表”群体,就越被算法推荐。

暴力工业化算法不关心事实是否代表多数,它只关心是否容易传播。

就这样,本该是少数极端个体的行为,成了多数人认知中的“群体共性”;每一次伤害都被推送为“男性如何伤害女性”或“女性如何操纵男性”的再证据。算法制造了一个负面偏差叙事的回音室,用户则在其中逐渐相信,世界上的男女都正在彼此敌视,彼此操控,彼此背叛。

打开网易新闻 查看更多图片

人类天生具备一种名为“负面偏好”(negativity bias)的心理机制:我们对负面信息的感知更敏感、记忆更深刻、反应更强烈。这种机制在进化早期有其适应性意义——躲避危险比获得奖赏更重要。

而我们又喜欢用 “认知快捷方式”(cognitive heuristics)来理解世界。这意味着,当某一群体的负面故事越多,我们越容易标签化这个群体。因此,在算法推送+心理偏见的双重作用下,我们看到的世界越来越像“男人都是暴力狂”或“女人都是小仙女”这样扁平的卡通世界。

上述两点,就是信息时代暴力工业化链条的心理基础。

那么,怎么办?正如我在这篇文章中所分析的:圣心堂是反动政府屠杀巴黎公社的纪念碑,布达拉宫凝结着西藏农奴的血泪史,但是其建筑的审美价值和艺术性是存在的,我们不可能因为其历史的非道德性而推倒建筑。

打开网易新闻 查看更多图片

同样,对于信息时代新技术引发的新问题,我们肯定不能用断网、弃用技术这些退步主义策略,而是必须在技术的基础上,提出更具文明高度、结构理性与伦理清醒的解决路径。信息时代的“暴力工业化”并非不可控的自然灾难,而是人类社会在技术飞跃中暴露出的制度空缺、伦理滞后与认知脆弱的集合性表现。

解决这一问题,绝不仅是“提高技术手段打击违法行为”,更需要重新建构制度、伦理与技术三者之间的边界与桥梁。

具体一点,我们需要的是一种可以穿越“算法”主导的信息生态,重新确立事实与比例感的传播伦理机制;需要制度在面对网络极端情绪时,保持判断的冷静与程序的坚守;更需要公众在卷入任何网络争议时,抵抗情绪引导,保持对“事实尚未明”的尊重。

因此,解决它,必须从“共谋结构”中拆解每一个环节,并引入新的设计与规范机制。

打开网易新闻 查看更多图片

技术自身也应成为解决问题的一部分。我们不应把AI、算法、加密通讯视为暴力的帮凶,而要通过重新设计推荐逻辑与识别机制,让技术承担起“防暴力”的责任。例如,平台应降低那些依赖情绪挑动与对立煽动的视频的推荐权重,设计识别偷拍、谣言、未核实爆料的系统提示与传播降速策略,让信息的“可传播性”重新受制于其“真实性”与“合法性”。技术从未有罪,但技术结构是否中立,从来取决于它服务的价值目标。

与此同时,平台运营本身也必须被纳入公共伦理的视野。平台不能再以“中立工具”的姿态回避责任,而要承认自己在信息暴力链条中所扮演的决定性角色。它们需要建立透明的内容审查与追责机制,针对爆料、攻击性标签、围观猎巫等行为给予技术干预,而不是等事情恶化后再事后封号了事。平台的首页与话题榜不应只追逐流量热点,而要承担社会议题的引导功能,引入更多具有公共价值、修复信任的内容,营造起一个非极端化、非站队化的信息生态。

更根本的变革则来自公民教育本身。在算法主导的舆论结构中,我们每个人都可能成为暴力工业链的一环:一键转发、一句嘲讽、一次冷漠旁观,都是共谋。这正是为什么我们必须从教育系统与社会机制中重新灌输“媒介素养”与“数字伦理”——要让人们学会判断真假、识别剪辑、保持冷静,更重要的是,要重新学会如何在面对陌生人的苦难时,仍保有一种不迎合情绪、不先行定罪的尊重。这种教育,不是教技术,而是教我们怎样在技术世界里,不被驯化为非人。

打开网易新闻 查看更多图片

◆ ◆ ◆ ◆ ◆

由于所有文章都因“众所不知”的原因被删除,目前只有微博还都能看到备份:

打开网易新闻 查看更多图片

其余文章也在努力补档中。但正所谓“天有不测风云”,谁知道哪天又会发生“众所不知”的意外呢。趁着目前还能查看,大家赶紧去抢救性阅读一下吧。

还有一些微博文章独创文章的备份,请搜索日文:

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片