4月25日,白宫记者协会晚宴上的枪声与混乱,让世界再次直观地看到:在长期被吹捧为“成熟民主典范”的美国,政治分歧已经不再只是辩论与投票,而可能演变为现实中的对抗甚至冲突。

打开网易新闻 查看更多图片

特工护卫特朗普,退下白宫记者协会晚宴的主席台 视频截图

但如果把视线稍稍拉远,就会发现这并不是孤立事件。从国会山事件到多次政治刺杀;从特朗普反复指控“选举被窃取”,到社交媒体上不断扩散的对立叙事;从电视辩论中针锋相对的政客,到普通家庭餐桌上因政治立场争执不休的亲人——一种更深层的变化已经在美国发生:人群正被政治重新划分,而且两头越来越极端。

与此同时,英国围绕“脱欧”的长期争论、德国关于移民与能源政策的分歧,使不同阵营之间的互不信任显著加剧。

欧洲多国的建制派也受到各种力量的挑战,以法国为代表,被视为“极右翼”的政党明显崛起。

对立与极化在全球似乎有同此凉热的趋势,在中国则表现为代际冲突和性别观念冲突抬头。比如家里老人时常看到说“孩子不孝顺”的内容,另一方面“老登”也成了热词;一些鸡毛蒜皮的社会问题,也总有人从性别角度切入炒作……

术语一大堆,但是……

极化已是人们能广泛感知的现实,近年,围绕极化成因的讨论,聚焦到了互联网平台与算法机制上。一系列带有强烈批判意味的概念被提出,用以描述算法如何“塑造”甚至“扭曲”公共舆论空间。

“信息茧房”(information cocoon)由美国法学教授凯斯·桑斯坦(Cass Sunstein)在其2006年出版的著作《信息乌托邦——众人如何生产知识》中首先提出。他本人就有明显的政治背景,曾任奥巴马竞选团队的法律事务顾问,后在奥巴马政府中出任白宫信息与监管事务办公室主任。

这一说法强调,用户在长期接触与自身观点一致的信息后,会逐渐被“包裹”在单一认知环境中,难以接触不同立场的内容。

“回声室”(echo chamber)更进一步,相比单纯的隔绝,还强调“放大效应”:在同质化社群中,观点不仅被重复,还会在不断强化中变得更加极端。

2003年5月,中国网友用“傻子共振”来形容上述概念背后所假定的机制,后来被国内的营销号捏造成美国著名社会学家戈夫曼发明的“术语”,反而成了场传播学的闹剧。

“过滤气泡”(filter bubble)由IT领域的活动人士伊莱·帕里泽(Eli Pariser)提出。他假设平台的个性化推荐系统(如搜索排序、信息流推荐)会在用户“无感知”的情况下筛选信息,使其逐渐陷入由算法构建的“信息泡泡”之中。与“回声室”相比,“过滤气泡”更强调被动筛选机制。

这些术语的流行,本身就构成了一个值得观察的现象。它们往往以形象化的比喻方式描述复杂机制,具有很强的传播力,也在一定程度上放大了公众对于技术系统的焦虑与不确定感,但其内核可能缺乏支撑。

哈佛大学伯克曼互联网与社会中心资深研究员大卫·温伯格就曾指出:“尽管桑斯坦频繁使用这个词……但从未定义过回音室”。

打开网易新闻 查看更多图片

凯斯·桑斯坦与大卫·温伯格

“过滤气泡”则出自帕里泽在畅销书中的故事:“2010年春天,当深水地平线石油钻井平台的残骸仍在向墨西哥湾喷涌原油时,我请两位朋友搜索‘BP’这个词。她们非常相似——受过教育、白种人、左倾、住在东北部。但她们看到的搜索结果却截然不同。”

在学术层面,他被批评为“未能超越此类轶事证据来充分定义他的核心概念”。而且和桑斯坦一样,他们的概念都起于搜索引擎时代,在事儿还没讲清楚的情况下,就随着技术热点,无缝衔接到社交媒体平台及其算法上了。这种“赶时髦”的做法,确实让人心生疑虑。

俗话说,先问是不是,再问为什么。人们发明并反复使用这些概念,与对立极化相挂钩,未必能体现“真相”,或许只是一种面对复杂信息环境时的解释冲动与情绪回应。

算法是否、以及在多大程度上推动了极化,仍然是一个需要依赖数据与实证研究来回答的问题。

好在真有学者在解答“是不是”。

“信息茧房”等导致极化是真是假?

有的关于政治极化的研究直接动摇了“茧房”或“回音室”的普遍性和影响程度。

路透新闻研究所2022年发布的一项文献综述指出,包括高度极化的美国在内,绝大多数人的媒体“膳食”是多样化的。

即使只依赖单一来源的人,他们通常绑定那些面向政治多元化受众(内容也相应多元化)的来源,如商业或公共服务广播公司。只有极少数人(通常仅占几个百分点)完全依靠党派来源获取新闻。

例如在英国,仅有约6%至8%的公众处于所谓党派倾向严重、且由于缺乏交叉接触而与反驳意见隔绝的“回音室”中。

“过滤气泡”的轶事或许也只是个案而已。2018年到2019年的三项研究(Haim、Nechushtai & Lewis以及Krafft等人)都发现了与帕里泽所述截然相反的情况:搜索相同关键词的不同用户被提供了非常相似的信息,并且在5-10%的情况下看到了“甚至顺序都相同”的相同搜索结果。只有在不同国家或使用不同语言浏览器的用户之间,才不出所料地出现了实质性差异。

为了验证算法对现实政治态度的具体影响,由普林斯顿大学、斯坦福大学等学术机构与Meta公司合作完成了多项关于2020年美国大选的大规模实证研究(发表于2023年的《科学》和《自然》杂志)。

研究人员将部分用户移出算法驱动的信息流,改用“按时间顺序排列”接收内容。别觉得有Meta辅助做试验,研究可能不靠谱,他们并没有藏着掖着。实验数据证明,改为时间顺序后,用户在社交平台上的互动行为和停留时间显著减少,且接收到的内容组合发生了巨大变化——例如在Facebook上接触到的政治内容总量增加了约15.2%,来自中性或混合来源的内容增加36.7%。

打开网易新闻 查看更多图片

改为时间信息流后的内容比例变化,黄色为算法驱动,蓝色为时间信息流

然而,尽管在线体验发生了如此大的改变,在为期三个月的研究期内,用户的议题极化(Issue Polarization)、情感极化(Affective Polarization)或政治参与度等关键指标并没有出现任何明显变化。这表明,人们根深蒂固的政治对立背后,主要原因并非算法。

打开网易新闻 查看更多图片

改为时间信息流后,绝大部分极化关键指标都没有明显变化

发表在《科学》杂志上的另一项实验,聚焦于社交媒体的“转发”(Reshares)功能。研究者在2020年大选前的关键时期,对实验组用户的信息流进行了“删除转发内容”的处理。

结果显示,这一操作确实起到了过滤作用,使用户接收到的政治新闻总量(尤其是来自不可信来源的内容)大幅减少了约四分之一。然而,这种对信息流的大规模干预,同样未能显著改变用户的个人政治态度或极化程度衡量标准。

发表在《美国国家科学院院刊》(PNAS)上的一项研究,通过4项严格受控实验、招募了8883名美国受试者,在模拟YouTube界面的平台上安排不同的推荐逻辑。研究人员设计了“倾斜式”算法(模拟过滤气泡,提供3/1的与受试者相同的立场内容),以及“平衡式”算法(提供2/2对等立场内容)进行对比。

结果显示,尽管倾斜式推荐显著改变了受试者的观看行为和停留时间,但在实验阶段内对用户的政策态度、情感极化或媒体信任度几乎没啥明显影响,证明“没有可检测到的极化效应”。

打开网易新闻 查看更多图片

倾斜式(slant)算法相比平衡式的部分研究结果,政策态度、平台互动、媒体信任等无明显变化

研究者指出,实验证据与关于算法诱导用户集体激进化的流行叙事,并不一致。

这些研究和多篇文献综述都共同指向一个结论:社交媒体的算法和功能设计虽然极大地改变了信息分发的生态和用户的在线行为,但它们似乎并不是驱动西方社会政治极化的核心动力,极化的根源可能更深植于社会和政治现实本身,而非技术逻辑。

由于缺乏对“回音室”或“过滤气泡”如何作用的实际证据,昆士兰科技大学数字媒体研究中心2019年的论文更是以严厉的措辞指出:“回音室和过滤气泡主要构成了一场毫无根据的道德恐慌,它为更关键的问题——日益加剧的社会和政治极化——提供了一个便利的技术替罪羊。”

算法究竟带来了什么

在真实世界中,英国和其他几个国家的观察性研究表明,基于算法选择的搜索引擎和社交媒体,往往能引导用户接触到稍微更多、更丰富的新闻来源。

也就是说,至少这些人群并没有被不同的气泡有意隔开。如果真要说有什么分别的话,是算法支持的用户反而比其他人享受了些许技术优势。

研究发现,普通用户主动寻找新闻时,每周平均仅依赖1到2个来源,但搜索引擎和社交媒体通过“自动偶然发现”(Automated Serendipity)和“偶然接触”(Incidental Exposure)机制,实际上引导用户接触到了比其意愿更丰富、更多元的视角。

自动偶然发现是指算法给出的搜索结果,有时来自用户不会直接访问的来源。偶然接触是指,用户在主要用于其他目的的社交媒体网站上,偶然看到并阅读新闻文章。

研究中很有说服力的一点是,这两个机制与平台商业利益是一致的,确实可能得到加强。

因为自动偶然发现创造了多样性的体验,能提高用户的留存率。偶然接触机制可以增加在社交媒体上花费的时间,因为人们偶尔会遇到有趣的文章。

国内的研究也发现,从平台运营逻辑来看,制造“极化”对互联网企业的长期发展并无益处。《算法向善与个性化推荐发展研究报告》分析抖音等代表性应用的数据,认为用户阅读内容的类型数量,以及内容的离散程度(分散度),与用户的长期留存呈显著正相关。这意味着,如果算法一味“投其所好”导致信息窄化,反而可能加速用户的流失。

因此,平台有内在动力通过“兴趣探索”机制激发用户的潜在需求,保障内容供应的健康与平衡。今日头条、抖音等平台经过数次算法迭代与升级,对多样化信息推荐技术不断优化,已经取得了一定的效果:一方面,选择用户过去不常观看的内容类目,进行一定比例的推荐;另一方面,特别增加一些随机内容,来保障用户可见内容的多样性。

好的算法和界面配合,在用户感兴趣内容的基础上,还能深入激发、满足用户的潜在需求,进而满足人对信息的多维度诉求。贵州返乡创业青年丁浪在抖音上记录腌蒜苔制作过程,算法把相关视频准确推荐给对乡村美食、农特产品感兴趣的用户,然后用户能顺势在同屏搜索框中搜索、了解蒜苔烹饪相关内容,扩展相关知识。

深圳大学深圳城市传播创新研究中心发布的《短视频用户的算法实践与“破茧”报告》显示,近八成(77.8%)短视频用户认为算法推荐的内容是多样化的,能够帮助其发现“以前不了解的全新兴趣领域”。

清华大学社会科学学院的研究报告则提出了“破茧效应”:数据证明,随着用户使用时长和算法素养的增加,用户感知到的内容同质化程度反而会下降,两者呈反比关系。这种“信息偶遇”的机会,让算法成为了开阔用户视野、促进数字公平的工具。

麻省理工学院(MIT)在2021年也将TikTok的推荐算法列为“十大突破技术”,认为它体现了内容公平性让普通人也能获得名人般的关注。

如果放弃算法,核心问题在于,一是内容太多,产生了“信息过载”的问题;二是不值得信赖的来源,在时间流中可能会大幅增加,美国的研究中就出现了68.8%增幅。

算法的个性化推荐对于解决这两个问题,也起到了至关重要的作用。

关键还是在人

在深挖西方政治极化的根源时,越来越多的研究者发现,与其将矛头指向算法,不如审视人类自身的社交本能和心理偏好。社交媒体并非制造分歧的工厂,而更像是一面“棱镜”,折射着人类固有的行为逻辑。

选择性地使用与既有信念相符的信息是人之常情。人们倾向于回避与其信念相冲突的媒体内容。这方面的首批数据是在1940年美国大选期间收集的:民主党人更可能接触民主党的竞选活动,共和党人更可能接触共和党的竞选活动。

直到20世纪上半叶,许多欧洲国家都存在强大的党派报刊,人们接触的主要是志同道合的信息。一个典型的例子是荷兰的“柱化”时期,天主教徒通常被认为阅读天主教报纸、加入天主教体育俱乐部、收听天主教广播。左翼投票的工人有自己的“柱”,新教徒也是如此。

那些年代里可没有算法什么事。如今,简单地打破“信息茧房”,在社交媒体上接触对立观点,往往会产生“适得其反”的效应(Backfire Effect)。根子还是在人。

杜克大学社会学家克里斯·贝尔(Chris Bail)的实证研究让受试者在一个月内,关注一个持续转发对立党派政客和意见领袖言论的机器人账号。结果显示,受试者并没有变得更加温和理性,民主党受试者的立场也呈现出更加自由化的趋势,而共和党受试者,在被迫接触自由派观点后,其保守倾向显著增强。

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

研究者认为,人类的动机性推理(motivated reasoning)会促使人们在遭遇反面证据时,通过反驳对方来强化自我认同,从而加剧政治极化。

如果确实不是算法的锅,那究竟是人的哪些方面出了问题?一个原因也许就是人类的社交动机与“同质性聚集”(Homophily)倾向。

2024年发表在《实验心理学期刊:总论》(Journal of Experimental Psychology: General)的一项研究揭示,社交媒体用户关注、互动和回粉行为的主要驱动力是“社交动机”而非“信息动机”。人们更倾向于与分享相似世界观的“同党”建立联系,并对对立阵营表现出天然的排斥,这种对社交归属感的追求导致了在线社交网络自然演化为彼此隔绝的集群。

另一项发表在《自然》旗下《计算社会科学杂志》的模拟研究也证明,即便在算法干预最小的环境中,只要存在极少量的社会影响力和“取关”(Unfollowing)不同意见者的行为,社交网络就会迅速退化为分散、同质的“回音室”。

打开网易新闻 查看更多图片

阿姆斯特丹大学逻辑、语言与计算研究所(ILLC)在2025年的最新模拟研究中则采用隐藏点赞数或强化跨党派内容推荐的操作,发现“回音室”的出现主要是因为人们在互动中存在“选择性接触”和“确认偏差”,倾向于寻找符合先前观点的信息并回避冲突。

这种情感化的参与驱动了网络结构的增长:人们通过转发来构建关注网络,而转发决策往往是情感性和防御性的,这形成了一个自我强化的循环,使极化成为社交媒体架构中难以通过技术手段根除的深层机制。

西方政治学者还普遍关注了“政治精英极化”,认为他们越来越极端的言行,也是驱动社会分歧扩大、把普通人带沟里的关键因素之一。例如,在气候变化议题和疫情问题上,美国精英的矛盾立场,直接导致了公众对科学机构(如CDC)信任的迅速瓦解和党派阵营的对立。

极化水平的波动与外部现实事件高度同步,而非受控于平台逻辑。发表在《自然》正刊上的研究对Reddit长达14年的数据进行了量化分析,发现在2012年至2015年间,该平台的政治极化程度保持在一个非常稳定的区间。然而,在2016年美国大选年,平台的极化程度骤然飙升,并在随后的年份持续保持高位。

关键证据显示,这种系统性的极化并不是由老用户在平台内变极端驱动的,而是由当年的“新增用户”和“新参政用户”带来的。大选这一外部社会政治事件将大量已经极化的群体吸纳进社交平台,改变了整体的生态,这侧面说明极化是一个社会性、历史性的现实问题,平台和算法只是承载这些矛盾的载体而非源头。

更重要的背景,则是美国为代表的西方社会发生了重大裂变,贫富差距拉大,大量民众在全球化中失落……这方面的论述更是汗牛充栋。

相比于人类的本能、政客的盘算,以及外部整体氛围的带动,算法这一技术工具,反而可以说是相当“情绪稳定”了。将复杂的政治与社会分裂,归因于单一技术机制,无助于问题的解决。

“信息茧房”“回声室”或“过滤气泡”作为一种时代情绪的投射,捕捉到了某些真实的变化,却未必构成完整的解释。真正需要回答的,仍是一个更为困难的问题:在一个由技术深度介入的信息环境中,社会是否还能维持基本的事实共识与公共讨论空间?而不是简单地甩锅给算法或技术,把它们作为“便利的替罪羊”。