打开网易新闻 查看更多图片

追问快读:在人工智能飞速发展的今天,我们的社交媒体动态似乎被精心净化,然而在这光鲜背后,一支隐形的全球劳动力正默默承受着难以言喻的创伤。

模糊的屏幕倏然闪现,伴随着一条看似无害的“敏感内容”提示信息,以及一个被划掉的眼睛表情符号。警告中温和的设计与俏皮的图标,掩饰了其背后沉重而严肃的内容。我们只需轻轻一划,便将其略过,刷新后的社交媒体动态再次充满了猫咪视频和度假照片。然而,在这数字乌托邦的阴影下,一个截然不同的现实正在悄然上演。

打开网易新闻 查看更多图片

在世界各地狭小、光线昏暗的仓库里,一支“隐形军队”弓着腰,凝视着闪烁的屏幕。他们的眼睛疲惫不堪,手指悬停在键盘上,直面人性最阴暗的冲动——那些甚至比他们最恐怖的噩梦更为黑暗的内容。他们无法移开视线,也无法滑动手指跳过。对这些工人而言,没有任何触发警告的庇护。

科技巨头们大肆宣扬人工智能在内容审核中的强大能力,描绘出全知算法守护我们数字空间安全的美好画卷。他们提出了一种乌托邦式的愿景:机器不知疲倦地筛选数字垃圾,保护我们免受网络世界最阴暗角落的侵害。

然而,这不过是一个令人安心的谎言。

现实要更加人性化,也更加令人不安。这种叙事目的多重:它抚慰了用户对在线安全的担忧,为这些公司赚取的巨额利润提供了正当性,同时巧妙地转移了责任——毕竟,你怎么能责怪一个冷冰冰的算法呢?

然而,现有的人工智能系统远远无法理解人类交流的复杂微妙,更别说对内容做出复杂的伦理判断了。即便是最先进的算法,讽刺、文化背景以及隐晦的仇恨言论,往往也会被忽略。

而且,尽管自动化内容审核在主流语言中或许可以部分实现,但对于资源稀缺语言的内容审核,通常需要从说这些语言的国家招聘审核员[1],以充分利用他们的语言能力和文化理解。

在几乎每一个人工智能决策的背后,实际上都有一个人负责做出最终判断,并承担由此带来的负担——这与宣传中的基于硅芯片的“救世主”形象截然不同。人工智能往往仅仅是一个粗糙的初步过滤器。例如,亚马逊所谓的自动化商店就是一个典型案例。据The Information报道,亚马逊并非依赖先进的人工智能系统,而是雇佣了大约1000名工人(主要在印度)手动追踪顾客并记录他们的购买行为。

亚马逊对美联社(AP)等机构表示,他们确实雇用了工人观看视频以验证顾客购物行为,但否认雇佣了1000人或工人实时监控顾客的说法。同样,Facebook的“人工智能驱动”M助手也更多依赖人力而非软件。因此,这种“人工智能能力”的假象,往往是以隐藏的人类劳动为代价维持的。

“我们是互联网的清洁工。” 两年前合同终止的前内容审核员、现居肯尼亚内罗毕的南非人博特洛夸·兰塔(Botlhokwa Ranta)沉重地说道。在家中接受采访时,她继续说道:“我们清理了那些烂摊子,只为让他人享受一个净化过的网络世界。

于是,当我们安睡时,他们默默工作;当我们分享内容时,他们守护边界;当我们享受在线连接时,他们却直面我们精心打造的在线体验与未经过滤的人性本质之间的巨大鸿沟。

科技产业光鲜的表象下,掩盖了一种遍布全球的赤裸裸的人类现实。从内罗毕的边缘地带到马尼拉拥挤的公寓,从黎巴嫩的叙利亚难民社区到德国的移民聚居地,再到卡萨布兰卡的呼叫中心,一张庞大的“隐形工人”网络支撑着我们的数字世界。这些工人的故事交织着创伤、剥削与坚韧,流露出我们在人工智能驱动未来背后所付出的真实代价。

或许我们会惊叹于萨姆·奥特曼(Sam Altman)等人所推崇的聊天机器人和自动化系统,但这掩盖了更深层的紧迫问题:我们的“神一般”的人工智能系统,是否只是一块烟幕,用来遮掩令人不寒而栗的人类现实?

在我们不懈追求技术进步的过程中,必须问自己:我们愿意为数字便利付出怎样的代价?在这场奔向自动化未来的竞赛中,我们是否正在将人性抛在身后?

阿布拉的故事

2021年2月,阿布拉(Abrha)的世界在提格雷战争中崩塌,这场现代最致命的冲突,被美国“新路线研究所”报告(U.S.-based New Lines Institute)正式定性为种族灭绝。当时,他的家乡提格雷遭到埃塞俄比亚和厄立特里亚国防军的炮火袭击。

阿布拉当时26岁,带着一个小背包和能拿到的少量现金,逃往肯尼亚内罗毕,留下了一个蒸蒸日上的生意、家人和无法逃离的朋友。在埃塞俄比亚政府对提格雷地区实施长达两年多的互联网封锁期间,他经历了数月的煎熬,对家人的命运一无所知。

然而在残酷的讽刺中,阿布拉被旧金山的Sama公司肯尼亚分部招募——这家以“道德AI训练数据提供商”自居的公司需要精通提格里尼亚语和阿姆哈拉语的人,而这正是他刚刚逃离的冲突所用的语言。他的任务是审核主要来自这场冲突的内容。

然而,命运的讽刺让阿布拉被旧金山总部的Sama公司肯尼亚分部招募。这家自称“道德AI训练数据提供商”的公司,急需精通提格里尼亚语和阿姆哈拉语的人才,而这正是他刚刚逃离的冲突所用的语言。他的任务,是审核源自那场战争的内容。

每周五天,每天八小时,阿布拉坐在内罗毕的Sama仓库里,审核那些来自他刚逃离的战火中的信息——有时甚至包括家乡的轰炸画面。每天涌入的内容充满了针对提格雷人的仇恨言论,而阿布拉心中却惴惴不安,担忧下一具尸体会是他的父亲,下一个遭受性暴力的受害者会是他的妹妹。

更让他痛苦的是一个道德困境:在这场他和族人都是受害者的冲突中,他如何保持中立?他如何将同胞发布的报复性内容标记为仇恨言论?这种内心的压力,逐渐变得难以承受。

尽管阿布拉曾经厌恶吸烟,但如今他却成为一个烟瘾极大的烟民,手中常握一支烟,穿行于这片充满创伤的数字雷区——每一口都是试图缓解己国人民苦难之痛的徒劳尝试。

有一天,工作的恐怖达到了顶点:在审核内容时,他看到了自己堂兄的尸体。这一幕成为对这场冲突个人代价的残酷提醒,而他每天都被迫通过电脑屏幕目睹这样的悲剧。

在他和其他内容审核员的合同被Sama终止后,阿布拉的处境更加艰难。内罗毕的就业市场对他而言无比狭窄,他只能独自面对内心的创伤,却没有任何他急需的支持或资源。作为内容审核员的经历,加上逃离冲突带来的后遗症,严重打击了他的心理健康和经济状况。

尽管战争后的提格雷局势依然动荡,但阿布拉感到别无选择,只能几个月前踏上艰难的归乡之路。他希望能从冲突和剥削的废墟中重建自己的生活。他的故事无疑是内容审核工作的长期影响,以及那些往往远离家乡和支持系统的审核员脆弱性的鲜明写照。

金斯的噩梦

金斯(Kings)成长于基贝拉,这是世界上最大的贫民窟之一。他今年34岁,自幼,金斯便怀揣着为年幼的家人创造更好生活的梦想。然而,像许多在内罗毕贫民窟长大的青年一样,他长期失业,生活艰难。

当Sama公司来招募时,金斯看到了进入科技行业的机会。他从数据标注员做起,负责对数据进行标记和分类,以训练AI系统,尽管薪水微薄,他仍感到兴奋。当公司提出以微薄的加薪将他晋升为内容审核员时,他毫不犹豫地接受了这个机会,却未曾料到这一决定会带来如此深远的影响。

很快,金斯发现自己所接触的内容令他夜夜难眠,尤其是那些被称为CSAM(儿童性虐待材料)的内容。每天,他都在筛选描述儿童被侵犯的文字、图片和视频。他回忆道:“我看到孩子因虐待而撕裂的阴道。” 他的声音显得空洞,“每次我在家闭上眼睛,看到的全是这些画面。”

这种创伤侵蚀了金斯生活的每一个角落。到了32岁,他发现自己难以与妻子亲密接触,脑海中满是受虐儿童的影像。他坦言,公司提供的心理健康支持远远不足,心理咨询师也无法帮助他走出深重的心理阴影。

最终,这种压力变得难以承受。金斯的妻子无法忍受他的性拒绝以及行为的变化,最终离开了他。等到金斯离开Sama时,他已经变成了一个精神和经济上破碎的人——那个他曾以为能带来救赎的工作,反而彻底摧毁了他对美好生活的梦想。

失去对人性的信任

兰塔(Ranta)的故事始于南非的小镇德普克鲁夫,那里的生活平静而有序。21岁时,她成为母亲;接受我们采访时,她已27岁。她反思了她社区中许多年轻女性所面对的严酷现实:10个女孩中有6个会在21岁之前生孩子,进入一个就业机会本已稀缺的世界,而单亲母亲的身份让这些机会更难得。

当Sama公司前来招募,并承诺为兰塔和她的孩子带来更好的生活时,兰塔将此视为通往光明未来的门票。她申请了这份工作,很快便发现自己身处内罗毕,远离一切熟悉的环境。然而,这些承诺在她抵达后迅速破灭。离开南非时,她留下了孩子,公司曾承诺帮助她们团聚,但这种支持从未兑现。

当她询问此事时,公司代表告诉她,他们无法如最初承诺的那样全额承担费用,只能提供部分支持,并且会从她的工资中扣除。兰塔尝试通过正式渠道向公司反映问题,却未能如愿。非正式消息称,这与公司当时正面临的法律诉讼有关。

当兰塔的姐姐去世时,她的上司允许她请几天假。但在她返回岗位后,却拒绝让她调到创伤性较轻的内容审核岗位——尽管当时还有空缺。这种做法仿佛默认她和其他员工是机器,能够随意“关闭一个程序,然后启动另一个”。

事情在她怀孕期间达到了顶点。尽管她的医生要求她卧床休息,但公司并未允许她这样做。更糟糕的是,在她生下第二个女儿仅四个月后,女儿就被送进了医院。

她随后发现,公司在她入职后不久就停止为员工缴纳医疗保险,但依然从她的工资中扣除相关费用。这使她背负了难以支付的医疗账单。

兰塔的工作内容包括审核与女性性虐待、仇外情绪、仇恨言论、种族主义和家庭暴力相关的内容,主要来自她的祖国南非和尼日利亚。尽管她理解这份工作的意义,但对于公司缺乏足够的心理咨询、培训和支持,她感到深深的遗憾。

随着时间的推移,兰塔发现自己逐渐失去了对人性的信任。“我看到了许多我从未想过会存在的事情。”她告诉我,“人类有何资格自称为智慧物种?”

Sama的首席执行官曾表示,对与Meta签订内容审核合同感到遗憾。Meta的一位发言人则回应,他们要求所有合作伙伴公司提供“全天候现场支持,由经过培训的专业人员提供服务,同时提供随叫随到的咨询服务。并从入职第一天起就为员工提供私人医疗服务。”

这位代表还提到,他们提供了“技术解决方案,尽可能减少接触血腥内容”。然而,像阿布拉、金斯和兰塔这样的员工却讲述了截然不同的经历,表明Meta的声明与内容审核员的实际工作经历之间存在显著差距。

全球视角:跨国界的相似斗争

阿布拉、金斯和兰塔的经历并非孤立事件。在肯尼亚,我采访了20多名员工,他们诉说着相似的故事。在德国、委内瑞拉、哥伦比亚、叙利亚和黎巴嫩等国家,通过“数据工人调查”(Data Workers Inquiry project)项目[2],我们同样听到了诸多相似的挑战。

在德国,尽管国家设有诸多帮助新移民的项目,但那些身份尚未确定的移民最终还是不得不从事像阿布拉这样的工作,审核来自他们祖国的内容。他们不稳定的签证状况使他们更易受伤害。许多人向我们坦言,即便面临剥削,他们也不敢公开发声,因为就业与签证紧密相连,失业或被驱逐的风险始终笼罩在他们头上。

在委内瑞拉和哥伦比亚,经济的不稳定迫使许多人投身于数据行业。虽然他们不总是直接参与内容审核,但许多数据标注员需处理充满挑战的数据集,这对他们的心理健康造成了沉重打击。

现实往往与广告宣传的内容不符。即使叙利亚的工人和黎巴嫩的叙利亚难民,并非直接从事内容审核工作,他们的工作也经常与数字化冲突的残余部分交织在一起,为本已要求苛刻的工作增加了情感压力。

保密协议(NDA)的广泛应用,正是这种不平等权力结构的另一体现。这些协议成为劳动合同的一部分,迫使工人保持沉默,将他们的挣扎隐藏在公众视野之外。

这种保密协议的威胁往往超越了雇佣期,甚至在员工离职后,仍对他们的生活产生长久影响。许多接受采访的工人因担心法律后果,坚持匿名发声。

这些工人分布在波哥大、柏林、加拉加斯和大马士革等地,他们表示自己被那些依靠他们劳动获利的公司抛弃了。据员工们透露,Sama所谓的“健康计划”往往无法有效应对他们所经历的深层创伤。

这些故事清楚地揭示了:在我们光鲜的数字世界背后,隐藏着一支承受巨大情感负担的劳动大军——他们承受这些,我们却无需分担。正是他们的经历,引发了对数据工作伦理及维持数字基础设施的人类代价的紧迫质疑。这一问题的全球性本质,揭示了一个令人不安的真相:数据工人的剥削并非行业的“偶然漏洞”,而是其系统性特征。

这是一张由科技巨头编织、通过陷于其中者的沉默来维系的全球性斗争之网。正如Mophat Okinyi和Richard Mathenge所记录的那样,这两位曾经的内容审核员、现为“数据工人调查”项目的共同研究者,见证了这些模式在多个国家和不同公司中反复出现。他们既是工人,也是倡导者,其经历凸显了这种剥削的全球性。

屏幕背后的创伤

在我前往肯尼亚之前,我以为通过与一些数据工人的线上对话,我已经理解了他们所面临的挑战。然而,当我抵达后,我被那些关于个人和制度性堕落的故事所震撼,这些故事让我经历了次生创伤,并连续几周都被噩梦困扰。对于数据工人来说,他们的创伤主要以两种形式表现出来:一是工作本身带来的直接创伤,二是加剧创伤的系统性问题。

直接创伤:面对人性最黑暗的一面

每天,内容审核员都被迫直面人类最黑暗的一面。他们在充斥着暴力、仇恨言论、性虐待和血腥图像的有毒泥沼中挣扎。

持续接触令人不安的内容,极大地损害了审核员的心理健康。正如金斯告诉我的那样:“这超出了人类所能承受的范畴。它就像每天被迫喝毒药,你知道它正在杀死你,但你无法停止,因为这是你的工作。”这些影像和视频在工作结束后仍然挥之不去,侵入梦境,渗透到个人生活中。

许多审核员报告了创伤后应激障碍(PTSD)和替代性创伤的症状[3]:梦魇、闪回和严重焦虑都很常见。一些人因长期接触人类的残酷行为而对周围世界失去基本信任,内心被永久改变。一位工人告诉我:“我带着对人性的信念开始了这份工作。现在,我不确定我还相信什么。如果人类能做出这些事情,还有什么值得相信?

当班次结束后,创伤并不会随之消散,而是一路跟随这些工人回到家中。对金斯和奥金伊来说,就像许多其他人一样,这种压力如同无形的重担,压得他们的关系在能够目睹却无法倾诉的痛苦下逐渐破裂。孩子在情感疏离的父母身边长大,伴侣逐渐疏远,而工人则被孤立在自己的痛苦中。

许多审核员报告说,他们的世界观发生了根本性的变化。他们变得过于警觉,仿佛处处潜藏着威胁。奥金伊提到,他的一位前同事因为对可能出现的暴力爆发产生偏执,不得不从城市搬到人烟稀少的乡村。在为“数据工人调查”项目制作的关于Sama女性内容审核员的小册子中,兰塔采访的一名女性提到,这份工作让她不断质疑自己的价值,怀疑自己是否有能力抚养孩子。

系统性问题:加剧创伤的结构性弊端

除了内容本身带来的直接创伤,审核员还面临一系列系统性问题,这些问题进一步加剧了他们的痛苦:

(1)工作不稳定

许多审核员,尤其是那些生活在不稳定环境中的人(例如难民或经济移民),常常生活在失去工作的恐惧中。这种恐惧通常使他们不敢公开谈论工作条件或寻求帮助。公司往往利用了他们的这种脆弱。

(2)缺乏心理健康支持

尽管公司宣称提供“健康计划”但现实却远非如此。正如金斯的经历所示,提供的心理咨询往往无法满足内容审核工作的独特需求。治疗师通常缺乏处理这种特殊创伤的经验,咨询时间也很短,无法深入解决更深层次的心理创伤问题。

(3)不现实的绩效指标

审核员通常每小时需要审查数百条内容。这种无情的节奏让他们没有时间去消化令人不安的内容,迫使他们压抑情绪。审核工作对数量而非质量的过度关注不仅影响了审核的准确性,也加剧了这项工作的心理压力。正如阿布拉所说:“想象一下,你被要求观看一个人被杀的视频,然后立刻转到下一条帖子。没有时间喘息,更别提处理我们所看到的东西了。”

(4)持续监控

如果说内容本身已经足够令人压力山大,那么审核员还要面对无处不在的监控。他们的每一个决定,每一秒的工作时间,都被严格审查,给本已沉重的负担再添一层压力。这种监控甚至延伸到上厕所的时间、任务间的空闲时间,甚至审核内容时的面部表情。

主管通过电脑监控软件、摄像头,甚至亲自观察,密切关注工人的一举一动。他们通常会注意审核员的面部表情,以评估其反应是否符合要求,并确保审核员在处理令人不安的内容时保持某种“专业性”或“情感疏离”。因此,工人告诉我,他们甚至觉得无法对令人不安的内容做出自然反应。

每天,审核员只能获得一小时的休息时间,用于进食、伸展、上厕所等所有额外需求——任何额外时间用于这些或其他非工作活动,都会受到审查,并可能被要求补回加班时间。阿布拉还提到,工人不得不将手机存放在储物柜中,这进一步使他们与外界隔绝,并在工作期间限制了与外界的沟通能力。

这种影响不仅局限于家庭:朋友逐渐疏远,因为他们无法理解审核员因工作而形成的更灰暗的人生观;社交互动变得紧张,因为审核员在每天沉浸于人类最黑暗行为之后,难以参与“正常”的对话。

从本质上说,内容审核的创伤重塑了整个家庭动态和社交网络,形成了一个远超个人范围的孤立与痛苦的循环。

用人类的创伤制造“智能”系统

或许最残酷的讽刺在于,我们正在通过伤害人类来创造机器智能的幻象。人类审核员所造成的创伤被未来无需人类干预的AI系统的承诺合理化。然而,这些系统的开发需要更多的人类劳动,并且往往以牺牲工人的心理健康为代价。

此外,AI发展的重点往往分散了对改善人类工人条件的关注。企业在机器学习算法上投入数十亿,却对人类审核员最基本的心理健康需求视而不见,缺乏应有的关怀。

AI的幻象让用户与内容审核的现实保持距离,,犹如工厂化养殖让人们淡忘了蛋鸡所遭受的待遇。这种集体的有意忽视,使得剥削得以持续而不受约束。AI的叙事就像一层烟幕,掩盖了一种深刻不道德的劳动实践。这种实践以牺牲人类福祉为代价,换取技术进步的表象。

数字工人联合起来!

面对剥削和创伤,数据工人并未被动接受。在全球范围内,工人们尝试组织工会,但他们的努力常常受到各种阻碍。在肯尼亚,工人们组建了“非洲内容审核员工会”,试图将来自不同非洲国家的工人联合起来。

工会领导成员之一的马森吉(Mathenge)告诉我,他相信自己会因参与工会活动而被解雇。这种报复行为向其他考虑组织起来的工人发出了寒蝉效应。

最近,争取工人权利的斗争在法律上取得了重大进展。今年9月20日,肯尼亚法院裁定,Meta可能因其承包商Sama解雇数十名内容审核员的行为而被起诉。法院维持了此前的裁定,即Meta可以因这些解雇行为和涉嫌恶劣的工作条件在肯尼亚受审。

这一最新裁决可能对这家科技巨头与全球内容审核员的合作方式产生深远影响,也标志着争取公平待遇和承认数据工人权利的斗争迈出了重要一步。

然而,阻碍远不限于公司层面。企业通常采取破坏工会的策略,例如解雇那些推动工会化的工人。马森吉提到,在肯尼亚数字劳动领域,与工人、记者和民间社会官员的对话中,甚至有传言称高级政府官员要求贿赂以正式注册工会,这使得工会化过程增加了另一层复杂性。

更为荒谬的是,据一家青年主导的民间组织“Siasa Place”的官员称,当肯尼亚的工人试图成立自己的工会时,他们却被要求加入邮政和电信工会。这一建议完全忽视了这些行业之间的巨大差异,以及当今数据工人所面临的独特挑战。

尽管面临这些挫折,工人们仍在不断寻找创新的方法来组织和倡导自己的权利。奥金伊、马森吉和金斯共同成立了非洲科技工人社区(Techworker Community Africa),一个致力于反对劳动剥削等有害科技实践的非政府组织。

其他组织也在帮助这些工人。例如,Siasa Place和数字权利律师Mercy Mutemi已向肯尼亚议会提交请愿书,要求调查AI公司中的工作条件。

尽管斗争充满挑战,数据工人的声音正日益高涨,他们的努力正在推动行业变革,争取一个更公平的未来。

迈向伦理AI和公平劳动实践的道路

行业范围的心理健康协议

我们需要一种全面的、行业范围内的心理健康支持方法。根据我的研究和与工人的对话,目前现有的支持系统往往无法满足数据工人的实际需求,因此,我提出了一种多层面的解决方案。

许多公司的“健康计划”仅停留在表面,无法触及数据工人所经历的深层创伤。这些计划可能包括偶尔的团体会议或普通心理咨询服务,但通常流于形式,不具备针对性。

我建议的方案应包括以下几个方面:强制性、定期与专门处理数据工作相关创伤的治疗师进行咨询;定期进行心理健康检查;提供全天候的危机支持;提供长期心理治疗服务,这是目前大多数现有计划中所缺乏的。

更重要的是,这些服务必须具备文化敏感性,能够认可并适应全球范围内数据工人的多样化背景。这与当前千篇一律的“一刀切”方法有很大不同,因为后者往往忽视了像内罗毕、马尼拉或波哥大等地工人的文化语境。新的系统应以工人母语提供支持,并对与心理健康相关的文化差异保持敏感——这些方面在当前的许多计划中严重缺失。

此外,与目前的心理健康支持系统通常在员工离职后终止不同,这种新方法将延续到工作结束之后,承认这项工作带来的长期影响。这种全面的、长期的、具有文化敏感性的心理健康支持方法,代表了与当前形式化且通常无效的支持体系的根本性转变。

“创伤上限”机制的实施

正如我们为核工业工人设定辐射暴露限值一样,我们也需要为数据工人设定“创伤暴露上限”。这种“创伤上限”将严格限制工人在特定时间内可以接触的令人不安的内容的数量和类型。

实施方式可能包括以下几种:在高冲击性内容与低冲击性内容之间轮换工人; 在接触特别创伤性材料后强制休息;限制连续几天处理令人不安内容的工作时间; 分配年度“创伤假期”,用于心理健康恢复。

我们需要一种不仅仅追踪审核数量的系统,还需要能够评估内容的情感冲击力。例如,一段极端暴力的视频应比一条垃圾帖子的审核更接近工人的“创伤上限”。

这种机制将为数据工人建立一个更安全的工作环境,防止过度暴露于令人不安的内容,同时为他们的心理健康提供至关重要的保障。

独立监管机构

依靠科技公司自我监管已被证明是行不通的;这无异于“让豺狼守鸡舍”。我们需要一个独立的机构,拥有审核、执行标准以及在必要时实施处罚的权力。

这个监管机构应由伦理学家、前数据工人、心理健康专业人士和人权专家组成。它的职责和权限应包括对数据工作场所进行突击检查,确保工作条件符合标准;制定并执行行业范围内的工作条件和心理健康支持标准;提供一个安全的渠道,让工人在不用担心报复的情况下报告违规行为。

至关重要的是这样的监管机构必须包括现任和前任数据工人的声音。因为只有他们真正了解这份工作的挑战和需求。这样的独立机构不仅能够确保公平和透明,还能推动整个行业向更加人道和可持续的方向发展。

消费者与公众在推动变革中的角色

虽然行业改革和监管监督至关重要,但公众压力的力量同样不容忽视。作为数字内容的消费者和在线空间的参与者,我们每个人都有责任推动更具伦理的实践。这需要我们进行知情消费,主动了解内容审核背后的人力成本。

在分享内容之前,尤其是可能令人不安的材料之前,我们应考虑到审核员可能需要审查这些内容的现实。这种意识可能会影响我们发布或分享内容的决定。我们还必须要求科技公司对其内容审核实践保持透明。

我们可以利用公司自己的平台,来让这些公司承担责任,公开提问工人的工作条件和心理健康支持是否到位。支持那些优先考虑道德劳动实践的公司,抵制那些忽视工人权益的企业,也是公众可以采取的实际行动。

随着AI工具在数字领域的普及,我们也必须教育自己,了解这些看似“神奇”的技术背后隐藏的成本。像ChatGPT和DALL-E这样的工具,其开发过程依赖于巨大的人力劳动和道德妥协的产物。

这些AI系统是建立在无数看不见的个体基础之上的:接触创伤性内容的内容审核员、长时间工作却薪酬微薄的数据标注员,以及他们的创意作品被未经同意或补偿就利用的艺术家。除了惊人的人力成本外,这些技术的环境代价也令人担忧,而且常常被忽视。

从数据中心的巨大能源消耗到生成的大量电子垃圾,人工智能的生态足迹是一个亟需我们关注和行动的关键问题。通过了解这些现实,我们可以对所使用的AI工具做出更明智的选择,并倡导对促成这些技术的人类劳动给予公平的报酬和应有的认可。

政治行动同样重要。我们需要倡导制定保护数据工人的立法,敦促我们的政治代表对科技行业进行监管,并支持那些优先考虑数字伦理和公平劳动实践的政治候选人。

利用我们的平台传播关于数据工作现实的认知至关重要,这样我们才能让更多人了解像阿布拉、金斯和兰塔这样的工人的故事,进而激发对数字消费道德影响的讨论。

我们可以关注并支持像非洲内容审核员工会这样的组织,以及那些专注于数字劳动权利的非政府组织(NGO),同时放大那些勇敢发声的数据工人的声音,推动有意义的变革。

大多数人并不了解他们每日使用的经过“净化”的社交媒体内容和AI工具背后发生了什么。如果他们知晓,我相信他们会要求改变。公众的支持对于确保数据工人的声音被听到至关重要。

通过实施这些解决方案并利用公众需求的力量,我们可以共同努力实现一个未来——一个我们享受的数字世界不再以牺牲人类尊严和心理健康为代价的未来。这条路充满挑战,但如果我们希望创造一个真正伦理的数字生态系统,这是我们必须走的路。

追问后记

1900(追问作者):用人类的创伤换来的“智能”系统,真的能称得上是“智能”吗?这些所谓的“智能”系统,不过是在反复向“平均水平的标注员”提问罢了。我们应当关心这些数据工人的心理健康,毕竟,长久目睹世间的黑暗,必然会动摇对人性的信任。真正的智能,难道不应建立在不以人类为代价的基础之上?

*原文链接:https://www.noemamag.com/the-human-cost-of-our-ai-driven-future/本文基于对来自肯尼亚、叙利亚、黎巴嫩、德国、哥伦比亚、委内瑞拉和巴西的数据工人的采访。这些采访是“数据工人调查”(Data Workers Inquiry)项目的一部分,该项目是由分布式人工智能研究所(Distributed Artificial Intelligence Research Institute)与魏岑鲍姆研究所(Weizenbaum Institute)合作开展的社区行动研究项目。

[1] https://tsjournal.org/index.php/jots/article/view/150/58

[2] https://data-workers.org/ https://doi.org/10.1186/s12916-022-02414-0.

[3] https://crowd.cs.vt.edu/wp-content/uploads/2021/02/CHI21_final__The_Psychological_Well_Being_of_Content_Moderators-2.pdf

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片
打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

关于追问nextquestion

天桥脑科学研究院旗下科学媒体,旨在以科学追问为纽带,深入探究人工智能与人类智能相互融合与促进,不断探索科学的边界。如果您有进一步想要讨论的内容,欢迎评论区留言,或添加小助手微信questionlab,加入社群与我们互动。

关于天桥脑科学研究院

天桥脑科学研究院(Tianqiao and Chrissy Chen Institute)是由陈天桥、雒芊芊夫妇出资10亿美元创建的世界最大私人脑科学研究机构之一,围绕全球化、跨学科和青年科学家三大重点,支持脑科学研究,造福人类。

Chen Institute与华山医院、上海市精神卫生中心设立了应用神经技术前沿实验室、人工智能与精神健康前沿实验室;与加州理工学院合作成立了加州理工天桥神经科学研究院。

Chen Institute建成了支持脑科学和人工智能领域研究的生态系统,项目遍布欧美、亚洲和大洋洲,包括、、、科研型临床医生奖励计划、、中文媒体追问等。