活动人士指责Facebook的母公司 Meta 给肯尼亚数百名内容管理员带来了“潜在的终身创伤”,此前有超过140人被诊断患有创伤后应激障碍(PTSD)和其他心理健康问题。

这些诊断是由肯尼亚首都内罗毕肯雅塔国家医院的精神健康服务负责人伊恩·卡尼亚亚博士做出的,他于12月4日向该市的就业和劳资关系法院提交了申请。

这些医疗报告是由Nzili律师事务所和Sumbi Associates律师事务所提交给法院的,用于诉讼Meta和Samasource Kentucky这两家公司。Samasource Kentucky是肯尼亚当地的一家外包公司,与科技巨头Meta签订了内容审查的合同。

01

内容审核员帮助科技公司剔除其平台上令人不安的内容,并通常由第三方公司管理,这些公司通常位于发展中国家。多年来,活动人士一直担心这项工作会对审核员的心理健康产生影响。

由于正在进行的诉讼,Meta拒绝就医疗报告置评,但其表示很尊重内容审核员的劳动成果,与第三方公司签订的合同规定了对咨询、培训和公平薪酬的期望。

打开网易新闻 查看更多图片

发言人补充说,内容审核员可以自定义“内容审查工具”,以便于工作。

Samasource Kentucky,以下简称Sama,同样没有回应置评请求。

内容审查是一项艰苦又残酷的工作,员工决定哪些内容被允许保留在网站上,哪些内容被标记为不适当,哪些内容应该被删除。在这个过程中,他们可能会面临互联网最糟糕的情况。

前Facebook内容审查员克里斯·格雷表示,在他的工作过程中,平台会“反复无情地展示极其令人不安的、图像化的和极端暴力的内容”。

“每当我谈论这些内容时,我就会变得更加沮丧,我真的不得不放弃谈论这件事。”格雷先生告诉记者。

他被要求查看的内容包括一个穿着长袍的女人被石头砸死的视频、用机关枪近距离射击的个人处决、虐待和谋杀罗辛亚人的视频、看起来像是利比亚移民被熔化的金属折磨的视频、鞭打,殴打和动物虐待等。

他被要求在每个工作日查看多达600项不同的内容。

打开网易新闻 查看更多图片

格雷先生进一步表示,内容审核员有大约30秒钟的时间来处理一项内容,并且必须保持98%的决策准确率,这意味着每月不能犯超过4个错误,而这个目标“永远不可能合理地实现”。

尽管多年来,Facebook一直致力于开发人工智能以代替内容审核员,自动检测出有问题的内容。但Facebook的算法距离达到自动识别内容所需的复杂程度还有好几年的时间,人工智能技术可能会删除不应删除的内容,增加“误报”的风险。

02

卡尼亚亚博士表示,做过心理健康评估的内容审核员“每天都会看到极其生动的内容,包括骇人听闻的谋杀、自残、自杀、试图自杀、性暴力、露骨的性内容、儿童身体和性虐待,以及其他各种暴力行为等。”

根据卡尼亚亚的说法,在144名自愿接受心理评估的内容审核员中,有81%被归类为患有“严重的PTSD。

这起集体诉讼源于2022年Facebook前内容审核员提起的一起诉讼。据支持此案的英国非营利组织 Foxlover称,这名员工在组织反对不公平工作条件的抗议活动后,被Sama公司非法解雇。

Foxlover表示,去年,在Sama内罗毕审核中心工作的260名内容审核员全部被裁,原因是他们对自己的薪酬和工作条件表示担忧,因此受到了“惩罚”。

打开网易新闻 查看更多图片

法庭文件显示,参与当前法律诉讼的内容审核员在2019年至2023年期间为Sama工作。

美国有线电视新闻网(CNN)看到的一份医疗记录显示,一名内容审核员描述说,他在工作期间看到的图片内容经常让他做噩梦,醒来时冷汗直冒。其他审核员补充说,这导致他们经常崩溃,甚至患上内容闪回和妄想症。

另一位内容审核员说,在看到一张蛆虫从腐烂的人手中爬出来的图片后,她患上了密集恐惧症。

Foxlover的联合执行董事玛莎•达克表示:“在Facebook从事内容管理工作是危险的,甚至是致命的,几乎所有审核员都会因此患上PTSD。”

玛莎在提供给CNN的一份声明中说:“在肯尼亚,数百名接受PTSD测试的内容审核员100%受到创伤...... Facebook对数百人的潜在终身创伤负有责任,而这些人通常是刚毕业的年轻人。”

打开网易新闻 查看更多图片

这并不是内容审核员第一次对社交媒体巨头采取法律行动,因为他们声称这份工作有损他们的健康和福祉。

此前,在新冠疫情爆发初期,数百名Facebook内容审核员指责公司让他们在疫情期间回去工作,将自己的生命置于危险之中。200多名员工签署了一封公开信,要求加强健康和安全保护,并批评Facebook的新冠防疫政策。

03

一位知名网络专家表示,Facebook正将员工们用作互联网上最可怕内容的“人肉过滤器”,用于审查恐怖主义内容、儿童剥削视频和仇恨言论。

研究科技对人类行为影响的法医网络心理学家、欧洲刑警组织欧洲网络犯罪中心学术顾问玛丽·艾肯博士表示,此举是极不负责任的。此外,她表示,与Facebook的二十亿用户相比,其15000名内容审核员毫无用处。

在研究接触有害网络内容的影响时,艾肯博士说:“我们看到内容审核员在审查极端内容时出现了急性压力障碍,这是PTSD的早期征兆。”

注册Facebook账户的最低年龄要求是13岁,但艾肯博士说,更小的孩子也同样在平台上冲浪,Facebook和其他社交媒体巨头没有尽到保护儿童的责任。

打开网易新闻 查看更多图片

“为什么我们不能对这些公司提出更多要求?多问问我们的政治代表?这不仅仅是父母的责任,还有集体的责任。有这么一句话:养育一个孩子需要一个村庄,在网络空间也是如此。”

她补充道:“对于一家几乎知道你穿什么颜色的袜子的公司来说,不知道网站上有一个8岁的孩子是不可信的。他们当然知道网站上有孩子们,但我们只是没有强迫他们做我们在现实世界中做的事情。”

“孩子们不能在商店里买酒买烟,为什么我们只允许社交媒体公司做他们想做的事情?因此,我们作为一个集体,有责任予以反击。”

她表示,Facebook声称自己的网站内容是经过审核的,这是在给父母作“虚假的保证”,你不能使用二十亿人的人性审核。

对此,Facebook 拒绝置评。 ‍

来源 | 译言(ID:yeeyancom)

作者 | 小译 ; 编辑 | 呼呼大睡

内容仅代表作者独立观点,不代表早读课立场