打开网易新闻 查看更多图片

商业软件制造商LivePerson的首席技术专家亚历克斯·斯皮内利(Alex Spinelli)表示,最近的美国国会骚乱显示了一项通常与支持特朗普的暴徒无关的技术的潜在危险:人工智能。

帮助公司在Facebook和Twitter上投放在线广告的机器学习技术,同样也帮助不良分子传播宣传和错误信息。

例如,在2016年,人们在Facebook上分享假新闻文章,然后Facebook的人工智能系统将这些文章传送给用户。

最近,Facebook的人工智能技术建议用户加入关注QAnon阴谋的群组,Facebook最终禁止了这个话题。

“他们生活的世界天天充斥着虚假信息和谎言,”斯皮内利在谈到支持特朗普的暴徒时说。

人工智能谷歌在虚假信息方面所扮演的角色,以及隐私和面部识别等其他领域的问题,都导致企业在使用该技术时三思而行。在某些情况下,企业非常关注与人工智能有关的伦理问题,以至于他们会取消涉及人工智能的项目,或者根本就不启动这些项目。

斯皮内利表示,他已经取消了LivePerson和之前雇主的一些人工智能项目。出于对人工智能的担忧,他拒绝透露这些项目的名称。他之前曾在亚马逊、广告巨头麦肯世界集团和汤森路透工作。

斯皮内利表示,这些项目涉及机器学习,通过分析客户数据来预测用户行为。隐私倡导者经常对此类项目表示担忧,因为这些项目依赖于大量的个人信息。

斯皮内利说:“从哲学上讲,我坚信使用你的数据应该得到你的批准。”

企业人工智能的道德问题

在过去几年里,人工智能一直受到企业的支持,因为它能够预测市场、解读法律文件,并为更真实的客户聊天机器人提供支持。但它也经常因为出现不好的一面而成为头条新闻受到人们的关注。

去年,IBM、微软(Microsoft)和亚马逊(Amazon)禁止警方使用他们的面部识别软件,因为该软件更频繁地识别错女性和有色人种。微软(Microsoft)和亚马逊(Amazon)都希望继续向警方出售该软件,但他们呼吁联邦政府制定有关执法部门如何使用该技术的法律规定。

IBM首席执行官克里希纳更进一步表示,公司将永久暂停面部识别软件业务,称公司反对任何“用于大规模监视、种族定性、侵犯基本人权和自由”的技术。

2018年,知名人工智能研究人员蒂姆尼特·格布鲁(Timnit Gebru)和乔伊·布奥拉姆维尼(Joy Buolamwini)发表了一篇研究论文,强调了面部识别软件中的偏见问题。

埃森哲(Accenture)负责人工智能团队的前负责人、初创公司Parity AI的首席执行官鲁曼•乔杜里(Rumman Chowdhury)表示,作为回应,一些化妆品公司暂停了人工智能项目,这些项目将决定化妆品在某些人皮肤上的外观,因为担心这项技术会歧视黑人女性。

谷歌最近出现的问题也促使企业重新思考人工智能问题。最近,人工智能研究员格布鲁离开谷歌,并声称该公司审查了她的一些研究。该研究关注的是该公司理解人类语言的人工智能软件存在的偏见问题,以及该软件在训练中使用了大量电力,这可能会损害环境。

这对谷歌造成了不良影响,此前谷歌照片搜索,将黑人误认为大猩猩。

人工智能道德在向前发展

蒙特利尔人工智能伦理研究所(Montreal AI ethics Institute)创始人兼首席研究员、微软(Microsoft)机器学习专家阿比谢克·古普塔(Abhishek Gupta)表示,与几年前相比,企业开始考虑人工智能伦理问题的情况已经有所改善。几年前,企业对这一问题的考虑相对较少。

而且,没有人认为企业会完全停止使用人工智能。圣克拉拉大学(Santa Clara University)马库拉应用伦理中心(Markkula Center for Applied ethics)的技术伦理主任布莱恩·格林(Brian Green)说,人工智能已经变得非常重要,不能丢弃。

格林说:“对倒闭的恐惧胜过对歧视的恐惧。”

虽然LivePerson的斯皮内利对人工智能的一些用途感到担忧,但他的公司仍在对自然语言处理等子集进行大量投资,在自然语言处理中,计算机可以学习理解语言。

他希望,通过公开公司在人工智能和道德方面的立场,客户会相信,LivePerson正在努力将危害降到最低。

LivePerson与专业服务巨头Cognizant和保险公司Humana都是EqualAI组织的成员,并公开承诺将测试和监控其人工智能系统,以及时发现系统涉及偏见的BUG。