谷歌、微软和百度正在使用ChatGPT等工具将互联网搜索变成对话。这将如何改变人类与机器的关系?

近日,Nature专门发表一篇文章,就此问题进行了剖析。以下是编译的文章。需要特别说明的是,文图版权归著作权人。

打开网易新闻 查看更多图片

在聊天机器人ChatGPT以其不可思议的撰写论文和像人类一样回答问题的能力震惊世界几个月后,人工智能(AI)即将进入互联网搜索。

全球最大的三大搜索引擎——谷歌、必应和百度——上周表示,他们将把ChatGPT或类似技术整合到他们的搜索产品中,让人们能够获得直接答案或参与对话,而不仅仅是在输入单词或问题后收到链接列表。这将如何改变人们与搜索引擎的关系?这种形式的人机交互是否存在风险?

微软的Bing使用与ChatGPT相同的技术,ChatGPT由加利福尼亚州旧金山的OpenAI开发。但这三家公司都在使用大型语言模型(LLM)。LLM通过回显他们在大型数据库中遇到的文本的统计模式来创建令人信服的句子。谷歌的人工智能搜索引擎Bard宣布,目前正在被一小群测试人员使用。微软的版本现在已经广泛使用,尽管有一个不受限制的访问等待名单。百度的ERNIE Bot将于三月上市。

在这些公告发布之前,一些较小的公司已经发布了人工智能驱动的搜索引擎。“搜索引擎正在演变成这种新状态,在那里你可以真正开始与它们交谈,并像与朋友交谈一样与他们交谈,”计算机科学家阿拉文德·斯里尼瓦斯(Aravind Srinivas)说,他去年八月共同创立了Perplexity——一个基于法学硕士的搜索引擎,用英语会话提供答案。

改变信任

与传统的互联网搜索相比,对话的强烈个人性质可能有助于影响对搜索结果的看法。人们可能天生就相信聊天机器人的答案,而不是来自独立搜索引擎的聊天机器人的答案,计算社会科学家亚历山德拉·乌尔曼(Aleksandra Urman)说。

2022 年的一项研究显示,对于与亚马逊和百思买等公司使用的聊天机器人互动的参与者来说,他们越认为对话像人类,他们就越信任该组织。

这可能是有益的,使搜索更快,更流畅。但是,鉴于AI聊天机器人会犯错误,增强的信任感可能会有问题。比如,ChatGPT倾向于为它不知道答案的问题创造虚构的答案——这被该领域的人称为幻觉。

谷歌也出现了“错误”。这个错误使谷歌的价值蒸发了100亿美元,因为投资者担心未来并出售股票。

一些人推测,假设发现此类错误,而不是增加信任,可能会导致用户对基于聊天的搜索失去信心。“早期感知可以产生非常大的影响,”计算机科学家Sridhar Ramaswamy说,他是Neeva的首席执行官,Neeva是一月份推出的LLM搜索引擎。

缺乏透明度

使不准确性问题更加复杂的是相对缺乏透明度。通常,搜索引擎向用户提供他们的来源 - 链接列表 - 并让他们决定他们信任什么。相比之下,很少有人知道LLM训练了什么数据 - 是大英百科全书还是八卦博客?

“(人工智能驱动的搜索)将如何工作是完全不透明的,如果语言模型失控,产生幻觉或传播错误信息,这可能会产生重大影响,”Urman说。

Urman说,如果搜索机器人犯了足够的错误,那么它们就有可能取代用户对搜索引擎的看法,而不是增加对他们的对话能力的信任。

她进行了尚未发表的研究表明,目前的信任度很高。她研究了人们如何看待谷歌用来增强搜索体验的现有功能,称为“精选摘要”。谷歌自动生成的摘要,以响应有关个人或组织的搜索。在Urman调查的人中,几乎80%的人认为这些特征是准确的,大约70%的人认为它们是客观的。

聊天机器人驱动的搜索模糊了机器和人类之间的区别,数据科学平台Hugging Face的首席伦理学家Giada Pistilli说,该平台旨在促进负责任地使用人工智能。她担心公司采用人工智能进步的速度有多快:“我们总是把这些新技术扔给我们,没有任何控制或教育框架来知道如何使用它们。”

本文来源:Nature,有略微删改。

本文作者:克里斯·斯托克尔-沃克。

原文链接:https://www.nature.com/articles/d41586-023-00423-4

世界时局二十讲链接:

关注备用号,以防又失联

历史隐蔽的未来









每一个最后的睡姿

都是一首提前为自己祭悼的

长长的诗