网易logo

自己教自己语言!AI正在虚拟世界中发展语言技能

subtitle 网易智能08-02 19:35 跟贴 43 条

  【网易智能讯8月2日消息】很难教机器人使用语言,这就是为什么他们应该自己教自己。据悉,目前,机器人正在学习通过探索3D虚拟世界来处理简单的指令。

  像亚马逊Alexa和谷歌Home这样的设备已经把语音控制技术引入主流,但它们仍只能处理简单的命令。让机器智能地处理真实的对话,仍是一个非常艰巨的挑战。

  尝试通过直接编码单词和对象与动作之间的关系来解决这个问题需要很多新的规则,这使得机器无法适应新的情况。而机器学习语言的这一努力通常需要大量的人力进行协助。

  如今,DeepMind的团队、Alphabet旗下的一家专注于人工智能的子公司,与卡内基梅隆大学共同研发出一种方法,可以让机器在基于第一人称射击游戏的3D环境中为自己找出简单的语言原理。

  卡内基梅隆大学的硕士研究生DevendraChaplot说:“在3D的情况下做到这一点绝对是在现实世界中取得成功的重要一步。”他将于计算语言学协会年会上介绍他的论文。他表示,最终的目标是创造一种接近真实生活的模拟,接受训练的人工智能可以把它学到的东西传输到现实世界中。

  DeepMind和卡内基梅隆大学都采用了由DeepMind的人工智能技术所推广的深度强化学习法。神经网络从虚拟环境中获取原始像素数据,并使用奖励方式刺激机器通过反复试验来学习,例如游戏中获取高分。

  通常,在游戏中目标是获得高分,但在这里,两个人工智能程序得到了“前往绿色的柱子”这样的指令,然后必须导航到正确的对象以获得奖励。通过已加速的速度运行数百万个训练场景,这两个人工智能程序都学会了将单词与特定的物体和特征联系起来,让它们按照指令执行。他们甚至理解了“更大”或“更小”这样的关系术语,以区分相似的对象。

  最重要的是,这两个程序都可以“概括”他们所学到的内容,并将其应用到从未见过的情境中。如果训练场景中有柱子和红色物体,他们可以执行“前往红柱”的命令,即使他们从未在训练中看到过红柱。

  这使得它们比以往那些基于规则的系统更加灵活。卡内基梅隆大学的团队将视觉和语言输入混合在一起,将人工智能的注意力集中在最相关的信息上,而DeepMind则为他们的系统提供了额外的学习目标,比如猜测它的视图在移动时将如何变化,这提高它的整体性能。由于这两种方法从不同的角度解决了这个问题,所以它们的结合可以提供更好的性能。

  华盛顿大学教授、《The Master Algorithm》一书的作者PedroDomingos说道,“这些论文只是初步的,但取得的进步是非常令人兴奋的。”据悉,《The Master Algorithm》这本书是关于不同机器学习方法的。

  这项研究遵循了人工智能的一种趋势,即把语言和机器人控制等棘手问题结合在一起。他说,与直觉相反,这反而让这两种挑战变得更容易。这是因为,如果你能接触到它所指代的现实世界,理解语言就会容易一些,而通过一些指导来了解这个世界就会容易一些。

  数以百万计的训练,也就意味着,Domingos不相信纯粹的深层强化学习将会打破现实世界。他认为,通常被当作人工智能进步基准的AlphaGo,实际上显示出了整合各种人工智能方法的重要性。

  布朗大学专门研究强化学习的教授MichaelLittman说,研究结果“令人印象深刻”,视觉输入比之前的工作要困难得多。他指出,以前大多数用模拟器来模拟地面语言的尝试都局限在简单的2D环境中。

  但Littman回应了Domingos对该方法在现实世界中的可扩展性的担忧,并指出这些命令是基于模拟器设定的目标而生成的。这意味着它们并不真正代表人类在现实生活中给机器的不精确和含有语境的指令。

  Littman说:“我担心人们可能看到这样的例子,网络系统智能回应口头命令和推断,这些网络语言的理解和导航比他们实际做的更深入。”

  【英文来源:MITTechnologyReview 作者:EddGent 编译:网易见外智能编译平台审校:高铭梅】

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
热门跟贴
打开网易新闻,查看更多跟贴
大家都在看