网易logo

破解自动驾驶道德问题:可模仿人类做本能决策

subtitle 网易智能07-12 11:17 跟贴 1043 条

  本文系网易智能工作室(公众号 smartman 163)出品。聚焦AI,读懂下一个大时代!

  【网易智能讯 7月12日消息】对于自动驾驶汽车来说,有一个持久问题是,如何让它们在不可避免的车祸中做出道德决定?

  一项新的研究发现,人们很容易就能模拟出人类是如何左右自己行为的,从而为解决这个难题另辟蹊径。

  几十年来,伦理学家一直在与所谓的“电车问题”发生争执。如果一辆失控电车或有轨电车即将撞上一群人,通过拉一根杠杆,你可以让它改变轨道,但会撞死另一个轨道上的一个人,你应该拉动杠杆吗?

  但对于那些设计自动驾驶汽车的人来说,这个问题不仅仅是一个思想实验,因为这些车辆也不可避免地会面临类似的问题。如果一个行人闯上马路,那辆车如果突然转向,就可能会伤到乘客,或者撞倒别的行人。

  之前的研究表明,人类如何处理这种情况的道德判断是高度情境相关的,这使得它们很难建模,因而在机器中复制。

  但是,当德国奥斯宾大学的研究人员使用VR技术让志愿者们接触到电车问题的变化,并研究他们的行为时,他们对自己发现的东西感到惊讶。“我们发现了完全相反的情况,”LeonSütfeld,一篇关于行为神经科学前沿研究的论文的第一作者,在一篇新闻稿中说,“在困境中,人类的行为可以通过一种非常简单的以生命为基础的模型来模拟,这种模型适用于每个人、动物或无生命的物体。”研究人员表示,这意味着,在这种情况下,人类做出的决策不会像无人驾驶汽车那样复杂,而且他们认为,这可能会为自动驾驶汽车的道德规范提供一个可行的解决方案。

  “现在,我们知道如何在机器上实施人类的道德决策,但我们作为一个社会,仍然会陷入双重困境。”这篇论文的作者PeterKnig在新闻发布会上说。“首先,我们必须决定是否应该将道德价值观纳入到机器行为的准则中,其次,如果这个决定的回答是肯定的,那么机器就应该和人类一样行事。”

  这两个问题都有明显的陷阱。自动驾驶汽车的问题是,当机器可能不得不做出事关重大的道德决策,而大多数人都认为这是非黑即白的。但是,一旦你开始坚持在一些自治系统中把道德决策程序设计出来,你就很难知道该怎么做了。

  一个设计用来决定贷款申请的电脑程序是否也应该模仿人类银行职员在与客户面对面时的道德判断?那么,如何确定一个罪犯是否应该获得保释呢?这两种情况都代表了在环境中运行的自主系统的真实例子,在这种情况下,人类可能会在决策过程中加入道德判断。

  但与自动驾驶汽车不同的是,一个人在这些情况下的判断可能会因其生活经历和政治观点而受到高度的影响。对这种类型的决策进行建模可能不是那么容易。

  即使人类的行为是一致的,但这并不意味着它是最好的方式,正如Knig所暗示的那样。人类并不总是非常理性,可能会被各种各样的偏见所困扰,这些偏见可能会影响他们的决策。然而,另一种选择是将道德手工编码到这些机器中,而且它充满了复杂的问题。

  首先,就哪些特定的道德规范机器应该遵守的问题达成明确共识的可能性很小。不过,即使可以,去年6月我所报道的一项科学研究也表明,这并不一定能解决问题。一项针对美国居民的调查发现,大多数人认为自动驾驶汽车应该由功利主义的道德规范来管理,它试图将事故死亡人数降到最低,即使它伤害了少部分人。但它也发现,大多数受访者表示自己不会乘坐这些车辆,也不会支持相关法规执行实用算法。

  面对如此复杂的局面,自动驾驶汽车模仿人们的本能决策,可能是一种颇具吸引力的选择。首先,构建人类行为模型只是要求研究人员收集数据并将其输入机器学习系统。另一个好处是,它可以保护程序员避免他们被迫编写有可能让人陷入危险境地的算法。通过将自动驾驶汽车的行为建立在集体决策的模型之上,在某种程度上,我们将承担他们做出的决策的责任。

  人类并不是完美的,但在几千年的时间里,我们已经为生存和死亡状况制定了一些非常好的经验法则。面对试图让自动驾驶汽车变得比我们更好的潜在缺陷,或许最好还是相信这些直觉。

  【英文来源:SingularityHub 编译:网易见外编译机器人审校:张轶凡】

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
热门跟贴
打开网易新闻,查看更多跟贴
大家都在看