丑话说在头,2018可能会爆发的人工智能负能量

subtitle IT科技头条2018-01-07 13:03 跟贴 80 条

我们在一片对2018年的花式憧憬中,迎来了又一个新年。按理说,应该是开心的时候,但是刚刚跨年结束,准备开始享受新年之后,发现还要上一个多月的班!不由得悲从中来……

在科技圈,新年伊始,各种对2018年的预测层出不穷。当然关于AI的话题也不例外,内容大都是一片喜庆祥和。

不过当AI高速发展,技术进步后带来的潜在风险也在升温。今天咱们就来看看,未来1年有可能出现的“人工智能负能量”。

打开网易新闻 查看更多精彩图片

道德问题

其实早在2017年1月,在美国举行的Beneficial Al会议上,就有近千名人工智能领域的专家一起签署了一项“原则”,就是著名的《阿西洛马人工智能23条原则》。

这其中的主要内容无非就是呼吁人工智能不能损害人类的利益和安全,必须可以被人类控制等老生常谈的问题。不过,同时也说到了人类要尽量尊重人工智能和机器人的安全。

于是乎,一时间关于人工智能伦理道德的讨论,甚至组织、协会都开始出现在。这听起来貌似颇具科幻色彩,但随着AI进入各行各业,道德问题真的就不可避免了。

就比如现在正火的无人驾驶技术,我们当然知道机器比人们更守规矩也反应更快,不过即使这样,也不能避免发生事故的可能。

现实中,交通事故频发,是不争的事实。一直以来,交通事故的肇事者是人,惩罚的是人。若以后的肇事者变成了机器,那么又能惩罚谁呢?你不能惩罚机器,那么该找制造它的程序员吗?当然说不过去。

所以,看似难以克服的是技术上的瓶颈,但道德瓶颈或许才是终极BOSS。不少人不看好无人驾驶技术,不是不知道自动驾驶的事故率比人工低,而是顾忌自动驾驶的补偿性远不如人工驾驶。

目前这类问题还没有让大家都满意的解决办法。2018年,不少行业人工智能技术开始落地,随之而来的道德问题恐怕会更加棘手。

被教坏的机器人

如果你一直关注科技圈,就一定还记得2016年微软推出的可怜聊天机器人Tay。

像AlphaGo一样,Tay也是个会学习的机器人,微软推出它的本意,是让它在与人们的交流中不断学习,随着时间积累,它的理解能力将逐步提升,变得愈发“智能”。

但没想到的是,才上线不到24小时Tay就向着不可控的方向发展了。在一些网友的恶意教唆下,它开始出言不逊、脏话不断,甚至充满歧视和偏见。作为“家长”的微软只能不停删除Tay的不当言论,并急忙把它关在家里。

Tay变成一个“不良少女”,其实和微软也有一定关系,开发团队一开始并没有意识到要对Tay的回复内容进行设定。只为Tay装配了脏话相关的过滤器,微软没有考虑到网络的复杂性,以至于让这个单纯的机器人被教坏了。

智能机器人从一定程度上与小孩有相似之处,“智慧”的增长,有很大部分仰赖于它接收到的数据。这跟咱们经常说的“近朱者赤近墨者黑”是一样的道理。虽然Tay下线了,不过继任者Zo得到了用户的宠爱,也算令人欣慰。

人类社会是个复杂的环境,有友好的朋友,自然也有故意教坏人工智能不嫌事大的吃瓜群众。被教坏的聊天机器人不在少数,以后应该怎么过滤这类问题又不会莫名其妙屏蔽正常聊天,是技术人员应该考虑的问题。

还有日渐兴起的智能语音助手,能如此牛逼地了解用户的需求,从一方面来说也是对用户隐私的一种渗透。一旦被黑客利用,那大家的麻烦就大了。

总而言之,就像每一种技术革新都会带来威胁一样,AI在创造价值的同时也伴随了无数潜在危险。今后AI识别和学习能力更进一步时,带来的负面影响说不定会更大。

但不管怎么说,技术都是要进步的。更大的收获总是离不开更大的风险。咱们要做的不是知难而退,而是迎难而上解决问题,才是双赢的生活方式啊。

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
打开网易新闻,阅读体验更佳
大家都在看