打开网易新闻 查看更多图片

著名科学家斯蒂芬·霍金教授认为:创造人工智能(AI)可能是人类文明史上最伟大的事件,但也可能是最后一个。

据英国《每日邮报》11月2日报道,在最新的一次采访中,霍金警告说,AI将很快形成一种“新形式的生命”,它将超越人类。AI还有可能完全取代人类,尽管还不能通过一个时间表进行准确的预测。

普华永道在最近的一份报告中指出,约四成的职业将有被AI取代的风险;该报告还指出,在2030年前,美国将有38%的工作岗位被机器人取代,比如61%的金融服务业可能被接管。与美国相比,这个数字在英国可能是30%,德国是35%,而日本则是21%。

霍金说,如果人类设计出计算机病毒,就会有人设计会进行自我保护并且会不断复制的AI,就像人类不断在医学领域进行突破维持生命一样,这种方式也许比现有的人类更好。因此他建议有更多的人对科学投入兴趣和热情,否则会产生严重的后果。

他认为,人类或许已经走上了不归路。我们的地球对人类来说显得太小了,全球人口正以惊人的速度增长,存在毁灭的危险;我们应当发展新的太空计划,找到适合人类居住的新的殖民星球。

这不是霍金第一次对AI的危险提出警告,早在去年十月份他就表示AI会发展出与人类相冲突的意志,这可能预示着更多更强大的武器出现,有少数人压迫多数人的危险,因此在这一危险性的预防领域方面我们应当提高重视。他认为,生物大脑(人类)能达到的,与计算机所能达到的目标之间没有太大的区别。所以从理论上说,计算机可以模拟人类的思维,然后超越他。

机器人究竟会不会消灭人类呢?根据“机器人三定律”,是不会的,但是,美国人权观察组织高级武器研究员Bonnie Docherty说,机器在很长一段时间以来已经被作为战争的攻击,但目前都是通过人去操作的。如果人类放弃这个控制权,把它生死的决定转让给机器人,将是一个真正的威胁。

有些人说,我们在战场上应用机器人是让他们对生命进行拯救。但是去年,超过一千名科学家及AI专家,包括霍金、特斯拉汽车公司CEO Elon Musk、苹果联合创始人Steve Wozniak都对此提出了警告:机器人武器将在几年内得到发展,而不是几十年。

在一封公开信中科学家指出,如果有一个主要的军事力量推动自主武器的发展,那么全球的军备竞赛就是不可避免的,自主的机器人武器将好比未来战场上的“AK-47”,这也将是AI技术的终点。目前来看,美国、中国、以色列、韩国、俄罗斯、英国都在不断研发给机器更大战斗自主性的系统。

霍金总结,AI潜在的好处是巨大的,这也是将来投资的重点,不可限量,这种技术上的革命有助于通过工业化消除我们对自然界造成的一些损害。但是,正如文首所说,创造人工智能的成功可能是我们文明史上最大的事件。但这可能是最后一次,除非我们学会如何避免风险。