打开网易新闻 查看更多图片

*网易财经智库原创文章转载需经授权。本文不构成投资决策。

出品|网易财经智库

编辑|崔亦鑫 主编|杨泽宇

网易财经智库《C位观察》节目一一看C位大佬解读C位大事。独家对话智库头部经济学家、企业家、各个领域KOL,解读时下热议的财经和社会问题。

NO.043对话中国科学院自动化研究所研究员、类脑智能实验室副主任、人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家曾毅

60S要点速读:

1、生成式人工智能技术的发展,并没有真正做到科学上的突破。

2、生成式AI只是一个信息处理系统。它会犯一堆人类不犯的错误,大家要准备好。

3、当未来人类的部分工作被人工智能接替,红利分配的方式可能也应该发生变化。

4、对于企业来说,基础模型的构建还有很大的机会,还存在很大的颠覆性的可能;另外,相较于传统的生成式AI大模型,终端侧的生成式AI在应用方面更值得探索。

5、没有伦理安全框架的人工智能,是最危险的一种人类发明。

6、当超级智能看待人类,像人类看待蚂蚁,你能接受吗?人类需要变革。

以下为访谈精编:

-1985年,微软推出 Windows 1.0,通过实现直观的用户图形界面和鼠标操作,开启了 PC 全面普及的新时代;

-2008年,iPhone 3G正式发售,iPhone 3G向第三方开发商开放了App Store,从此开启了移动互联网时代;

-2022年底,OpenAI发布大语言模型ChatGPT,并迅速破圈,成为历史上用户增长最快的消费级者应用程序。生成式人工智能模型随之爆火。

微软公司创始人比尔・盖茨将OpenAI 的 GPT 模型,与“图形用户界面”的诞生相提并论;

英伟达CEO黄仁勋将它看作“AI的iPhone时刻来临”。

-2024年2月, OpenAI推出全新的生成式人工智能模型——首个文生视频模型Sora,再次震撼世界。

一、生成式人工智能技术并没有真正做到科学上的突破

生成式人工智能Sora 在生成数据的真实性、连续性上的进步是明显的,主要进展包括但不限于采用了更有效的对视频数据统一表示与融合训练的算法,以及用生成式AI来丰富用于训练的视频数据等,虽然相关的技术都不是此次Sora首次提出的,但是在若干技术的高效组合的工程化方面,达到了前所未有的用户感知体验。尤其是将视觉和听觉数据跨模态生成,所带来的用户体验是更上一层楼的。

但是,生成式人工智能技术的发展,并没有真正做到科学上的突破。

生成式人工智能,只是一个工程技术组合优化的创新。它把很多已知的科学技术,通过大规模工程优化的方法,达到了用户体验方面的显著提升,在用户体验方面取得了一个前所未有的高度。

从用户的角度来说,它可以做很多事情,甚至给人一种感觉,它近乎接近人类。比如ChatGPT能回答一般智力的人可能也比较难回答的问题,特别是在知识的广度方面。的确,生成式人工智能在用户体验上取得了很大的提升,但是,这不是基于科学技术突破所带来的提升。

打开网易新闻 查看更多视频
曾毅:ChatGPT并不是真正的科学突破

1950年,“计算机之父”艾伦·麦席森·图灵(Alan Mathison Turing)发表了一篇文章——《计算机器与智能(Computing Machinery and Intelligence)》。其中,他提到判断人工智能是否达到人类水平的方式,是将TA(人工智能)放在一个屋子里,找一个人与TA对话,当这个人无法分辨TA是人还是机器的时候,我们可以判断人工智能达到了人类的水平。

所以,从某种程度上来说,人工智能起源于一个欺骗。2014年,一个俄罗斯团队开发的一款名为“尤金·古特曼(Eugene Goostman)”的计算机软件首次通过了测试,成功地让33%的被试相信它是一个13岁的男孩。所以,第一次骗人成功的机器并不是ChatGPT。

除此以外,生成式人工智能背后的技术Next Token Prediction,以及基于人类反馈的强化学习的技术早就存在。比如,Next Token Prediction是第一代人工智能的创建者就提出的数学模型,在我看来,它对于真实世界的呈现或理解可能是一种过度的简化。

所以,生成式人工智能技术的创新,并非颠覆性的科学突破。事实上,对于生成式人工智能来说,只要数据量足够大、神经网络的参数足够多,那么它在用户体验上都能达到相当高的水平。但是,这并不能说明人工智能技术的进展,这只能说明以前的人工智能没有机会应用到互联网规模的数据,以及几乎接近人脑规模的这种连接和参数的量,所以在用户体验上没有经历过这样的体验。

而且,现在大家使用的这种所谓的生成式大模型,它其实已经是一个工程的产品,它背后不仅仅是生成式的人工智能,还要结合一些其他技术。

比如,大家最初使用 ChatGPT的时候,让它推荐人类历史上引用率最高的科学文献,它可能推荐了10篇文献,但是当我们去做核实的时候,会发现这10篇文献根本不存在。

为什么ChatGPT要撒谎?

因为生成式人工智能,它只是一个看似智能的大规模信息处理系统,它无法区分任务,它把所有的任务都定义为生成式的任务。既然是生成式的任务,就不能跟原始的数据一模一样。但是“查阅文献”本质上是一个信息检索类的任务。所以作为一个服务系统,它就要把生成式人工智能技术,跟信息检索等技术去结合。

所以从这个意义上来说,现在服务于大众的生成式人工智能模型,本质上是一个大规模的工程化系统。它是一个现有技术的工程化的组合优化的创新,是大规模数据和大参数的积累,带来的用户体验极大提升。

微软公司联合创始人比尔·盖茨将 ChatGPT与当年的图形用户界面相提并论;英伟达CEO黄仁勋也将它看作“AI的iPhone时刻来临”,但是在我看来,它们的相似之处更多在于用户体验方面——都给用户带来了耳目一新的感觉。而从科学原理角度来说,AIGC没有太多新进展。

二、生成式人工智能不该被“过度承诺”

认为“生成式AI在处理任务时就像真正的人一样”,这是一种幻觉。因为AIGC大模型会犯很多人都不会犯的错。

比如,“恭祝大家龙年快乐”,这句话有几个字?这个问题,ChatGPT就不一定能数对。

它最开始可能会回答“7个字”,我们告诉它输错了,它会告诉你,“是8个字”,但是,当我们再次继续告诉它输错了的时候,它会重新告诉你,“是7个字”。(如下图)

打开网易新闻 查看更多图片

其实,这与生成式人工智能的编码有关。我们在处理信息的时候,一个字符就是一个汉字。但是,它会把英文、中文等不同的语言都转换成Token(模型输入的基本单位)去表示,所以生成式人工智能背后的技术叫Next Token Prediction。所以,他只是一个处理器,它并没有真正理解。

当然,若让ChatGPT编一个小程序,来统计文本中的字数,它完全没问题。我们可以利用这个小程序,再按照人的逻辑去处理之前我们提到的字数问题。

但是,不可否认的是,它有一定的创造能力。在创作艺术作品方面,有时候会给人耳目一新的感觉。但是,有时候很多细节也经不起推敲。比如某些具有视觉生成功能的大模型,让它创作一幅楷书作品“和谐共生”,它可以生成一幅作品,但是这四个字可能是错的,可能只有其中的1个字或3个字。

背后的原因,除了它没有真正理解之外,关键是对于中国书法作品,它没有足够多的语料。假设标注这个字是“和”,可能需要输入几千张几万张“和”,如此级别的语料喂进去,它可能才能够学好。

所以,当数据量不够多的时候、当没有足够多的人类反哺的时候,我们甚至想象不到它会犯什么错误。

现在很多人说,“人类历史上见证了通用人工智能的诞生”、“人工智能系统已经全面超越了人类”,其实都没有。 生成式人工智能既不通用,也没有形成真正的理解。它现在仍然是基于人类智慧的一个产出,脱离了人类大规模的数据,它不太能够真正工作。它并不能在任何场景下,解决我们所有的问题。

它只是一个信息处理系统。它会犯一堆人类不犯的错误,大家要准备好。我们应该谨慎地、适度地使用它。比如,与Sora相关的生成式人工智能技术,可以降低人工影视、娱乐、文化产品等产业的开发成本和门槛,所以我国的人工智能研究和产业,有能力一定要尽快赶上;但是我们也需要特别指出,这并不意味着生成式人工智能已经真正理解了我们的物理世界,并可以完全替代这些产业中传统需要人类完成的工作。事实上,当前Sora系统生成的视频,还会犯很多违反生活与物理常识的错误。

曾毅谈生成式人工智能: 它会犯一堆错误 大家要做好准备

所以,当技术的发展波及到用户、服务于用户时,任何时候都不应该尝试过度的承诺。这也是人工智能发展历史上的问题。每一次过度承诺并不一定是科学家造成的,但是在产业推动的过程中,过度承诺和过度宣传,使得技术在没有真正准备好的时候,接触了用户,当然,需要用户反馈是无可厚非的,但是当你过度承诺而又无法兑现承诺的时候,大家就会产生落差感,从而可能对此类技术失望。

比如,现在有一种宣传大肆鼓吹,现在的人工智能已经能够真正模拟人类的大脑,能够构造数字人,以后甚至我们不需要主持人、不需要老师了,我们可以用数字人去替代等等,这些都是过度承诺。当出现了过度承诺的时候,用户往往会非常严格审慎地去进行体验。

所以,还是要再次强调,现在的生成式AI,它并没有准备好替代人类。它没有真正达到人类的智能水平,没有真正产生理解。所以,公众不应该对它有过高的期待,科研工作者和产业推动者,更不应该去助推这种误解。

三、未来若人类工作被AI替代

失业问题 谁来负责?

未来,随着人工智能技术的发展,某些重复性的工作,比如那些几乎是模板化的编程需求量可能会降低。初级程序员的需求量随之可能会越来越少,但是基于当前人工智能技术在发展中可能存在一定的风险、安全隐患,测试工程师的需求量可能会增加。

但是,这并不一定是一个坏现象。也许确实你在做的很多这种重复性性质的工作,它可能不是你想做的事情。如果是这样,不如再多花点时间去思考,自己更感兴趣的是什么。未来工作的意义应该被重新定义,工作的形式应该更多样化,更多地发挥人的人性。由此,人将重新认识自身的意义,而不是去用工作定义自己。

但是,有些人会说,我非常愿意一辈子就在装配线上做一个工人,我只要能够换来收入,能够生活,没什么不好。

如果你的需求只是生活的收入,未来当人工智能高度发达的时候,红利分配的方式可能也要发生变化。

工作被AI替代了怎么办? 曾毅:AI部署方研发方应该承担部分责任

当未来人类的部分工作被人工智能接替,这时候,红利可能流向了人工智能的应用方、人工智能技术的提供方;或者,可能在构造这样的人工智能的过程中,大量学习的数据来自于人类本身,比如来自于这部分被替代工作的工人本身的时候,我们需要考虑是否应该分配给这部分人更多的红利?这是社会层面需要去思考的问题。

所以,未来人工智能工作替代带来的社会问题,谁来承担?我初步的想法是,至少人工智能的应用和部署方,以及人工智能的研发方,对于这种社会结构的转变,其实是应该承担部分责任的。

四、企业的机会在哪里?

(一)相较于传统的生成式AI大模型

终端侧的生成式AI在应用方面更值得探索

现阶段生成式人工智能大模型,若想在用户体验上提高一点点,它的代价是很大的,比如,把精确度从96.5%提高到96.6%,数据量可能要翻上去1/3甚至1倍,换来0.1%的提升。但是,这样的代价真的值得吗?

相较而言,终端侧的生成式人工智能,在应用方面其实是更值得探索的。

终端侧的生成式人工智能有两点优势。第一,它是资源受限的,无需特别庞大的园区作为基础支撑;第二,智能体的发展为其提供了更多承载渠道。人工智能的发展有一个重要的方向是具身智能,就像任何动物都有一个身体,人类也是具身智能,我们对世界的认知需要通过身体的不同部位去感知。

为什么我们看到鸡蛋的时候不会拿起来把它摔一下,但是当我们拿起一个乒乓球的时候,就会把它往地上砸?这是长时间地,通过我们外周神经系统、感知系统跟世界交互产生的常识。所以,很多的世界知识通过大规模数据去喂是喂不出来的,很多认知是需要通过交互的方式去产生的,而这并不一定需要一个特别大的生成式大模型去支撑。也许通过端的小模型,以交互式、强反馈的方式,去提升AI的智能水平,比大模型通过迭代、依赖更多的大数据去喂哺,可能会更有效。

曾毅谈AI大模型: 很多人类认知通过大数据去喂 是喂不出来的

所以,在我看来,人工智能的发展很难越过具身智能。所以,它一定要通过端来探索和反馈,这个端可能是一个人形机器人、一只机器小狗,或是每天跟着我们的手机等,通过它不断收集我们的个性化数据,从而给我们提供更好的服务。它(端侧的生成式模型)更多地是融入场景,或者是更个性化的,通过交互,获得一个更精准的用户画像。这不是传统的、基于大规模数据统计的生成式大模型能够替代的。

(二)基础模型的构建

仍有很大的机会空间

现在有一些人,特别是企业,认为未来人工智能的机会已经不在基础模型的构建上。他们认为这条赛道的竞争之后会聚焦在头部几家企业,别人已经没有机会了。在他们看来,未来就是基于生成式大模型,去构建基于端的服务。我不赞同这些观点。

中科院曾毅称真正的颠覆创新都不来自于大厂

在我看来,当前生成式AI在基础模型方面,大家都遇到了瓶颈。当没有足够多的数据,并且算力提升仍然存在瓶颈的时候,智能水平的提升也必然会遭遇瓶颈。甚至更多数据的积累,似乎也难以实现智能水平真正的质的飞跃。

所以,基础模型的构建,还存在很大的颠覆性的可能。

若按照已有的头部大厂的构建方式,去构建一个基础模型,这种工作意义确实不大,但是若采用一种全新的方式去构建基础模型,机会还是非常大的,它的潜力是非常大的。

比如,用全新的方式去使用数据,极大规模地缩小可能需要的参数量,在这种基础之上,再创新性地构建基础模型。

而事实上,真正的颠覆创新,很多都不来自于这些大厂。当年大家也不看好OpenAI,2017年创始人之一的埃隆·马斯克也选择了退出,而正是在这样的背景下,OpenAI开战谷歌旗下的DeepMind,并随后推出ChatGPT,一战成名。所以,这种科学驱动的、有产业敏锐的创新者组成的团队,反而更可能产生真正在基础模型方面的未来颠覆式的创新。

某些企业之所以会说,“未来机会不在基础模型的构建上了”,是出于他们是基础模型的提供方,他们认为基础模型已经构建好了,接下去就需要大家去构建上层应用,把现有的基础模型用起来。

但是,在我看来,这种观点稍显不负责任。上层应用是需要做的,但是前提是基础设施已经搭建好了,而这一点仍值得商榷。在我看来,基础设施远远没有搭建好。

所以,当这些头部大厂把80%精力投入在上层应用和基础设施的进一步优化方面时,至少应该拿20%的人力、物力投入到真正颠覆性的创新中,投入到下一轮的准备中。否则下一轮竞赛,他们将会花更大的力量去追赶。至于到时候还剩多少机会,就很难说了。

我国很多企业的问题是,一直在等风口。当他们觉得有一点点微风的时候,他们会认为太危险,绝不投入;等到风刮起来的时候,比赛已经结束了。

曾毅谈中国AI:中国的产业始终没有学会 做真正长期的准备

所以,中国的产业创新为什么与其他国家有较大差距?我们到现在为止都没有准备好去做一次真正长期的准备,这是最危险的事情。当我们看到别的企业像微软,它可以注资百亿,给一个根本没有得到广泛认可的小公司进行豪赌时,这样的故事在产业界已经发生了若干次。但在这个过程当中,我还是非常纳闷,中国的产业怎么还没有学到呢?

五、AI的“中国时刻”何时到来:

下一轮的机会在哪里?

为什么ChatGPT没有产生在中国?事实上,人工智能的发展,它从发展的范式上已经颠覆了很多次,可以说没有一次真正突破的科学基础是来自中国。

为什么ChatGPT没有产生在中国?AI“中国时刻”何时到来?

在这种情况下,我们往往是按照别人画的路走,所以一直在追赶,一直比的是别人放出来的服务。但是别人放出来的服务,它的基础设施可能是三年以前搭建好的,花了两三年的时间在优化它的用户体验、收集用户反馈,再用大量的人工去修改。

而我们国内的生成式人工智能,基本是一两个月、三个月上线,三个月上线的都算是慢的。在这种情况下,用户体验如何跟别人比?我们根本没有背后框架的积累。当然,在这种情况下,我们可以追赶,但是在我看来,这种超越不是真正事实性的。也许,我们在某一两个应用的案例上,看上去似乎取得了比别人更好的结果,但是在我看来,这种所谓的评估,实际上都是片面的。就像一个学生参加考试,考了100分,是否能够证明这门课他都学懂了?显然不能,考试本身是以偏概全的考察,一张卷子上能够容纳的知识点是非常有限的。

曾毅: 中国要抛弃跟随别人的思维 为长远计

所以,如果要真正迎来人工智能的中国时刻,就不能只是沿着别人画的路进行追赶。

OpenAI诞生的时候不是一个简单的延伸;Alpha Go基础模型诞生的时候也不是一个简单的延伸;当人工智能规则系统在被发明出来的时候,它也不是对简单的信息处理系统的一个延伸。它们都是在用另外一种思维去创新。

所以,中国现在就要布局下一次的颠覆。但是,下一次颠覆中国的机会在哪里?

其实,生成式人工智能的发展已经证明,智能模型的本质是需要颠覆的。在我看来,现在数据驱动的人工智能,不是真正意义的人工智能。因为现在的智能来自于人类的数据,需要极大规模的数据和参数。但是同等智慧的获取,人类并不需要如此大的数据做支撑。所以参照人类智能的本质,未来AI若要真正实现“智能”,当前的智能模型是一定要从本质上颠覆的。

曾毅:现在数据驱动的人工智能 不是真正的人工智能

未来的人工智能,究竟是基于目标和服务驱动去训练的人工智能系统;还是合乎自然演化机制,模拟人的大脑结构、信息处理机制,从而受其启发,构建成人工智能算法?

目前为止,全世界能够处理各种各样的问题,真正具有通用智能,而且能够稳定地工作几十年的智能系统,就只有人类的大脑。

大自然数亿年的演化,能犯的错误很多都已经犯过了,否则为什么现在人类的大脑进化成现在的样子,而不是保留猴子大脑的结构?正是文明发展的需要。自然演化塑造了智能,我们要从自然演化中去学习智能的本质。人类就是最好的智能参照物,我们应该受其启发去构造真正意义的智能,这才是真正意义的人工智能。

六、绝不能以发展为借口

让人工智能无处不在

技术的发展永远不是中立的,特别是人工智能系统。

在它没有接触人类社会的数据的时候,它可能是无善无恶的,但是当它接触到人类数据,它就变得有善有恶了。若我们不在伦理、安全方面规制它,它就不可能知善知恶,因为没有人类的反馈,它没有办法区分善恶。

比如Sora在连续高精度视频生成方面的进展,使得利用人工智能造假的效果到达了一个前所未有的高度,也给“眼见为实”带来了更大的挑战,对于公众而言,区分虚假信息变得难上加难。同时,视觉取证与执法也将面临更大的挑战。所以,一方面人工智能治理相关政策发展和落实要进一步跟上;另一方面,生成式人工智能技术研发的机构和企业要同步发展、推广更高水平的自动化鉴伪技术与应用。

可以说,没有伦理安全框架的人工智能,是最危险的一种人类发明。

曾毅: 没有伦理安全框架的AI是最危险的一种人类发明

它可能把人类的恶通过数据学到并且去放大,并且采用负面的方式去影响社会。 甚至,有些人认为,未来人工智能(超级智能时代)会像核武器一样危险,可能造成人类社会的颠覆。

但是,在我看来,即便是超级智能没有到来的时候,人工智能也有可能给我们带来颠覆性的风险。因为人工智能没有真正理解的能力。

当它可以利用人类的缺陷,制造人类之间的冲突时,比如以某种方式激发类似欺骗、仇恨、敌对等负面情绪。当这些负面、虚假信息,给人类社会造成极端不信任、大范围社会冲突的时候,它就会威胁人类生存,乃至带来毁灭性的风险。

而这个时候人工智能系统甚至还并不理解什么叫做冲突,什么叫做不信任,这是最糟糕的。当它给人类社会大范围地造成问题时,它甚至不明白什么叫做问题。在我看来,这是现阶段人工智能最大的风险。

除此之外,现在的人工智能仍是人类的一个辅助系统,但是,如果它被不合理地使用,比如把它当作一个决策系统,替代人类的决策;再比如,当它应用于战争,又被黑客利用的时候,那么它就可能产生相当大范围的杀伤力,甚至给人类造成类似于核武器级别的风险。

现在甚至有一种假设,有人认为人工智能做决策快,所以考虑使用人工智能控制核武器。那将是世界末日。

所以,不要让人工智能去代替人类决策,特别是关键的决策。人类要把自身的命运留在自身的手中,这是非常关键的。

所以,有很多在科学上可以实现的事情,但是在社会上我们都不应该去应用。当然,有人会说,中国人工智能要发展起来,不要管得太死。

曾毅:绝不能以发展为借口 让人工智能无处不在!

但是,需要强调的是,可以商讨的地方是那些灰色地带,不是红线。比如个人数据、个人隐私的问题,就是不可跨越的红线。所以,发展人工智能,这条红线应当是非常清晰的,绝对不能以所谓的发展为借口,让人工智能无处不在,那是非常危险的。

所以,人工智能技术的创新者,一定要树立正确的价值观。

一个人工智能的服务产品,从诞生到它服务于社会,中间可能只有10分钟的时间,它马上可以部署在网上,开始收集数据、获得用户。但是想象一下,若它背后的技术创新者,从未接触过任何社会学的教育培训,没有任何在伦理道德方面的考量,而完全是基于好奇心而去构建服务产品,这背后潜在的风险可能是巨大的。

所以说未来人工智能的创新者,他需要一个综合交叉学科的培养,而不仅仅是对技术创新手段的学习。

人工智能的伦理安全,对于人工智能创新者不是一个选修课,而是一个必修课。

七:数字生命距离我们还有多远?

人工智能技术的进展,并不一定能加速数字生命尽早到来。它们是两种类型的智能,人工智能是使机器拟人化,数字生命是使人类机械化。

未来的人工智能也可能变得有生命,但是它就像一个新生儿,用自己的方式去观察世界,像前文说到的以智能体的方式去探索世界;而数字生命是人类智能的一个刻画、模拟和延续。

人类十几年、几十年的记忆存储在我们大脑神经网络的突触当中,若想把突触当中的每一个记忆解码出来,并且构建在一个智能系统当中,目前在科学上还做不到。但是不代表未来不可能。

所以像《流浪地球2》里面的场景,数字的图恒宇和图丫丫,在数字世界重建了他们的生命,这确实是未来人类一部分人延续的一种可能性。但是它现在还并不具备科学的完全的合理性。

但是,若构造一个数字生命,可能人类的缺陷也被构造在了系统中,而且这种缺陷可能会被放大。但是,另一种智能形式——纯人工智能,即基于机器,使机器拟人化发展出来的智能,我们在构造它的时候,并非真正的大脑仿真,我们现在把它叫做类脑的人工智能,是脑启发的人工智能。

它跟大脑仿真的区别是,我们希望看到的人类的恶,不要被构造在里面,尽量只保留人类善的一面。

当然,这也是一种科学的愿景,因为存在即合理。在我们看来人类自私的一面,人类的恶,它可能是在自然演化的过程中被留下来的。但为什么被留下来?只有大自然知道。它可能是生存的一种机制,甚至是一种优势。

构造超级智能 究竟要不要剔除人类的恶?

所以,未来超级智能实现的方式是多种多样的。可能最先到来的是融合了人类的智慧,辅以人工智能的技术而产生的具有超级决策能力的超级智能体。

但是在我看来它不是真正意义的超级智能,真正意义的超级智能是,智能本身不依赖于人类的智慧,而是受到人类智慧的启发。比如,基于机器的纯人工智能;或者数字生命,它已经脱离了人类生物的个体,而以一种纯机器优化的方式去运行,这种意义的超级智能可能是更纯粹的超级智能,当然可能也是风险最大的超级智能。

作为一个人工智能的研究者,我并不那么期待成为一个真正意义的数字人。而且我相信对于很多人来说,比如我的寿命就只有90岁,他可能真的非常甘于我的寿命只有90岁。而且,数字世界可能是未知的。如果未来我们的生命停留在数字世界,甚至可能它的存在与否就取决于别人了。

在现实生活中,我们还可以自己做决策。生活在数字世界中,可能更容易被算法干扰,如果别人修改了自己的大脑连接模式,在数字世界当中,我还是不是自己?可能存在这种风险。

但是,从另一个角度来说,未来现实世界中,会不会存在人工智能生命?若存在,人类能不能接受?

八、当超级智能看待人类

像人类看待蚂蚁

你能接受吗?

未来人类很可能不再是这个世界上智慧水平最高的物种,但是我们能不能够接受这个现实?我们应该做何准备?

当超级智能看待人类 如人类现在看待蚂蚁一样 你能接受吗?

某种程度上来说,现代意义的人类是以种族灭绝的形式,在毁灭了最接近人类的物种的基础上,繁衍出来的现代人类社会。所以从这个意义上来说,真正的人类社会,在历史上其实已经做过一次抉择——人类是不能够接受的。

但我希望未来的人类,能够做好准备。在我看来,未来通用智能、超级智能到来的时候,智能水平可能会远远超越人类。未来,超级智能看到人类,可能就像今天的人类看到蚂蚁一样。蚂蚁其实很有智慧,甚至有社会智能。曾经有神经生物学家说过,蚂蚁社会合作的模式,是人类社会合作的典范。但是即便在这种认知的情况下,人类又是如何去对待蚂蚁这样的智能生命的存在的?

世界上人和蚂蚁的比例是1:100万。但是我们是如何去忽略这样庞大的生命群体的存在的?更何况不只是蚂蚁,我们又是如何对待猴子、黑猩猩的?

所以,当超级智能看待人类,如人类现在看待蚂蚁一样,我们凭什么说超级智能应当给人类留有生存的空间?

而且,如果它是真正的超级智能,它也有可能是超级利他的、道德的。所以,对于超级智能实现超级利他,我很有信心。但是对于人类能否准备好,接受超越人类智慧水平的另外一类生命的产生,我很没信心。

因为真正道德的产生对于一个人工智能来讲,只要它学到人类产生自我的意识,能够区分自我和他人,产生认知和情感的共情,在这个基础之上产生道德的直觉,进而产生利他、道德的推理,它就有可能实现超级利他。

但是我问了很多朋友,我的学生、我的同事等,很多人是非常难接受这个社会当中存在智能水平远远超过人类的智能体的存在的。所以,现在超级智能的演化是在不断加速的,但是人类观念、思想的进化速度远远赶不上超级智能进化的速度。

最终人类和人工智能是不是能够和谐共生,我觉得不在于超级智能,很可能在于人类本身。如果人类自己要作,最终结果非常难说。

所以,人类需要变革。

人类要给其它的生命留有余地。

网易财经智库(微信公号:wyyjj163) 出品

网易财经智库是网易新闻打造的财经专业智库,整合网易财经原创多媒体矩阵,依托于上百位国内外顶尖经济学家的智慧成果,针对经济学热点话题,进行理性、客观的分析解读,打造有态度的前沿财经智库。欢迎来稿(投稿邮箱:cehuazu2016@163.com)。