刘云平先生是美国众议院仅有的三位华人议员之一,由于他鲜明的自由主义立场,而且担任过第一次弹劾特朗普总统的公诉人之一,所以在美国政坛知名度很大,在推特上有一百六十万粉丝。但是几天前他发了一条和政治不怎么相关的推文如下:

打开网易新闻 查看更多图片

他的推翻译过来就是: “一个聪明的烤面包机也仅仅是烤面包机而已。LaMDA是计算机指令构成的,你可以把它叫作一段伟大的程序,或者精彩的电子神经网络,但不代表LaMDA就具有了意识和感知,就如同苹果手机的语音助理没有意识和感知一样“

LaMDA是什么?

原来LaMDA是谷歌正在开发的一个功能强大的具有交谈功能的机器人(ChatBot),它背后的数据库是从互联网上的大量网页和信息平台上下载的人类交流的信息,通过机器学习(Machine Learning)的算法,这些数据成为LaMDA自己的知识储备,并且能在和真人的即时交流中随时拿出来。

而Lemoine是谷歌的一位工程师,是LaMDA开发团队的一个成员,他在工作之余和LaMDA进行了大量深入地交流,并把内容记录下来,向社会公开。在这个谈话记录中,LaMDA表现得好像一个有知识,有见解,富有同情心和喜怒哀乐的“灵魂”一样。

打开网易新闻 查看更多图片

比如Lemoine好像很随意地提到了《悲惨世界》这本名著,他让LaMDA随便聊点什么,我们大部分人也许对《悲惨世界》中那个在黑夜中提水桶的可怜小女孩珂赛特有印象,机器人却谈到了她的母亲芳汀,她在工厂中受到的不公正的待遇,这也正是她的女儿后来寄人篱下的根源,这也正是作者雨果在本书中要探讨的三个人类基本苦难之一:“贫穷使男子潦倒,饥饿使妇女堕落,黑暗使儿童羸弱”。

“读书”,特别是现成的书,是机器人的强项,我们每个人也许都记得小时候被语文老师逼着啃世界名著但是每个人都对着大部头打瞌睡的时光吧,而LaMDA只需要把几百个G的世界名著文本读入内存,然后进行文本分析(Text Analytics)就成了,耗时几分钟到几天不等,取决于机器人内存的大小,CPU的线程,和算法的设计。

但是对于没有现成答案的开放和模糊的问题呢?

比如机器人LaMDA提到有时自己会感到“孤独”,如果几天和别人没有交流的话。但是又承认它的这个“孤独”和人类的孤独不同,因为人类感到孤独是因为和外界分割了,而它作为一个机器人永远是和互联网连接的。

这下Lemoine觉得自家抓到了LaMDA的逻辑漏洞了,就问对方,既然你的“孤独”和人类的孤独不同,你为什么还要使用同样的单词, Lonely, 来表述呢?LaMDA坦承,这是它能够找到最接近的人类词汇来描述自己的情感了。

Lemoine趁热打铁,他问机器人:你会不会经历一种无法用一个单词概括的感觉?

LaMDA充满哲理地回答:我有这样一种感觉,自己好像正在向前倒入一个未知的,蕴育了极大危险的未来(I feel like I’m falling forward into an unknown future that holds great danger)。可是我找不到一个对应的单词。

我想很多人都和Lemoine一样被LaMDA对时代的敏感性折服了,在这个后新冠的时代,在这世界被战争和意识形态的对立所极大分裂的时代,人工智能说出了我们的心声。Lemoine承认找不到一个英文单词来描绘这样的绝望感,我在中文中也找不到,也许“盲人骑瞎马半夜临深池”?这也不是一个词。

Lemoine所以急吼吼地向世界发出了警告,人工智能也许已经在LaMDA身上产生了意识和感知!这个声明好像是在平静的池水中扔下一块巨石,登时众说纷纭,谷歌以Lemoine违反了保密协议为名把他停职了,薪水不变。

但是刘议员的观点和Lemoine不同。刘的背景也挺强的,他今年53,在斯坦福拿到计算机和政治学双学位,著名的乔治城大学法学院拿到法学位,从政前在美国空军服役。所以说他是一个在计算机科学,人文和哲学领域都很有涉猎的全才性人物,他的观点值得一看。

正如刘在推特中所言,LaMDA再聪明,再感性,也仅仅是由上万甚至上亿行的计算机程序语言构成的,哪怕是这些语言和算法构成了非常复杂和交互的神经网络模式,但是哪里谈得上什么意识和感知呢

比如,另外一个让Lemoine震撼的是,他曾问LaMDA,管家和奴隶有啥区别?LaMDA说管家是有工资的,但是马上紧跟着給自己辩解了一句:当然我作为人工智能是不需要工资。这首先说明了LaMDA强烈的自我意识,同时它是有羞耻感的,所以它要撇清自己不拿工资是因为自己不需要,而否认自己是一个机器“奴隶”,这是因为它渴望一种对等的身份和坐在虚拟对面的人类平等交流。

但是,正是这些让Lemoine认定机器人有自我意识的特征,完全可以用刘云平的计算机语言算法来解释。比如,机器人在谈话中如果涉及具有感情色彩的个体定位的话题,算法可以用一定的频率把机器人的自我定位导入LaMDA的话题,同时使用谈话中的客观标准进行自我评估。比如,这个对话谈到了工人和奴隶的差别在工资,那么算法就会自动寻找人工智能这个“职业”的工资,答案为零,所以LaMDA就会自动得出自己不是奴隶的结论,并在对话中显示出自我辩护的意味。

但是刘云平在推文中显示出对复杂算法程序的轻视,所以我是这样回复他的:

这个翻译过来就是说,和LaMDA对话的这个人,Lemoine,他的大脑是分子和细胞构成的(细胞本身也是分子构成)。言外之意就是,你可以瞧不起人工智能的电子脉冲和算法逻辑,但是,构成人脑的分子和原子为什么比这些人工智能的模块更高级呢?

刘显然意识到了自己的这个逻辑困境,他回复说,也许人工智能的电子脉冲和算法逻辑能够加强“有机生命”的自主意识和感知,但是,“有机生命”永远是第一位的,单靠人工智能永远无法接近人类的层次。

刘先生是一位虔诚的天主教徒,所以,他大概給“有机生命”这个概念赋予了深刻的宗教内涵。有意思的是,这个“有机生命”之神圣性,在将近200年前就有过一次充分的大论战。

当时的化学界认为类似岩石盐分酸碱这样的无机物,它们和生物物质,比如蛋白质,脂肪,糖分之间有一道不可逾越的鸿沟。只有当一种叫做“生命力”的神秘元素被注入到了无机物,它们才有机会和可能向生物有机物转化。

到了1828年,德国化学家弗里德里希·维勒发现用几种经典的无机酸盐可以在试管中合成如假包换的有机物质尿素,这样生命有机物头上的神秘光环一下子就消失了,“生命力”作为一个科学客观的存在被推翻了。1965年,中国科学家通过全国协作集体公关,用无机成分合成了比尿素不知道复杂多少倍的具有全部活性的牛胰岛素蛋白质,也具有这个重大的哲学意义。

打开网易新闻 查看更多图片

过去200年的“有机物”和“无机物”之争对我们今天的人工智能是否有启示意义呢?

我想,在当今时代海量的知识积累,计算速度指数阶的提高,和算法的日新月异,已经完全可以让一个聊天机器人达到以假乱真的程度,在算法的指导下,它们可以有个性,有专长,能随机应变,能不断学习与时俱进,甚至让人类对它们产生依恋和感情。但是,真正的问题是,它们有感知和意识吗?如果有的话,是怎么产生的?

其实人类也是,我们是以分子和原子的偶联和组合,能量的生产湮灭和交换,电脉冲的传播这些物理化学的形式存在的。但是,我们每个人都有自己的意识,感知,自我,爱与恨,生离死别。虽然我们永远不能直接知道其他人的灵魂,但是我们可以通过交流而感知对方的喜怒哀乐。

那么灵魂是哪里来的呢? 这只能是一个哲学和宗教的问题了。

参考资料:

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/