最近,正在进行的OpenAI12天发布会引发了无数人的关注与兴奋。
o1模型的正式发布、视频生成模型Sora的全面开放,还有专为写作和编码项目设计的Canvas......每天一场的简短发布会,引起了大量的热议。
OpenAI官网上Sora的部分展示
人工智能,未来已来。
关于这个新新世界,人们充满无限的期待,但也难免会有不少担忧。
著名作家熊培云在最新出版的新书《人的消逝》中,就关于OpenAI给出了自己的谨慎思考和尖锐警示。
本文选自《人的消逝》一书
《人工智能与奴隶崇拜》章节
文 | 熊培云
平庸之恶
回望我出生的20世纪70年代,家里的动力是水牛,被养在离家不远的牛栏里。牛的能源是草。而站在今天眺望20年后的未来生活,在我的家里一定会有机器人,而2045年被无数预言者定为“奇点”。在这一年,机器人不仅迎来了觉醒,而且机器大脑将超越人类大脑,成为地球上的主宰。
短短几十年间,我仿佛经历了一部人类简史。在此期间,有一些年份与事件特别值得记住,如1997年“深蓝”力克国际象棋世界冠军卡斯帕罗夫;又如2022年OpenAI发布了一款聊天机器人程序ChatGPT,一石激起千层浪。
在许多人表现出恐惧的时候,人类优秀的头脑表现出来的更多是不屑,或者说是傲慢。他们认为人类的大脑具有非凡的创造性,而ChatGPT等人工智能像是一个笨重而粗暴的赝品。著名语言学家、哲学家诺姆·乔姆斯基在《纽约时报》发表了题为“ChatGPT的虚假承诺”的文章。乔姆斯基强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。乔姆斯基认为所有这些看似复杂的思想和语言,都是由非智能产生的道德冷漠。在这里,ChatGPT表现出某种类似(汉娜·阿伦特所批评的)的“平庸之恶”,充斥着剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场。它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推卸给它的创造者。
与此同时,盲目相信ChatGPT的智能与权威,完全用它的回答代替自己专业性和更具针对性的搜索,不啻为以机器的判断代替自己的判断,在某种意义上说,这也是一种对人的背叛。有一幅流传甚广的漫画,画的是人类正沉迷手机,而机器却在学习。
未来的某一刻,机器人在学习,人类在玩手机。作者 AI 绘制
合成数据与哈布斯堡幽灵
相较于诺姆·乔姆斯基所谴责的“平庸之恶”,人工智能专家兼创业者加里·马库斯则认为,如今被硅谷热炒的所谓通用人工智能充其量只是一种“Rough Draft AI”(粗略的AI草稿),矛头同样指向AI的抄袭,还有数据合成。
虽然大语言模型看起来很聪明,但是不能检查自己的工作,也不能创造。马库斯至少有一点是对的,那就是人工智能对于人类的价值在于解决问题,而不是制造问题。其在道德上不会为自己的错误担负任何责任。从技术上说,今天的人工智能是不稳定的,在现实中没有锚,诸如虚假信息、市场操作、诽谤、深度造假、偏见歧视、隐私数据泄露、知识产权侵犯等都会带来现实风险。就最后一点而言,ChatGPT简直就是无法无天盗取他人创造成果的专家,而且往往做得天衣无缝。更别说过度依赖这样不可靠的系统,甚至将AI工具放到武器系统或者电网之中了。
多年来,谷歌等大公司一直从互联网上抓取数据,用于训练支撑、喂养其所谓的大型语言模型(英文LargeLanguageModel,缩写LLM)。自从有了互联网,人类几千年来的知识与思考成果以及最新的文本、图像与视频都变成了这些庞然大物的草料。对此,OpenAI的首席执行官萨姆·阿尔特曼曾表示,AI大模型最终应该能够生成足够高质量的合成数据,以有效地自我训练。然而LLM生成的合成数据备受指责,包括在此模式下人类数据的枯竭……
与人类的创造性形成鲜明对比的是,合成数据并不进行推理。当人类大量运用合成数据,最后的结果是低质量信息带来“自我中毒”。从表面上看,数据的近亲繁殖会带来短暂的虚假繁荣,但最终可能导致该模型的崩溃,就像哈布斯堡王朝因近亲繁殖导致自我毁灭一样。不得不说,这个家族虽然权倾一时,但回望历史,它留给这个世界的是一张张鞋拔子脸。
那些合成数据并非创造性的,就像把两本《辞海》相加,它并不真正地生产有用的知识。现在的问题是,合成数据占多少比例才不至于让人类收获灭顶之灾?人类如何才能拥有更加健康的“数据混血儿”?
奴隶崇拜。作者 AI 绘制
随机鹦鹉
相关论文提到LLM已经具有了思维链条(Chain of Thought)和自发性地结构涌现(Emergence)。换言之,LLM开始学会了人类“慢思考”的思维模式,可以基于逻辑推理而非简单的直觉来回答问题。
不过反对的声音同样接踵而至。华盛顿大学语言学家艾米丽·本德等人在2021年发表论文,指出大语言模型并不理解现实世界,它实际上只相当于一个“随机鹦鹉”(stochastic parrot)。随后具有歧视意味的“随机鹦鹉”被广泛引用,并获美国方言学会选2023年年度AI词语,胜过“ChatGPT”和“LLM”。与我们观察其输出时的情况相反,LLM只是将其在庞大的训练数据中观察到的语素胡乱拼接在一起,根据概率生成文本,但不清楚文字背后的任何含义。相较部分人文学者的嗤之以鼻,同为“AI之父”的杨立昆和杰夫里·辛顿的意见也是大相径庭。前者认为说LLM是随机鹦鹉是对鹦鹉的侮辱,后者则认为LLM能理解人类的语言。更折中的观点是LLM有时像随机鹦鹉,有时也能理解人类的语言。而辛顿的悲观在于,他相信人类将失去对拥有高智商的AI的控制,为此他成为末日预言者。
尽管到目前为止LLM可能并不聪明,本德还是公开反对让大模型过度介入人们的生活。作为一名语言学家,本德注意到了大模型“权力扩张”的危险性。
其实核武器本身也不聪明,连随机鹦鹉都不是,但这并不妨碍它在特定情况下毁灭地球上的所有生灵。如果森林里全是鹦鹉,无论它是否随机或者聪明,至少也将是一场生态灾难。当LLM无处不在时,它就不只是是否聪明的问题了。
有一点可以确定,即使现在LLM是愚蠢的,人们尽可以嘲笑它,但是这种现状并不能决定将来,否则就只是站在盒子里讨论盒子。当时间到了,数字心灵(digital mind)的涌现可能也就是一秒钟的事。
从OpenAI到CloseAI
ChatGPT本意为Chat Generative Pre-trained Transformer,它不仅可以做到真正像人类一样交流,甚至能完成高质量的学术论文。一经发布,立即引起世界广泛关注,甚至有“狼终于来了”的恐惧。而ChatGPT首先冲击的是学校,一项调查显示,截至2023年1月,美国89%的大学生都是用ChatGPT做作业。随后百度公司也推出了文心一言,而中国大陆地区的ChatGPT被限制使用。因为巨额投入与商业化应用不力,2024年有消息传出OpenAI可能会在该年底破产。
在ChatGPT大行其道的同时,作为OpenAI曾经的发起人之一,马斯克始终对今天的OpenAI给予尖锐的批评。2024年,马斯克向旧金山高等法院起诉了OpenAI及其CEO山姆·阿尔特曼,因为阿尔特曼和OpenAI违背了这家研究公司成立时达成的一项协议——开发技术造福人类,而非为了利润。2023年3月发布的ChatGPT,标志着与OpenAI原则的重大背离。GPT-4是一个闭源模型,这违反了开源精神,此举是出于商业目的,而非人类利益。此后,马斯克还在X平台上戏谑发文,建议OpenAI改名成CloseAI,这样他就撤销起诉。
无论OpenAI公司将来如何发展,是倒闭还是继续扩张,有一点是可以肯定的——伴随着ChatGPT的惊艳登场,以及世界各大公司趋之若鹜的大规模研发,一个人工智能被打开(OPENAI)的时代再也不会关上了。ChatGPT的到来同样带来一些文化上的改变,有意思的是,2023年一个日本的程序员通过ChatGPT训练出了一个AI佛祖hotoke.ai,用着AI的标准式废话解决年轻人的困惑。
对于ChatGPT的到来,我并不像许多人表现的那么恐慌,甚至在很大程度上,我认为就目前版本的功能而言它还只是平庸之作。ChatGPT还不至于对有创造力的人构成挑战。但是不可否认的是,与AI共生的日子已经越来越近了。或许一切只是像科幻作家威廉·吉布森所说的那样,“未来已来,只是分布不均”。
当海浪停下来
1966年,约瑟夫·维森鲍姆创造了第一个聊天机器人ELIZA。这是一款能够和人流畅对话、开解苦闷的人工智能。维森鲍姆用200行代码写出ELIZA聊天机器人,原本只是为了证明机器人的肤浅。虽然看起来像是人机在对话,但实际上ELIZA对人类情感一无所知,它只能向对话者重复一些无聊的会话。出人意料的是,ELIZA在当时引起轩然大波。
甚至可以说,它在当时业内引起的轰动并不亚于今天的OpenAI,然而,就在人们就此狂热地讨论人机如何协作、人会不会被机器人取代时,维森鲍姆为自己的发明永久地按下了停止键。简单地说,他看到这种狂热背后的危险。
据说之后的大部分时间里,维森鲍姆都为自己开发的聊天机器人感到后悔。耐人寻味的是,如果人工智能是一个潘多拉魔盒,即便第一个有能力打开它的人中途放弃了,总还会有其他人来打开。这种状况就像是冥冥中有某种人类的进程。而且从功能上看,最初作为聊天程序出现的ChatGPT比几十年前的ELIZA不知强大了多少倍。
随后维森鲍姆带着特有的人文理想主义潜心著书立说,在《计算机能力与人类理性》(Computer Power and Human Reason)一书中写道,这项技术引发的问题,“基本上是关于人类在宇宙中的位置问题”。维森鲍姆回顾了人类迷上甚至崇拜工具理性的过程,当人类发明的机器越多,人类就越发退化为一个对世界只会袖手旁观的种群。自从发明了钟表,人类远离了自然的时间,终日臣服于人造的、可量度的、理性的时间。而且维森鲍姆甚至在鲍曼之前在技术至上与纳粹主义之间找到了隐秘的联系,即技术让人放弃自我,而这正是极权主义的起点。此外,按维森鲍姆的理解,人与人工智能毕竟是两个物种,后者没有每个人类婴儿都必须经过的“走出伊甸园”的社会化过程。
在另一本书中,维森鲍姆指出人类对科学和技术的冒险已经把我们带到自我毁灭的边缘。就像温水煮青蛙,科技不但给许多人带来了前所未有的舒适,甚至还有梦寐以求的自我实现……
有类似想法的还有杰夫里·辛顿,作为“AI之父”之一,他自20世纪80年代就沉迷于计算机网络神经的研发,并获图灵奖。他培养的其中一位学生还创办了OpenAI。辛顿担心的是有朝一日AI变成杀人机器,甚至操纵核武器。然而当辛顿表现出某种悔意时,他所面临的困境是一样的。人类在科技方面的激情就像奔腾不息的大海,即便有一部分海浪留在了沙滩上,这并不影响下一拨海浪继续卷地而来。
《人的消逝:
从原子弹、互联网到人工智能》
作者 :熊培云
当当购书链接
博库购书链接
文轩购书链接
编辑推荐
人工智能正在打开潘多拉魔盒。事实上,每一次划时代的技术浪潮,都粘满了“盲目乐观”的羽毛。原子弹虽然结束了二战,但也形成了对人类存在的巨大威胁;互联网虽然极大地拓展了人类的生活边界,但越来越多的人反而经历着时空坍缩;人工智能虽然使得机器变得越来越人类友好,但人类反而像是沦为了机器的附庸……
本书中,熊培云以原子弹为思绪的起点,进而延展到互联网构建的新型文明,及至近年来欣欣向荣的人工智能,系统、广阔地分享了自己近年来的思考。试图在科技一往无前的当下,唤醒“人何以为人”的意识;唯愿科技与人文,各执半轮明月。
▲点击图片入手限量-新书+书签
(▲书签细节)
熊培云
熊培云,1973 年生于江西永修,毕业于南开大学、巴黎大学,主修历史学、法学、传播学与文学。曾任《南风窗》驻欧洲记者,《新京报》首席评论员。香港大学、东京大学、牛津大学访问学者,“理想国译丛”创始主编委员之一。现执教于南开大学。
↓ 点击名片,关注浙江人民出版社↓