打开网易新闻 查看更多图片

作者|闫如意 王动

编辑|米利暗

生活在2023年的感受,就是每天都要看着这个世界被颠覆(或疑似被颠覆)一次。

前一段时间,ChatGPT的横空出世,已经引发了一次编辑部的职业危机:

ChatGPT火了,我工作快没了

一个多月过去了,我的工作还在,但是ChatGPT又进化了。
昨晚,OpenAI召开了一场线上发布会,公布了全新的人工智能模型GPT-4。
前一段时间爆火的ChatGPT,就是基于GPT-4的前身GPT-3(后来升级为GPT-3.5)发展来的。

发布会上说,GPT-4的重大提升是他变成了一个多模态模型。简单来说,GPT-3只认字,但是GPT-4能听声音,还能看懂图片、视频了。

这个“看懂”,可不是一般的看懂。

发布会上,开发者在纸上手绘了一张草图,然后拍下来发给了GPT-4,后者马上认出,这是一张网站原型图:

打开网易新闻 查看更多图片

然后噼里啪啦地写了一串代码,给出了实现结果:

短短10秒,一个网站就做好了。

世界上最难搞懂的问题就是老板和甲方究竟在想什么,在这方面,AI好像已经比我强了 。

不过,这张草图里面包含的所有信息也不过只是文字而已,在精细图片的识别上,GPT-4展现出了真正的实力。

最离谱的是,AI甚至能看懂梗图了。

开发者拿reddit论坛上的梗图去问GPT-4,后者还一本正经地给出了解答。

打开网易新闻 查看更多图片

〓 这张图的笑点在哪?求解释

由于这个笑话过于古早,本编辑部至少一半的人表示没看懂,而GPT-4则表示,根本难不倒他:

世界上最尴尬的事情就是讲完笑话没人笑,比这更尴尬的是把笑话再解释一遍。

虽然有点尬,但GPT-4的幽默感毕竟还是有所提升:

讲讲段子只是副业,GPT-4的真正使用场景,是帮助人类解决复杂问题。

根据OpenAI的说法,GPT-4在这方面有了突飞猛进的变化。

怎么证明?

做题。

在ChatGPT第一波火起来的时候,就有人尝试过让他挑战高考试题了。

比如,博主@李永乐老师 曾经用高考北京卷考察ChatGPT的实力,最终得分是511分,比本科分数线高了近100分。

这个分数已经超过了新疆大学在北京的录取分数线,也就是说ChatGPT已经拥有211实力(虽然是分数最低的211)。

但是,和今天发布会上GPT-4展现的实力相比,GPT-3就是一个学渣。

在过去的几个月里,GPT-4刷爆了人类社会各个领域的考试:

在满分170分的GRE数学考试中,GPT-4怒砍163分;

满分170分的英文考试中,GPT-4差点满分(169分);

在美国律师资格考试Uniform Bar Exam、法学院入学考试LSAT中都进入前10%

……

打开网易新闻 查看更多图片

GPT-4的各项成绩,已经达到了哈佛、斯坦福这样的顶尖高校的水平。

他甚至已经能够给人类做老师了。

《纽约时报》的记者尝试让AI批改自己提炼的文章摘要,被无情地指出了文字错误:

在推特上,有人利用它在一分钟内就重新写出了《打砖块》、《贪吃蛇》、《俄罗斯方块》等经典游戏:

〓 GPT-4复现了经典游戏《贪吃蛇》

今天,几乎与GPT-4同步,Google 开放了旗下人工智能PaLM的 API,Anthropic则发布了名为Claude的聊天机器人;

明天,百度将在北京召开发布会,展示旗下人工智能“文心一言”,微软也将召开发布会,展示“与AI一同工作的未来”

……

不管你支持抑或反对 ,AI时代已经滚滚而来了。

从我们一本正经地讨论“AI会不会取代人类”到失业,可能只有一场发布会的距离。

〓 图源:微博用户@创作者DC

很多人第一次认识人工智能还是AlphaGo,回想起来,李世石、柯洁与AlphaGo的对弈,也才过去不到5年。

对弈之后,李世石选择隐退,柯洁则开始放飞自我,比起一个围棋棋手,他目前更为人熟知的身份是b站主播、饭店老板。

很多人说,现在好像有点理解他们了。

AI不仅仅是在算力上碾压了人类 ,更重要的是,你根本不知道它怎么做到的……
这种感觉让人有点绝望。
而且,这还只是一个开始。

AI变强了,工作怎么更卷了?

AI的几近恐怖的进步,让各行各业人人自危:我的工作是不是很快就被AI取代了?

乐观的人认为,根本不用担心,AI只不过将带给我们更便利更高效的工具,以便让人类进入更美好的生活。

但现实或许有点残酷

——AI越来越强大了,可人们不仅没被解放,反而更卷了。

ChatGPT的训练历程,便是一个明证。

BBC曾经报道过ChatGPT的运作方式。在完成模型搭建,数据库导入等一系列操作后,团队会对AI进行监督测试。

第一阶段是纠错,工作人员提出已有预设答案的问题,如果AI回答错误,团队就会进行纠正,帮助AI纠错、积累正确知识。

第二阶段,工作人员开始对AI的回答进行打分、排序,AI提供多个答案,团队成员将答案打分,从最好到最差进行排名,教会AI如何比较优劣。

听起来是不是很熟悉?这像极了将一个懵懂无知的婴儿教育长大的过程。

但任务远比想象中更加枯燥和繁重。

ChatGPT的数据库里,有570GB、约3000亿字的数据,这一方面使得ChatGPT前所未有的强大,另一方面,也意味着巨大的工作量。

打造一个人工智能,背后需要无数人的“喂养”。

〓 图片来源:时代周刊

互联网上的语言,充斥着暴力、色情、歧视等有害信息,要剔除这部分信息,就要靠人力来给相关内容打上标签,供AI识别。

据美国时代周刊报道,OpenAI公司在2021年年底,与肯尼亚一家公司签订了三份总价值约20万美元的合同,为性虐待、仇恨言论以及暴力内容添加标签。

肯尼亚员工们被分成三组,每组负责一个主题,大约每9小时轮一班,要阅读和标记150-250段文本,每段100-1000字不等。

这些文本似乎是从互联网最阴暗的角落提取的,其中不少用极其生动的语言描述了性虐待、酷刑等内容。

很多员工都出现了精神创伤。

大量的负面内容扑面而来,精神打击和窒息感可以想象。

时代周刊采访的一位员工称,他在阅读了一名男子在幼儿在场的情况下与狗发生了性关系的图形描述后,反复出现幻觉,饱受折磨,最终提前辞职,结束了工作。

而他们从这份工作中得到的,是每小时最高仅2美元(约13.77元人民币)的时薪。

过去人们有一种信念,科技发展会把人类从繁重的体力劳动中解放出来,从事更有创造力的工作,现在来看AI的创造力比我们强多了,留给我们的好像只剩体力工作了。
也就是说,所谓「人工智能」就是我们负责人工,AI负责智能。
毕竟,像人类这样,只需要2000大卡的热量就能打工一整天的机器,还没发明出来。

别丧气,人类至少还剩一种工作

单纯学习技术似乎成了一种无用功,人类苦学两年python、手绘,也许还不如机器2秒钟给出的东西精巧。于是人类又将转而学习如何使用AI。

把AI用得好,也是个技术活。

比如你想画一副风景画,你不能只说你想要一副风景画。

你得给出各种提示词,用AI喜欢的语言告诉它:我要一副现实主义的风景照,有树木、草地、河流,史诗构图,极其详细,超质量,杰作

其中最后几个关键词,看起来跟画面本身无关,是很多人尝试出来的,能出高质量图片的高效词汇。

社交平台上已经有很多账号钻研,如何才能写出更能让AI准确理解的提示词。

人们努力理解AI的思维逻辑,通过一次次尝试,知道给出的关键词会得到什么样的反馈。要绞尽脑汁找到那个最精确的,AI最能理解的关键词,才能得到最精妙的结果。

人们后来给了这个工作一个职业称呼:提示工程师(Prompt engineer)。

如果AI是全能全知的神,那么提示工程师就是赛博时代的通灵萨满。

当越来越多的人开始为了搞懂AI绞尽脑汁时,一个问题的答案就变得越来越模糊:

到底是AI服务于人还是人服务于AI?

《人类简史》中曾经提出过观点,说农业革命是史上最大的骗局。人类自以为驯化了植物,实际上是植物驯化了人类

——农民想尽办法培育、花大量时间和劳动力浇灌,做人的身体本不擅长的农业劳作,累出一身病,研究发现人类到农业时代后出现了大量疾病,例如椎间盘突出和关节炎,比采集时代辛苦得多。

可最终,却是帮助植物一代代繁衍,并占领越来越多的土地。

一万多年前的小麦和水稻如此,今天的AI也是如此。

如果按照这个逻辑推论,那也许就像刘慈欣指出的:

AI对人类的控制,现在就已经悄悄开始了。

参考文献:

1. BBC. ChatGPT: Everything you need to know about OpenAI's GPT-3 tool[EB/OL]. [2023.3.15]. https://www.sciencefocus.com/future-technology/gpt-3/.

2. TIMES. Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic[EB/OL]. [2023.3.15]. https://time.com/6247678/openai-chatgpt-kenya-workers/.

3. 尤瓦尔·赫拉利. 人类简史:从动物到上帝[M]. 2014年11月第1版. 中信出版社, 2014 :P79-81.

4. IDG资本. IDG资本首席畅想官刘慈欣:人类移民,仅仅因为“太空在那里”[EB/OL]. [2023.3.15]. https://mp.weixin.qq.com/s/32T4__nJNECXB2xxuM8c8w.