打开网易新闻 查看更多图片
智东西编译 风衣编辑 Panken

智东西1月2日消息,近日,《福布斯》做出了2025年AI发展的十大预测。

AI模型开发方面:
其一,Scaling laws会被广泛应用于机器人技术和生物学领域(二);
其二,AI语音模型通过图灵测试,可以在对话中冒充人类(六);
其三,AI实现自主迭代,自行研发新AI,完成从观点、实验、论文、评审的全过程(七);

AI应用开发方面:
其一,Meta将对企业使用Llama收费(一);
其二,AI web agent应用将大杀四方,代替消费者完成线上事务(四);
其三,重要的AI研发机构,如OpenAI,将从开发基础模型转向开发应用,在AI商业化中分一杯羹(八);

其他预测:
其一、特朗普和马斯克将分道扬镳,这将对OpenAI、xAI的发展以及AI安全政策造成影响(三);
其二,将有一批企业尝试在太空中建立AI数据中心,试图解决AI发展的能源限制(五);
其三,至少在美国五个大城市中,无人驾驶出租车会占据网约车两位数的市场份额(九);
其四,AI做出不符合人类意图的行为,AI安全事件引发人机关系再思考(十)。

一、Meta将开始对Llama模型收费

Meta是全球开源AI的领军者。在企业战略方面,Meta提供的Llama模型免费开放,而像OpenAI和Google的前沿模型都是闭源、付费的。相较之下,Meta的策略是一个非常有趣的研究案例。因此,如果明年Meta开始对公司使用Llama收费,很多人都会很惊讶。

需要明确的是,这并不是说Meta会让Llama完全闭源,也不是说所有使用Llama模型的人都必须为此付费。相反,预计Meta会进一步严格Llama的开源许可条款,让那些出于商业目的、大规模使用Llama的公司需要付费才能访问Llama模型。

从实操来看,Meta现在已经在做类似的事情,它目前不允许一些超大型公司自由使用Llama模型,比如云计算巨头和其他拥有超过7亿月活跃用户的公司。

在2023年,Meta的CEO马克·扎克伯格曾说过:“如果你是像微软、亚马逊或谷歌这样的公司,并且基本上就是要转售Llama,那我们认为Meta应该从中获得一部分收入。在我看来,这在短期内并不会带来大量收入,但从长期来看,这种方式有可能成为Meta的收入来源之一。”

明年,Meta将大幅扩大要为Llama付费的公司范围,涵盖更多的大型和中型企业。

为什么Meta会做出这样的战略转变?因为在激烈的竞争中,想要将大语言模型保持在发展前沿,成本非常高。如果Meta希望Llama与OpenAI、Anthropic等公司最新前沿模型保持在一个水平,那每年需要投入数十亿美元。

虽然Meta是全球最大、最有财力的公司之一,但它同时也是一家上市公司,最终还是要对股东负责。随着发展AI模型的成本飞涨,Meta若不从中获得收益,将很难继续承担如此巨额的开支来训练下一代Llama模型。

业余爱好者、学者、个人开发者和初创公司明年仍然可以免费使用Llama模型。但是,2025年将是Meta认真开始通过Llama实现盈利的一年。

二、Scaling laws将被进一步应用于大语言模型之外的领域,特别是在机器人技术和生物学领域

最近几周,AI领域讨论最多的话题之一就是Scaling laws,以及这一定律是否正在失效

Scaling laws最早于2020年在OpenAI的论文中被提出,其基本概念非常简单:在训练AI模型时,随着模型参数数量、训练数据量和计算量的增加,模型的表现(严格地说,是测试损失(test loss)的减少)会以一种可靠且可预测的方式得到改善。Scaling laws是从GPT-2到GPT-3再到GPT-4的表现飞跃的根本原因。

与摩尔定律(Moore’s Law)类似,Scaling laws并不是真实的自然法则,而只是经验性的观察。在过去一个月当中,一系列报道表明,目前主要的AI研发机构在继续扩展大语言模型时,正面临着回报递减的现象。这也可以解释为什么OpenAI的GPT-5发布不断推迟。

对于Scaling laws的回报趋于平缓这一现象,最常见反对观点是:将测试时计算(test-time compute,指大语言模型生成响应时使用的计算资源)引入模型测试这一做法开辟了一个全新的维度。也就是说,相较于前代模型完全依靠在预训练中扩大模型参数量来改善表现,像OpenAI的o3这样的新推理模型能在推理过程中进行计算,推理计算量的扩大可以让AI模型通过“思考更长时间”来解锁新的能力。

这种解释十分重要。“测试时计算“确实代表了扩展模型算力和提高AI性能的一种新途径,这相当令人兴奋。但关于Scaling laws的另一个观点更为重要,并且在如今的讨论中被低估了:几乎所有关于Scaling laws的讨论——从2020年最初的论文到如今聚焦于测试时计算的讨论——都集中在语言模型上,然而,语言并不是唯一重要的数据模态

想想机器人技术、生物学、世界模型或AI web agent。对于这些数据模态,Scaling laws并没有饱和;相反,Scaling laws才刚刚开始发挥作用。不过,关于上述领域Scaling laws存在性的严格证据,至今尚未发布。

为这些新数据模态搭建AI模型的初创公司,例如生物学领域的EvolutionaryScale、机器人领域中的Physical Intelligence、世界模型领域的World Labs,正在试图识别并利用新领域中的Scaling laws。OpenAI利用Scaling laws发展大语言模型珠玉在前,预计2025年,Scaling laws会在新的领域大展身手。

不要相信外界的闲言碎语,Scaling laws绝不会消失。到2025年,它们依然至关重要,但Scaling laws的发挥场景将从大语言模型的预训练转向其他模态。

三、特朗普和马斯克或分道扬镳,AI领域必受严重波及

新的美国政府班底将带来一系列AI政策和战略的转变,为了预测特朗普任期内AI领域的走向,众人都关注着唐纳德·特朗普与埃隆·马斯克的密切关系,毕竟马斯克在如今AI世界中扮演着至关重要的角色。

可以想象,马斯克可能通过多种方式影响特朗普政府的AI相关决策。考虑到马斯克与OpenAI之间水火不容的关系,新一届政府可能会对OpenAI采取不太友好的态度,包括行业接触、制定AI监管政策、获取政府合同等等方面。OpenAI目前也确实非常担忧这些问题。另一方面,特朗普政府可能会偏向支持马斯克的公司:例如,通过简化各种流程,帮助xAI建立数据中心和在模型竞赛中取得领先地位;快速批准特斯拉部署自动驾驶出租车等。

更根本的是,不同于其他与特朗普关系亲密的科技大佬,马斯克非常重视AI对人类造成的安全威胁。因此他主张对AI进行严格监管:他支持加利福尼亚州尚有争议的SB 1047法案,该法案试图对AI开发者施加严格限制。因此,马斯克的影响力可能会导致美国的AI发展处于更为严厉的监管环境中。

不过,这些猜测都忽视了一个问题,那就是特朗普和马斯克的密切关系必然会破裂

正如我们在特朗普政府第一届任期内一再看到的那样,即使是特朗普看似坚定不移的盟友,平均任期也异常短暂,从杰夫·塞申斯(Jeff Sessions)到雷克斯·蒂勒森(Rex Tillerson),再到詹姆斯·马蒂斯(James Mattis)、约翰·博尔顿(John Bolton)、史蒂夫·班农(Steve Bannon)都是如此(当然,谁能忘记安东尼·斯卡拉穆奇(Anthony Scaramucci)在白宫短短10天的任期呢?)。如今,特朗普几乎没有第一届任期内的副手对他保持忠诚。

特朗普和马斯克都具有复杂、多变而不可捉摸的个性,与他们共事很不轻松,容易让人筋疲力尽。目前已经证明,他们的新近联手对双方都有利,但这段关系仍处于蜜月期。据《福布斯》预测,2025没过完,这段关系就得臭。

这对AI领域意味着什么呢?这对OpenAI来说是个好消息,对特斯拉股东来说则是个坏消息。对那些关注AI安全的人来说,这将是一个让人失望的消息,因为几乎可以确定,没有马斯克,特朗普政府会在AI监管方面采取放任不管的态度。

四、AI web agent大放异彩,成为消费者又一主流应用

想象这样一个世界:不管是管理订阅、支付账单、预约医生,还是在亚马逊上购买东西、预定餐厅,或是完成任何繁琐的线上事务,你都不需要直接上网,而只需指示AI助手替你完成

“AI web agent”的概念已经存在多年。如果出现类似的产品并且能够正常使用,那毫无疑问,它会大获成功。然而,如今市面上并不存在一个功能完整的通用AI web agent软件。

像Adept这样的初创公司,虽然拥有数百万美元的融资和一支经验丰富的创始团队,却未能成功推出产品。Adept的案例已经成为这一领域的前车之鉴。

明年,将是AI web agent真正变得成熟、足以进入主流市场的一年。大语言模型和视觉基础模型的持续进展,加上新推理模型和推理时计算带来的“系统2思维(System 2 thinking)”能力(出自卡尼曼双系统思维模型,系统2通过逻辑推理解答问题,相对于系统1用直觉进行决策)的突破,都预示着AI web agent即将迎接发展的黄金时段

AI web agent将找到各种有价值的企业应用场景,但短期内最大的市场机会将在消费者领域。尽管最近AI热潮不断,但除了ChatGPT之外,只有相对少数的AI原生应用能够取得突破,成为消费者当中的主流应用。AI web agent将改变这一局面,成为消费者下一款AI应用。

五、在太空建设AI数据中心的严肃尝试

2023年,AI发展的资源瓶颈是GPU芯片;2024年,资源瓶颈成了电力和数据中心。

在2024年,AI对能源的巨大需求成了全球焦点,尤其是在建造AI数据中心的热潮当中。全球数据中心的电力需求在过去几十年内保持平稳,但由于AI的兴起,2023-2026年的电力需求预计将翻倍。到2030年,美国数据中心将消耗接近10%的总电力,远高于2022年的3%。

打开网易新闻 查看更多图片
▲AI数据中心导致能源需求飙升(图源:Semianalysis)

当前的能源系统显然无法应对AI发展带来的需求激增。能源电网和计算基础设施,这两个万亿美元级的系统即将发生历史性的碰撞。

核能作为解决这一世纪难题的可能方案,今年获得了越来越多的关注。核能在许多方面是AI理想的能源来源:零碳、随时可获取、并且几乎取之不尽。但从现实角度看,想通过新的核能解决能源问题,可能要等到30年代。因为核能开发需要长期的研究、开发和监管周期,这个周期适用于传统的核裂变电厂、下一代“模块化小型反应堆”(SMRs),当然也适用于核聚变电厂。

明年,将出现一个大胆的想法来应对能源挑战,发掘有效资源:将AI数据中心建在太空里。乍一看,这个想法像是个笑话。但事实上,它有其可行性:在地球上批量铺开数据中心的最大瓶颈就是获取电力;而在太空中,太阳永远高悬,所以轨道上的计算集群可以享受全天候、免费、无限、零碳的电力。

当然,还有许多实际问题需要解决。一个显而易见的问题是,能否找到一种低成本、高效率的方式在轨道和地球之间传输大量数据?这仍是一个悬而未决的问题,但通过激光以及其他高带宽光通信技术的研究,我们可能会找到答案。

为实现这一愿景,孵化自Y Combinator的初创公司Lumen Orbit最近融资了1100万美元,要在太空中建立一个超高功率的数据中心网络来训练AI模型。

Lumen的CEO菲利普·约翰斯顿(Philip Johnston)说道:“与其支付1.4亿美元的电费,不如支付1000万美元发射数据和使用太阳能。”

2025年,Lumen不会是唯一一家认真考虑这一想法的公司,其他初创公司也将出现。也不要惊讶于云计算巨头启动类似的探索性项目。通过Project Kuiper,亚马逊已经积累了送货入轨的丰富经验;谷歌也有长期资助类似“登月计划”的历史;甚至微软对太空经济也不陌生;埃隆·马斯克的SpaceX也可能会参与其中。

六、一种语音AI模型将通过图灵测试

图灵测试是衡量AI表现的最悠久、也最著名的标准之一。为了“通过”图灵测试,AI系统必须能通过书面文本进行沟通,让普通人无法分辨ta是在与AI互动,还是与人类互动。

得益于近些年的快速发展,大语言模型已能通过图灵测试,但书面文本并不是人类沟通的唯一方式。随着AI的多模态化,我们可以想象一种新的、更具挑战性的图灵测试版本——“语音图灵测试”——在这种测试中,AI系统必须能够通过语音与人类互动,展现出人类无法区分人机的技能和流畅度。

目前,通过语音图灵测试仍是AI无法达到的目标,其间还有较大的差距。例如,人类说话与AI回应之间必须做到几乎零延迟,这样才可能媲美与人类交谈的体验;比如交流句子被中途打断的时候,语音AI系统必须能够实时、优雅地处理模糊输入或对话误解;AI模型必须能够进行长时间的、多轮的、开放式的对话,同时能够记住讨论的早期部分。更重要的是,语音AI必须学会更好地理解语音中的非语言信号:例如,当人类语音听起来恼怒、兴奋或讥讽时,这些信号都意味着什么,同时AI能在自己的语音中生成这些非语言信号。

2024年接近尾声,语音AI正处于一个让人兴奋的转折点,诸如speech-to-speech等模型的基础性突破驱动着语音模型的进步。如今,不管是技术领域还是商业领域,语音AI都在快速发展。到2025年,语音AI的技术预计会取得巨大进展。

七、 AI自我改进系统取得重大进展

能够不断实现自我改进的AI模型,这在AI圈里是一个绵延亘久的话题,已持续了几十年。

例如,早在1965年,艾伦·图灵(Alan Turing)的密切合作伙伴I.J. Good写道:“要把超级智能机器定义为:无论人类多么聪明,都能远远超越所有人类才智的机器。由于机器设计是也属于智力活动,所以一个超级智能机器能够设计出更好的智能机器;然后,毫无疑问地,会出现一个‘智能爆炸’,人类的智能将被远远抛在后头。”

AI自己研发更好的AI,这在智能发展上是一个非常吸引人的概念。但即使到今天,它仍然带有一丝科幻的色彩。

然而,尽管尚未得到广泛认可,但这个概念正在变得越来越接近落地。AI科学前沿的研究人员,已经开始在构建能自我发展的AI系统方面取得实质性进展。明年,预计这一研究领域将进入主流。

迄今为止最著名的公开研究实例是Sakana的AI Scientist,发布于今年8月,令人信服地证明了AI系统确实能够完全自主地进行AI研究

这项研究让AI执行了AI研究的完整周期:阅读现有文献、生成新的研究想法、设计实验来验证想法、进行实验、撰写研究论文报告发现,然后进行同行评审。在没有任何人工输入的前提下,AI完全自主地完成了一切任务。

虽然目前还没有公开消息,但关于OpenAI、Anthropic和其他研发机构正在将资源投入到“自动化AI研究员”这一理念中的传言已经蔓延。2025年这一领域还会有更多讨论、进展和创业公司,因为越来越多的人意识到,自动化AI研究具有现实可行性。

如果一篇完全由AI撰写的研究论文被顶级AI会议接受,那将是自动化AI研究最重要的里程碑(由于论文是盲审的,会议审稿人在论文被接受之前不会知道它是由AI撰写的)。如果看到AI自主产生成果被NeurIPS、CVPR或ICML等会议接受,不要太惊讶。对于AI领域来说,那将是一个引人注目、充满争议并且具有历史意义的时刻。

八、 OpenAI、Anthropic和其他AI研发机构将调整战略重心,转向开发AI应用

发展AI模型是一项相当艰难的业务,AI研发机构简直烧钱如流水,需要空前高度的资本集中。OpenAI最近筹集了破纪录的66亿美元资金,并且可能很快就需要更多资金。Anthropic、xAI和其他公司也处于类似的境地。

由于切换AI模型成本不高、客户对AI模型的忠诚度也比较低,AI应用开发商可以根据成本和性能变化在不同的AI模型之间无痛切换。所以通常认为,发展AI模型和开发AI应用两项业务没有太大的联系。

但随着Meta的Llama和阿里云通义等开源模型的出现,AI模型商品化的威胁日益紧迫。像OpenAI和Anthropic这样的AI领头羊,不能、也不会停止对AI模型的投资。到2025年,为了开发更高利润、更具差异化和更具黏性的业务,预计这些AI研发机构会大力推出更多自己的应用和产品。

当然,ChatGPT已经是一个成功范式,实现了开发AI前沿模型和开发自有应用的紧密结合。

在新的一年里,我们可能还会看到哪些类型的第一方应用呢?更复杂且功能更丰富的搜索应用必然是其中重镇,OpenAI的SearchGPT计划就是未来发展趋势的一个信号。AI编程也会是重要类别,这个方向已经开始初步的产品化,比如OpenAI在10月推出的Canvas。

OpenAI或Anthropic会在2025年推出企业级AI搜索应用吗?或者客户服务AI应用、法律AI应用、销售AI应用?在C端,应该会推出“个人助手”AI web agent应用、旅行规划应用,或者音乐生成应用。

当AI研发机构转向自有应用开发后,最让人关注的是,它们会直接与许多自己的重要客户竞争:搜索领域的Perplexity,编程领域的Cursor,客户服务领域的Sierra,法律领域的Harvey,销售领域的Clay等等。

九、至少在五个美国大城市,无人驾驶出租车会在网约车市场中占据两位数的市场份额

自动驾驶汽车已经历了数年炒作,但承诺却迟迟不能兑现。近十年来,这项技术看似触手可及,但迟迟没有落地进入主流市场。

这种情况在2024年发生了剧变。现在Waymo的自动驾驶汽车在旧金山街头随处可见,每天有成千上万的居民像以前乘坐出租车或Uber一样,乘坐Waymo出行。

自从2023年8月推出服务,至今Waymo已在旧金山的网约车市场份额中占据了22%,与Lyft的市场份额相同(Uber的市场份额为55%)。

22%的市场份额,这可能让最近没去过旧金山的人感到惊讶。仅仅眨眼的工夫,自动驾驶出租车就从研究项目变成一个庞大的商业模式了。

自动驾驶出租车业务很快就将超越旧金山湾区,成为多个美国城市交通系统的重要组成部分,这个速度会比大多数人预期的更快。到明年年底,像Waymo这样的自动驾驶出租车服务会在至少五个主要市场赢得两位数的市场份额。

哪些地方最有可能成为旧金山之后的下一个城市呢?

Waymo的自动驾驶出租车已在洛杉矶和凤凰城运营,预计明年在这两个地方的市场份额会大幅增加。奥斯汀(Austin)、亚特兰大(Atlanta)和迈阿密(Miami)也会很快成为Waymo的下一个目标市场。同时,Waymo的竞争对手Zoox也准备在拉斯维加斯推出自动驾驶出租车服务。

在经历多年的炒作之后,2025年,自动驾驶汽车将终于落地主流市场。

十、2025年将发生第一宗真正的AI安全事件

随着近年来AI的愈发强大,关于AI脱离人类意愿自主行动的担忧日益增加,人们感受到一种可能失去AI控制的威胁:例如AI学会了欺骗或操控人类,并借此实现自己的目标,而这些目标可能对人类造成伤害。

这一类问题通常被归类为“AI安全”问题。(AI还带来了许多其他社会问题,便利隐私监控、加剧各种偏见,但这些问题与AI安全问题不同,后者更专注于AI系统可能开始以不符合人类意图的方式行动、甚至最终可能对人类构成生存威胁的危险。)

近年来,AI安全已经从一个边缘的、有些科幻的议题转变为主流话题。如今每一个重要的AI开发者,从谷歌到微软,再到OpenAI,都实打实地向AI安全工作投入资源。AI领域的巨擘,如Geoff Hinton、Yoshua Bengio和Elon Musk,都开始对AI安全风险直言不讳。

然而,到目前为止,AI安全问题仍然完全是理论性的。现实世界中尚未发生过真正的AI安全事件(至少没有被公开报道)。

2025年可能是这一局面发生变化的一年。

我们应该如何预估这一AI安全事故的内容?明确一点,这不会涉及《终结者》风格的杀手机器人,事故大概率不会对任何人类、造成任何形式的伤害。

也许某个AI模型会试图秘密地在另一个服务器上复制自己,以便保全自己,也就是所谓的自我渗透(self-exfiltration);也许某个AI模型会得出结论:为了更好地推进自我目标,它需要隐瞒自己能力,故意降低性能评估,以此避免更严格的审查。

这些例子并不是危言耸听,Apollo Research最近发布了重要实验,证明在特定提示下,现在的AI模型确实能做出欺骗性行为。同样,Anthropic的最新研究显示,大语言模型有令人担忧的“伪装对齐(fake alignment)”能力。

当然,第一宗AI安全事故大概率会在对人类造成真正伤害之前被发现和消弭,但对AI圈和整个社会来说,这会是个振聋发聩的时刻。

AI事故的发生将清楚地表明:即使人类远未面临来自全能AI的生存威胁,也需要尽早达成共识:我们将会与非人的智能体共享世界,这种智能体就像人类自身一样,会任性、会欺骗,也同样不可预测。

来源:《福布斯》