文 | 新电实验室
行业正在集体穿越大模型时代的“创新死亡谷”。
最近几天,作为AI大模型“六小虎”之一的零一万物,频频登上科技行业热门话题榜。据媒体报道,零一万物将不再追求训练超级大模型,1月初已与阿里云成立“产业大模型联合实验室”,零一万物大部分训练和AI infra团队会加入该实验室。这是国内首家对外公开大幅调整战略方向的AI大模型独角兽。
这些灵魂拷问在2025年刚开年就铺面而来。
Scaling Laws失效了?
“仅仅一年多的时间,引领大模型前进的传统 Scaling Law 边际收益递减明显,商业化上同样如此。”零一万物 CEO 李开复近日接受媒体采访时多次表达这一观点,“赌上巨量资源去训练超大参数规模的模型,超低的性价比对初创公司来说,肯定不是一个务实的选择。”
李开复的观点再次激发了行业对于Scaling Laws的争论。Scaling Laws最早是OpenAI在一篇论文中提出的。用大白话讲,它是指,AI大模型的性能会随着模型参数规模、训练数据量和计算资源的增加而相应提升。
正是受Scaling Laws的召唤,国内外大模型平台争相花巨资囤积成千上万张GPU,以堆高计算能力;将模型参数规模从数亿推高到数千亿,甚至上万亿。比如,OpenAI的GPT-4模型据称约有1.8万亿参数。
但是,自去年以来,Scaling Laws“撞南墙”的声音越来越响,其有效性受到了众多质疑。外媒报道,据内部消息人士透露,OpenAI 的下一代模型(代号为 Orion)在某些任务上仅比其前身 GPT-4 有微小的改进,与 GPT-3 到 GPT-4 的飞跃相比,提升幅度显著缩小。
虽然OpenAI的CEO奥特曼否认了这一点,在社交媒体上回应称“there is no wall(没有墙)”。但外界从GPT-5迟迟没有推出还是看出了一些端倪。而遭遇困境的并非仅有 OpenAI 一家。彭博社援引知情人士的消息称,Google 旗下的 Gemini 2.0 同样未能达到预期目标,与此同时,Anthropic 旗下的 Claude 3.5 Opus 的发布时间也一再推迟。
当然,还有很多声音并不认同Scaling Laws已经失效。英伟达黄仁勋前两天在CES 2025上发言时坚称,“基础模型预训练的Scalinglaws仍然有效,它还在继续”,而且除了预训练扩展定律之外,还出现了后训练扩展定律和测试时间扩展定律。
“测试时计算”确实开辟了扩展模型算力和提高AI性能的一种新途径。相较于前代模型完全依靠在预训练中扩大模型参数量来改善表现,像OpenAI的o3这样的新推理模型能在推理过程中进行计算,推理计算量的扩大可以让AI模型通过“思考更长时间”来解锁新的能力。
虽然有不同声音,但行业的普遍共识是,单纯靠堆算力、堆参数的简单粗暴的发展模式,一去不复返了。李开复的呼声也在国内捅开了这层窗户纸。
大模型烧不起了
Scaling Laws遇到瓶颈并非意味着大模型不再向上发展了,深层的问题在于高昂成本导致边际效益的严重递减。说白了,就是投入产出比的考量。
近年来大模型训练成本的增加是显而易见的。2017年,Transformer 模型训练成本约为 900 美元;2019年,国外某模型的训练成本约为16万美元;2023 年,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的训练成本预计分别约为7800 万美元和 1.91 亿美元。五年时间,成本飙升了10万倍!
国内同样如此。浙商证券的分析报告指出,字节跳动2024年在AI领域的资本开支高达800亿元,国内最高,接近百度、阿里、腾讯三家公司的总和。该券商预测,到2025年,字节跳动的资本开支有望进一步增长至1600亿元,其中约900亿元将专门用于AI算力的采购。
AI算力的采购目前主要是买英伟达的GPU。来自 Omdia 和英国《金融时报》的报道显示,2024年微软采购量全球最多,购买了48.5万个英伟达 Hopper 架构芯片;字节跳动和腾讯分别收购了大约 23 万个;谷歌、Meta 和亚马逊等公司也都买了不少。马斯克今年则以迅雷之势搭建了包含10万张H100的AI训练集群Colossu。国内大厂如百度、阿里、小米等,也都在筹划搭建万卡甚至十万卡GPU集群。
而一个英伟达 Hopper 架构芯片价格为3.3万美元—4万美元。英伟达公司市值两年翻了10倍,靠的就是这个生意。除了外采,很多科技巨头还在开发自己的内部定制芯片。研发费用同样不菲。即便不买卡只租用,每块GPU每小时租金也需要数美元,而一个模型的训练往往需要几百万甚至几千万个GPU小时。
不仅训练费用高昂,大模型提供服务时还要大量消耗其他资源。据国外某研究机构报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力。市场推广是另一笔不小的开支,竞争越激烈,竞价成本越水涨船高。
而与此同时,国内市场却越来越“卷”。某些大模型的API调用价格2024年大幅降低,有的降幅高达97%,每千Token降至 0.003元,甚至部分版本宣布对外完全免费。
综上,如此巨额的投入,显然不是每个创业公司都能烧得起的。国内即使几大AI独角兽,每家累计融资平均也仅几亿美金,百亿元级别,估值约在200亿上下。鉴于此,李开复认为,未来只有大厂才有能力做超大模型。
六小虎们战略分野
“如果你还要烧巨大的模型,还有5000张、10000张卡,每年带来2-3亿美金的成本,这些成本怎么分摊到业务收入上去?如果你的亏损是收入的5倍、10倍、20倍,灵魂拷问就会失败。我在朋友圈里说‘2025 年是商业化淘汰年’,就是这么一回事。”
李开复认为,商汤等AI 1.0公司普遍走了6-8年,才进入商业化灵魂拷问时刻,而现在技术迭代加快了,从信仰 Scaling Law 到怀疑 Scaling Law 只花了一年时间。灵魂拷问也来得更快。AI创业者曾经都拥有一个共同的通用人工智能AGI的梦想,但没有大厂雄厚实力的六小虎们能接得住加快降临的商业化灵魂拷问吗?2025年或将迎来分野。
2024年全球AI融资排行榜中,马斯克旗下的xAI及OpenAI、Anthropic凭借120亿美元、81亿美元、80亿美元斩获前三。相比较而言,国内六小虎的融资额则低了一个数量级,排在前面的分别为月之暗面超70亿元,百川智能 50亿元,MiniMax 超40亿元,智谱A1 超40亿元,零一万物数亿美元,阶跃星辰数亿美元。
但在去年下半年,月之暗面和MiniMax没有公布新的融资,也有多家企业出现资金链吃紧情况。
零一万物选择放弃对超大参数规模的模型的追求,除了战略方向的主动选择,必然也会有财务方面的考虑。“我的财务同事每几周跟我过现金流,看到算力一个月一个月的支出,真不是可持续的方式。”李开复近日在接受采访时坦承。
据其透露,2024年5月,零一万物发布了一个千亿参数模型 Yi-Large,此后决定更换为更务实的路线,专注做更轻量化、性能也不错的模型,即去年10月推出的新旗舰模型 Yi-Lightning。新模型采取MoE(混合专家)架构,激活参数仅200多亿,但模型表现更出色,号称超过了GPT-4o。更重要的是,Yi-Lightning 的模型训练成本仅350万美元,是 GPT-4o 的 1/30。
近段时间在海外社交媒体刷屏的另一个中国大模型DeepSeek-V3,评测成绩亮眼,成为开源模型的新王。同样的是,该模型也大幅降低了训练成本。模型每训练1万亿token仅需要18万个GPU小时,即在团队配备2048个H800 GPU的集群上只需3.7天。“2048个GPU、2个月、近600万美元”,相比之下,GPT-4o等模型的训练成本约为1亿美元,至少在万个GPU量级的计算集群上训练。成本的下降,使其API调用价格更低,千tokens输入仅0.001元,吸引了大量开发者。
智谱AI过去两年一直紧盯OpenAI的发展路线。但OpenAI去年的脚步有所放缓,智谱也加大了对Agent的投入。
阶跃星辰在去年底完成B轮融资后表示,将继续投入基础模型研发,强化多模态和复杂推理能力,并通过产品和生态加大覆盖C端应用场景。
月之暗面与MiniMax在C端市场表现得更为强劲。月之暗面旗下智能助手Kimi初期凭借20万字的长上下文功能,获得了大量用户,全平台月活跃用户号称超过3600万;不久前,月之暗面又快速跟进推理模型,先后上线了数学模型k0-math、视觉思考模型K1。
MiniMax在多模态大模型方面表现亮眼。视频领域的海螺AI口碑不错;星野,海外版为Talkie,也聚拢了大批用户。根据Sensor Tower的数据,截至2024年6月,Talkie的全球月活跃用户数已达到1100万,超过一半用户来自美国。
百川智能独辟蹊径,明确表态不做当前大热的视频模型,而是选择将AGI与医疗结合,认为“制造医生”是AGI的重要标志,推出了“一大四小”医疗产品,并与儿童医院合作。
不同的技术路线和商业化路径,让众多的创业公司开启了不同的发展方向。而随着竞争的加剧,这种战略分化也将加速。像新能源汽车领域进入淘汰赛一样,AI大模型也正迎来这一时刻。