千问刚破纪录,奥特曼就喊算力不够
早上刷36氪,看到两条新闻放一起,我差点以为穿越了。
一条说阿里千问3.6Plus单日调用量破1.4万亿Token,登顶全球第一。另一条说OpenAI的奥特曼承认,关停Sora是因为算力紧缺。
我盯着屏幕愣了几秒。这不科学啊?一边是中国模型在全球平台上狂飙,一边是行业老大因为算力不够砍项目。这俩事居然发生在同一天。
行吧,这个世界越来越魔幻了。
先说说千问这个1.4万亿Token。很多人可能没啥概念。
打个比方,你平时写一篇公众号文章大概1000字,换算成Token差不多也是1000左右。1.4万亿Token,相当于一天处理了14亿篇文章。全球80亿人,平均每人当天都往千问里塞了一段话。
而且这还不是慢慢爬上去的。千问3.6Plus发布才1天,直接冲到了OpenRouter日榜第一,连续4天霸榜。
OpenRouter是啥?全球最大的AI模型API超市,GPT、Claude、Gemini都在上面摆摊。千问能从这群巨头手里抢下第一,确实不容易。
我记得去年这个时候,国产模型出海最大的尴尬是:免费送都没人用。海外开发者宁可花高价订阅GPT-4,也不愿意碰国产模型。现在千问能在全球平台上霸榜,至少说明一件事——中国模型真的能打了。
但就在我准备转发这条新闻恭喜阿里的时候,看到了第二条消息。
奥特曼在专访里坦白了:Sora被砍,纯粹是因为算力不够。
Sora你知道吧?OpenAI今年力推的视频生成模型,刚发布的时候全网刷屏,到处都是"AI要革了影视行业的命"的论调。结果还没火几个月,说没就没了。
奥特曼的原话是:Sora不在公司最高优先级的名单里。这话翻译一下就是——好东西,但养不起。
我就纳了闷了。OpenAI背后站着微软啊,Azure云服务的算力资源应该是业界最充足的了。连这种金主爸爸撑腰的公司都说算力不够,其他小公司还怎么活?
更讽刺的是,这俩新闻发布时间就差几个小时。一边是千问调用量爆表,一边是OpenAI因为算力砍项目。这种对比,怎么看怎么魔幻。
其实仔细想想,这两件事说的是同一个问题:算力正在成为AI行业的硬通货。
千问调用量飙升,说明需求端彻底爆发了。但供给端呢?算力根本跟不上。OpenAI关停Sora,就是把有限的算力集中到最高优先级的项目上——比如GPT-5。Sora这种"烧钱大户",只能忍痛砍掉。
有个细节挺有意思。训练视频模型消耗的算力,比文字模型高几十倍。生成一段1分钟的视频,背后可能是几百万Token的计算量。这也是为什么Sora会成为第一个被砍的——它太吃资源了,投入产出比算不过来。
奥特曼的选择很现实:与其把算力砸在Sora上陪跑,不如留着训练GPT-5。毕竟GPT系列才是OpenAI的现金牛。
说到这,我突然想到一个问题:千问这么猛的调用量,阿里云扛得住吗?
阿里有自己的云计算基础设施,这是优势。但1.4万亿Token的单日调用量,对算力的消耗也是天文数字。关键是千问的价格比GPT-4便宜一大截,这种"低价走量"的策略,利润空间被压得薄如纸。
说白了,千问这是在用低价换市场份额。但这套玩法能持续多久,完全取决于阿里的算力储备还能撑多久。如果哪天阿里云也喊算力不够了,千问的价格还能这么香吗?
这两件事放在一起,让我感觉AI行业正在变天。
前两年大家拼的是模型能力,谁的参数多、谁的成绩单漂亮,谁就能拿融资。去年开始拼应用场景,谁能落地、谁能赚钱,谁就能活下去。
现在看来,第三阶段来了——拼算力效率。
OpenAI关停Sora,不是因为技术不行,是算力性价比算不过来。千问能登顶,也不是因为技术吊打GPT-4,是性价比更高。用户其实很现实,模型能力差不多,谁便宜用谁。
但这种局面我有点担心。
调用量高不等于技术领先。千问在调用量上赢了,不代表在复杂推理、创意写作这些高价值场景也赢了。GPT-4在这些领域还是领先。
更麻烦的是,如果算力瓶颈长期解决不了,行业可能会出现"有想法的人没算力,有算力的大厂垄断创新"的局面。这对整个生态都不是好事。
还有价格战的问题。千问能登顶,低价是重要因素。但低价意味着低毛利,低毛利意味着没钱投入研发。长期打价格战,最后可能大家都没钱做创新,整个行业陷入内卷。
千问登顶全球第一,当然是好事。说明中国模型在国际市场有了竞争力,不再是跟在OpenAI后面吃灰的角色。
但奥特曼那句"算力紧缺",也是个清醒的提醒。AI行业的瓶颈,已经从"模型不够聪明"变成了"算力不够用了"。
下一步拼什么?可能不是比谁的技术更牛,而是比谁的算力效率更高,谁能用同样的资源干更多的事。
对普通用户来说,这是好事。竞争激烈了,价格会下来,服务会好起来。
但对整个行业来说,算力瓶颈如果突破不了,可能会拖慢AI发展的速度。毕竟,再好的模型,没有算力也跑不起来。
