说是放假,更胜上班,敢在大年初一之前,阿里终于把新一代大模型千问3.5给发了出来⋯⋯

阿里出新模型是这样的,在开源阵营里基本上「发布即登顶」,要是哪次没有摘得榜一,那才是大新闻。

真正的看点早就已经是Qwen系列模型在架构上还有怎样的突破,在所有开源大模型里,它是前沿含量最高的一个,没有之一,历次更新都在推翻和重建。
这其实也正是开源的价值,不要为了开源而开源,所有的折腾不休,都为行业的整体进步提供养分。

这次的Qwen3.5-Plus也不例外,3970亿的总参数,相比上一代旗舰模型Qwen3-Max的万亿参数不增反降,这很反直觉。

虽然大家对于堆参数这件事已经有了边际收益递减的预期,但Qwen3.5-Plus以不到前代模型40%的参数量,把性能做到了Gemini 3 Pro的级别,还是让人感到匪夷所思。

更离谱的是,Qwen3.5-Plus每次响应的激活参数只有170亿,相当于只用5%的算力资源,就可以调动满血智能,最后交付给给用户的token成本只有Gemini 3 Pro的1/18⋯⋯

如果互联网还有记忆,就不会忘记千问大模型死磕MoE架构的过程,从Qwen1.5启动细粒度专家模式开始,到Qwen3摒弃已经沿用3代的共享专家改用路由专家,再到这次Qwen3.5引入了混合注意力模式学会「有详有略的读」,每一次都在革自己和行业的命。

而且阿里并没有藏私,这次推动Qwen3.5重大突破的门控技术,出自阿里在全球AI顶会2025 NeurIPS上斩获最佳的论文,所有科技公司都可以吸收成果。

至此,Qwen、GLM、Kimi、DeepSeek⋯⋯中国厂商已经彻底领跑开源模型队列,并以无死角的交叉线路完成对闭源模型的全面包围,都说2026年大的要来,所以由开源模型斩获无定语的SOTA,会不会是其中一个大的?

准备好开香槟吧。

以前我们说阿里是中国最接近谷歌的AI大厂,更多的是在谈四位一体的业务组织,也就是同时具有芯片、云计算、大模型和应用的公司标准,全球除了谷歌,好像也就只有阿里了。

但从今天起,阿里也是一个在全模态上100%对标谷歌的公司了,从预训练第一天起,Qwen3.5就在文本和视觉的混合数据上联合学习,让视觉与语言在统一的参数空间内深度融合,这就是Gemini 3 Pro和Nano Banana、Notebooklm跨模态同步的

还是那句话,不再是6个月了,就只有3个月,这就是国产大模型和地表最强SOTA之间的距离,按照这个速度,超车的身位已经可以看到了。

辞旧迎新,除夕快乐!

打开网易新闻 查看更多图片