打开网易新闻 查看更多图片

智东西
作者 程茜
编辑 漠影

智东西1月30日报道,1月29日,阿里平头哥“真武810E”高端AI芯片上线官网,揭开了阿里隐藏已久的核心布局:由通义实验室、阿里云和平头哥组成的阿里巴巴AI黄金三角“通云哥”,首次正式浮出水面,完成公开亮相。

打开网易新闻 查看更多图片

这使得阿里成为在大模型、云服务、自研芯片三大核心领域均拥有顶级技术实力的科技企业,在全球范围可与顶尖科技巨头谷歌匹敌。

当下全球技术博弈加剧、国产算力替代进程全面提速,全球AI竞争已进入全栈比拼深水区,单一环节的技术领先长期来看难以构建持久的行业壁垒,唯有实现算力、平台、算法三大核心板块的深度融合与自主可控,才能在技术博弈中掌握核心话语权。

阿里正在将“通云哥”打造成一台AI超级计算机,汇聚全栈自研芯片平头哥、亚太第一云计算平台阿里云、手握全球顶尖开源千问系列大模型的通义实验室,三者深度协同,构筑起AI全链路闭环。

纵观全球发展,各家科技巨头的竞争逻辑也从单点突破转向全链路布局,谁能打通从底层芯片到上层大模型、再到云端应用的全栈能力,谁就能在新一轮AI产业竞赛中占据先发优势。“通云哥”的黄金三角布局,正是阿里顺应行业趋势、破解国产AI发展困境的关键落子。

这样的布局能带给国产AI行业什么样的想象力?其协同逻辑又能为行业提供哪些可借鉴的全栈发展范本?我们将拆解“通云哥”的核心技术优势,深度剖析其实现1+1+1>3协同效应的底层逻辑。

一、自研芯、云巨头、全球第一开源模型,阿里的黄金三角

通云哥的三大核心板块,已经在各自所属领域拥有顶尖硬核实力。

首先是刚刚释出最新动向的平头哥

成立于2018年的阿里平头哥,其核心定位是为AI超级计算机提供底层算力支撑,可以说是AI超级计算机的“心脏”。

其已推出AI推理芯片含光800、训推一体AI加速芯片真武810E、Arm服务器CPU倚天710、高性能SSD主控芯片镇岳510、超高频RFID电子标签芯片羽阵611和羽阵600等芯片。

具备全自研、高性能、强互联、高易用、规模验证、芯云一体六大优势的真武810E,已在阿里云实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车、新浪微博等400多家客户。同时据业内人士透露,对比关键参数,“真武”PPU的整体性能超过主流国产GPU,与英伟达H20相当

打开网易新闻 查看更多图片

这样的全栈自研芯片布局,使得阿里实现了从芯片架构、底层算力到上层算法、云平台的深度适配与自主掌控,在深度适配自身业务的基础上实现算力性能最大化。

其次是2009年成立的阿里云

作为AI超级计算机的云基础设施与算力调度中枢,如今已跻身全球头部阵营,稳居国内云基础设施领域第一。

从其运营规模来看,早在2013年,阿里云就在全球范围内首次实现了单一集群5000台服务器的规模。如今历经多年发展,阿里云的全球布局持续完善,其在全球29个地域设有92个可用区,服务全球500万客户。

打开网易新闻 查看更多图片

这一规模化布局的优势,也直接转化为其在AI云市场的核心竞争力。根据全球市研机构Omdia的数据,2025年上半年,中国AI云市场阿里云占比35.8%位列第一,超过2到4名总和;在已采用生成式AI的财富中国500强企业中,有超53%企业选择阿里云,渗透率位列第一。

云平台是围绕AI研发全生命周期的开发与部署平台,一方面,阿里的云平台布局,让AI的算力更普惠,推动其技术迭代、应用落地,另一方面,AI也在反向推动云计算升级。

最后是大模型时代的关键,千问大模型背后的通义实验室,这也是AI超级计算机的“大脑”。

通义实验室研发大模型可以追溯至2019年,从2021年其研发的全球首个十万亿级参数的大模型M6落地到如今,千问大模型在全球的下载量已超10亿,衍生模型数量超20万

根据全球开源平台Hugging Face的数据,千问大模型已经超越可Meta的Llama大模型系列、谷歌的Gemini模型系列,全球采用率达到53%,Meta和谷歌分别为15%、14%。

打开网易新闻 查看更多图片

▲英伟达创始人、CEO黄仁勋2025GTC大会上展示全球开源模型的下载及采用情况

在更具体的层面,全球开发者基于千问的衍生模型每天新增超200个,涵盖机器人控制、代码生成、漫画后期制作、多语种翻译等多个方向。其中5款小尺寸模型在2025年12月的单月下载量便已超越Mistral、OpenAI、英伟达等6家国际领先AI厂商旗下所有开源模型当月下载量的总和。

打开网易新闻 查看更多图片

2026年开年,阿里千问大模型家族仍在不断上新,从多模态新模型Qwen3-VL-Embedding、Qwen3-VL-Reranker到全系列语音合成模型Qwen3-TTS等,再次刷新各大基准测试排行榜。

这也意味着,此前以OpenAI、Anthropic等海外明星创企引领的全球AI竞争格局正在被改写。

纵观这三大布局,通义实验室、阿里云、平头哥自研芯片各拥顶尖硬核实力,这本质是阿里AI全栈战略的全面落地。阿里正打破海外企业在全栈领域布局的垄断,成为国产AI全栈自研的标杆。

二、技术深度适配+全栈顶尖实力,登顶全球AI自研第一梯队

这样的“黄金三角”成型绝非偶然,背后是阿里近年来围绕芯片、云平台、大模型全链路技术布局的先进性。

从行业技术发展趋势来看,AI的终极突破离不开算力、平台、算法的协同优化,单纯一个环节的领先,往往会陷入硬件与软件脱节的困境。因此阿里“通云哥”三者依托技术架构的深度适配,形成技术闭环、能力互补的协同体系

平头哥已成长为具备从架构、IP核、芯片产品、软件栈到生态系统在内全栈自研能力的国产芯片黑马。

2019年,平头哥旗下第一颗芯片含光800推出,采用自研架构,推理性能达到78563IPS,每秒可处理7万8千张图片;2021年,平头哥发布阿里首个通用服务器芯片倚天710,成为首家具备CPU研发设计能力的中国互联网公司;而最新亮相的通用GPU芯片真武810E,采用自研并行计算架构和片间互联技术,且针对千问大模型做专项优化,算子融合与指令集硬化提升运行效率,已通过阿里云场景实战验证,商用成熟度高。

据了解,“真武”PPU已成为出货量最高的国产GPU之一,同时其羽阵IoT芯片出货量已达数亿颗

打开网易新闻 查看更多图片

如今,阿里平头哥从广度和深度上全面布局,不仅产业版图横跨数据中心、存储、网络、物联网等核心赛道,性能指标全面对标并逐步赶超国际主流厂商,已成为国产高端芯片自主可控的核心力量。

在云平台领域,阿里云自研飞天云计算操作系统,编排调度百万级服务器,单集群调度规模超十万台,具备EB级数据存储能力,并通过CIPU率先实现虚拟化“0”损耗。

其还打造HPN 8.0高性能网络,GPU互联带宽达6.4Tbps)、CPFS并行文件存储系统,单客户端吞吐40GB/s,可支持单集群10万卡GPU高效互联。

与此同时,在2025年的云栖大会上,阿里巴巴CEO吴泳铭宣布,阿里云的新定位是要做全球领先的全栈AI服务商,提供世界领先的智能能力和遍布全球的AI云计算网络,向全球各地提供开发者生态友好的AI服务。

打开网易新闻 查看更多图片

如今的阿里云平台已完成从通用云计算向AI云的转型,三年数千亿的AI基础设施投入,能完美承载真武芯片与千问模型的高强度运行需求,实现算力高效调度。

最后是大模型领域的核心通义实验室

在海外强势突围的背景下,通义实验室通过技术创新业界率先实现“全尺寸、全模态”全面开源,采用MoE架构实现“高性能+低成本”双重优势。

2023年8月起,千问大模型陆续开源,至今已发布涵盖语言、数学、编程及视觉生成、推理的多代、多类型模型,成为海外英伟达、微软、Meta等科技巨头开发衍生模型、进行技术创新的基础;在国内是千行百业众多头部企业的首选模型。

值得一提的是,在千问大模型系列每次开源的技术报告中,都可以看到研发人员在其中领先行业的技术创新方向。

综上我们可以明确阿里AI战略的两大核心基因,自研、高投入

自研已深入阿里AI战略的每一根毛细血管,从芯片、云平台到大模型,其都瞄准了底层创新;高投入更是标配,这几大领域的本就是重研发、高投入的硬赛道。

这种全链路的技术协同,既是“通云哥”区别于其他AI体系的核心优势,更是实现“1+1+1>3”算力效能倍增的关键技术前提。

三、打造AI全栈系统级核心竞争力,构建不可复制技术壁垒

经上述拆解,一个结论已然清晰:“通云哥” 三者的三角协同,核心价值正在于实现全链路的系统级效能提升

尽管当前AI巨头均在布局全栈能力,但想要每一环节都能不掉链子很难。

如今,大模型向大参数量、高复杂度、多场景落地的快速演进,对芯片的算力供给、能效表现、并行处理能力,以及云平台的分布式调度、弹性拓展、多资源协同能力都提出了全新且更高的适配要求。

传统独立设计、简单适配的技术模式已难以匹配大模型的发展需求,亟需芯片、云、模型三方开展深度的架构协同创新,从底层技术架构、算力调度逻辑到资源适配标准进行全方位重构,让三者的技术设计从源头就深度契合、原生适配。

因此,通云哥通过架构协同实现了芯片、云、模型的全链路自主可控。如平头哥芯片针对千问大模型优化,千问模型适配阿里云架构,阿里云为芯片和模型提供定制化运行环境,三者在架构设计之初就深度绑定,避免技术损耗。

这样一来,通过深度的协同创新,阿里就可以打破单一技术的能力边界。

此外,此前在芯片、云、大模型各自独立发展的模式下,受限于研发、验证、迭代、商业化落地全链路的脱节、效率损耗等痛点,会导致技术的落地成本高、商业价值转化难。

阿里三位一体的布局就形成了研发、验证、迭代到商业化落地的良性循环,规避传统各环节独立设计、简单衔接的技术模式,而这种环环相扣、双向赋能的闭环效应,是芯片、云、大模型单一环节独立发展无法实现的。

最后也是在落地层面更为直观的效果,不管是研发还是落地,AI产业链的各个环节都实现了效能倍增

对比其他厂商依赖外部芯片、模型的模式,“通云哥”既从根本上保障了算力供应的自主可控与安全稳定,更能大幅提升AI全链路的部署效率与落地效能。

在此之上,通云哥天然构筑起芯片适配模型、平台承载芯模、三者双向优化的深度适配关系。

其中,平头哥的自研芯片为云平台的分布式调度、大模型的训练推理提供专属化、高性能的硬件算力,同时从架构设计层面就直接匹配模型的算法逻辑和云平台的算力调度需求。

云平台一方面承载芯片的算力资源调度、分布式集群管理,让底层算力高效供给上层模型,另一方面为大模型提供训练、部署、推理的全流程平台支撑。

大模型训练推理过程中的算力需求、架构迭代方向反向指导芯片的算力优化、云平台的功能升级。

通云哥的布局,本质上是通过三位一体的合力,让各自优势最大化,形成不可复制的系统级竞争力,这契合了当下AI行业体系化竞争的发展趋势。

结语:“通云哥”黄金三角成型,阿里定义中国AI全栈标准

阿里通云哥的全栈亮相,标志着阿里AI战略进入全栈自研的新阶段,进一步提升中国AI产业在全球的话语权。

对于阿里自身而言,AI已经成为其核心增长引擎,对内加速其在AI领域的核心竞争力,对外推动AI规模化落地,更带动国内AI产业从算力跟跑向全球并跑、领跑迈进。