上方蓝字关注我们

打开网易新闻 查看更多图片

MAI-1的规模将远远超过微软以前训练的任何开源模型,参数量大约为5000亿。作为对比,Meta公司最大的Llama 3模型拥有超过4000亿参数,据说在所有方面都优于GPT-4。

微软正在开发自家的大型AI模型,以期与GPT-4或谷歌的Gemini等竞争。这一举措显示出微软希望在AI领域减少对OpenAI的依赖,并且正在训练自己的大规模语言模型(LLM),以与谷歌、Anthropic和OpenAI的顶尖模型竞争。

信息报道指出,Mustafa Suleyman,这位前谷歌DeepMind的AI主管,以及他领导的AI公司Inflection的团队,在微软收购了其员工并支付了6.5亿美元的知识产权费用后加入了微软,并且现在负责微软内部称为MAI-1的新模型。尽管MAI-1是基于Inflection的培训数据和技术,但它是一个全新的微软模型,并非从Inflection收购而来。

据知情人士透露,MAI-1的规模将远远超过微软以前训练的任何开源模型,参数量大约为5000亿。作为对比,Meta公司最大的Llama 3模型拥有超过4000亿参数,据说在所有方面都优于GPT-4。然而,参数数量已不再是衡量AI模型性能的唯一标准,最初的GPT-4据说拥有约1.8万亿参数。

微软现在采取了双轨策略,一方面开发用于本地应用和移动设备的小型、低成本语言模型,另一方面也在开发大型、尖端的AI模型。这表明微软希望在AI领域走出自己的道路,独立于OpenAI,后者的技术目前被用于微软所有的AI辅助系统中。同时,微软在B2B业务中也不断与OpenAI竞争。

另一个可能的原因是,欧洲和美国的反垄断监管机构正在调查微软与OpenAI之间的数十亿美元合作关系。通过悄然收购Inflection,微软加强了内部开发大型AI模型的能力。

微软首席技术官凯文·斯科特在领英上对外界关于微软正在开发大型语言模型MAI-1的报道做出了回应。斯科特似乎对于这一消息引起关注感到困惑,暗示这并非新闻。

他解释称,在过去五年中,微软一直在构建超级计算机,这些计算机被OpenAI用来训练开创性的AI模型,而这些模型随后被集成到微软和OpenAI的产品和服务中。此外,微软的内部研究团队也在开发AI模型,如Turing、MAI和开源的Phi等,这些模型被广泛应用于公司的各类产品中。

斯科特强调,微软与OpenAI的合作将持续进行,并且目前没有结束的迹象。这表明微软对于与OpenAI的合作成果非常满意,并且预计这种合作将长期继续。

微软已经预留了一大批Nvidia GPU,并收集了训练数据,用于训练这个新的、更大的模型。这包括来自小型模型的数据、由GPT-4生成的文本,以及来自互联网的公共数据。

据消息人士称,MAI-1的最终用途尚未确定,将取决于模型的性能。如果未来几周的开发进展顺利,微软可能会在5月底的Build开发者大会上展示这个新模型。这一举措不仅体现了微软在AI领域的雄心,也可能预示着AI行业即将迎来新一轮的竞争和创新。

已有超过2000名

读者加入交流群

我们还在等你

点这里关注我,记得标星哦~

CLICK TO SEE YOU LOOK THE BEST