打开网易新闻 查看更多图片

智东西(公众号:zhidxcom
作者香草
编辑李水青

智东西6月28日报道,今天,百度在WAVE SUMMIT深度学习开发者大会2024上,正式发布文心大模型4.0 Turbo版本,其同步上线网页端和API接口,App端也将陆续上线。

打开网易新闻 查看更多图片

▲文心大模型4.0 Turbo API开放

同时,飞桨平台发布新一代飞桨框架3.0 Beta版本,具备大模型训推一体、动静统一自动并行、编译器自动优化以及大模型多硬件适配等特色。

百度智能代码助手Baidu Comate升级至2.5版本,开发、业务迭代及企业落地速度大幅提升,并拥有了全新的中文名“文心快码”,正式加入百度“文心大家族”。

据百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰介绍,文心一言目前用户规模已突破3亿,每日调用量超过5亿;飞桨平台已累计服务1465万开发者、37万企业,构建了超95万个模型。

一、用户规模突破3亿,文心大模型4.0 Turbo上线

经过几十年的发展,AI技术从早期的人工撰写规则,到后来的统计机器学习,演进到深度学习时代,再到大模型时代,算法、模型变得更加通用和统一。

王海峰谈道,大模型为AGI带来曙光,可以从两个角度解读,一是AI技术的通用性,二是AI能力的全面性。其中,全面的AI能力主要包括理解、逻辑、生成、记忆四个部分。

百度于2019年3月推出文心大模型1.0,经过多次迭代,其4.0版本于去年10月发布。目前,文心一言累计用户规模已达3亿,日调用次数5亿。

今天,百度推出文心大模型4.0 Turbo版本,其网页端、API即日起面向用户开放,App端也将陆续上线,企业用户可登录百度智能云千帆大模型平台调用API服务。

打开网易新闻 查看更多图片

▲文心大模型4.0 Turbo发布

文心4.0 Turbo在生成速度和效果上大幅提升。王海峰现场演示了其与4.0版本的生成效果对比,在相同的提示词下,4.0 Turbo的生成速度明显更快,生成内容也更具条理性。

打开网易新闻 查看更多图片

▲文心4.0 Turbo与文心4.0生成速度对比

在基础模型升级上,百度进一步研发了智能体(Agent)机制,包括理解、规划、反思和进化,使其能够可靠执行、自我进化,并一定程度上将思考过程白盒化,让大模型像人一样思考和行动,调用工具自主完成复杂任务,在环境中持续学习实现自主进化。

打开网易新闻 查看更多图片

▲基于文心大模型的智能体升级

百度还与中国工程院朱有勇院士及团队共同打造了首个农业智能体“农民院士智能体”,其基于文心智能体平台创建,吸收了朱有勇院士的研究成果以及相关的农业知识,可以为农民解答生产生活中的问题。

打开网易新闻 查看更多图片

▲农民院士智能体

百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜谈道,在过去半年,用户使用文心大模型的日均提问量提升了78%,提问平均长度提升89%,使用的提示词变得越来越复杂、具体。

大量的应用基于文心大模型进行创新,截至目前,文心一言已经创作了5.9亿篇文章,绘制了2.4亿张图片,生成了70亿行代码,共辅助了1.3亿人次工作。

打开网易新闻 查看更多图片

▲文心大模型累计成效

吴甜还分享了文心大模型星河共创计划取得的成果,自去年8月启动以来,已创建1000+大模型工具,超55万AI应用,积累了超1000B高质量数据。

例如,百度与长光卫星技术有限公司合作开发了共生地球智能助手,上线首月就服务了3.1万用户,解答遥感技术问题超3.8万次。

二、飞桨推出3.0测试版,四层框架、四大优势

飞桨是百度推出的开源开放产业级深度学习平台,据王海峰介绍,其目前已累计服务1465万开发者、37万家企业,创建了95万个模型。

今天,飞桨框架3.0 Beta版本正式发布,具备动静统一自动并行、编译器自动优化、大模型多硬件适配、大模型训推一体4大特点。

打开网易新闻 查看更多图片

▲百度飞桨框架3.0 Beta

在设计理念上,考虑到大模型和异构多芯发展趋势,为了保障大模型训练推理性能、简化大模型开发调优过程以及更好地适配各种芯片,飞桨与文心联合,在训练、推理两个方面定向优化。

打开网易新闻 查看更多图片

▲飞桨框架设计理念

具体来说,动静统一的自动并行能力通过极简开发,实现大模型的混合并行训练,可以将分布式训练核心代码量减少50%以上,典型模型训练性能领先20%。

编译器自动优化能高效支撑大模型与AI科学计算,通过一体化设计提升通用模型训练效率,将大模型推理通用性能提升30%,典型科学计算模型求解速度领先71%。

打开网易新闻 查看更多图片

▲编译器自动优化

在大模型多硬件适配方面,通过低成本的硬件接入支撑软硬协同优化,开发者仅需适配30余接口即可全面支持大模型训练、压缩、推理。

大模型训推一体是飞桨框架3.0的核心特色,通过训练、压缩、推理的无缝衔接,实现RLHF训练复用推理引擎加速2.1倍,量化压缩复用分布式策略效率提升3.8倍。

打开网易新闻 查看更多图片

▲大模型训推一体

从整体框架来看,飞桨3.0分为表示层、调度层、算子层、适配层共4层架构。值得注意的是,飞桨3.0的开发接口和2.0版本完全兼容,用户无需将代码推翻重来。

打开网易新闻 查看更多图片

▲飞桨3.0框架

飞桨还针对AI for Science进行了优化,能够适配主流科学计算库130多个模型,覆盖数据、机理、数理融合的全球求解模式,能广泛支持科学问题分析,其中基于高阶自动微分及编译优化技术,方程求解类模型对比PyTorch求解速度平均领先71%。

三、智能代码助手升级2.5版本,覆盖百度内部80%程序员

百度副总裁陈洋发布了智能代码助手Comate的2.5版本,升级后的代码助手集成了更多研发知识,覆盖流程更全面。

打开网易新闻 查看更多图片

▲百度智能代码助手升级2.5版本

同时,该助手还拥有了中文名字——文心快码,正式加入百度文心大家族。

陈洋介绍道,文心快码的“快”主要体现在3个方面:开发速度快、业务迭代快、企业落地快。

打开网易新闻 查看更多图片

▲文心快码2.5

具体来说,在开发速度上,文心快码融合了更多研发知识,包括数百位技术专家的实践经验、十亿级研发领域知识以及上万企业的研发场景。

在百度内部使用中,基于文心快码生成的开发框架代码准确度达到80%,单位时间内提交代码数量提升了35%。

打开网易新闻 查看更多图片

▲文心快码开发速度提升

在业务迭代上,文心快码无缝集成研发各个环节,包括需求的调研、设计,代码的编写、测试、发布等。

陈洋称,在百度研发环节的单点提效上,基于文心快码的单行代码编写时长压缩到1.74秒,部署脚本自动生成达到秒级,单次线下环境部署耗时节省10分钟以上。总的来说,对单个工程师的研发整体提效超过14%。

打开网易新闻 查看更多图片

▲文心快码业务迭代速度提升

在企业落地层面,针对行业规范差异、企业私域知识、代码助手与企业内部工具结合等痛点,文心快码提供安全可信、适配业务等核心能力。

经过1年的实践周期,在百度内部过万名工程师中,文心快码的覆盖率已达到80%,其生成代码的采用率达到46%,新增代码生成占比29%。

陈洋还分享了标杆客户喜马拉雅的落地案例,其只用1个季度,就实现了工程师中90%的覆盖率,代码采纳率达到44%,新增代码生成占比33%。

打开网易新闻 查看更多图片

▲文心快码企业落地案例

喜马拉雅CTO姜杰称,文心快码与喜马拉雅积累的研发能力、知识相融合,大幅缩短了技术调研和代码编写时间,极大提升了企业整体研发效率和产品质量。

目前,文心快码提供标准版、专业版、企业版以及企业专有版共4个版本,其中专业版面向专业开发者限时开放,基础功能和高级功能与模型不限量使用。

结语:AI进入工业大生产阶段

从历史的角度来看,纵观前三次工业革命,其核心驱动力量机械技术、电气技术和信息技术都具备很强的通用性。王海峰谈道,当它们呈现出标准化、自动化和模块化的工业大生产特征时,核心技术就进入工业大生产阶段。

目前,包括算法、数据、模型、工具等在内的AI技术,也已经具备了较强的通用性,并具备了标准化、模块化和自动化的特征,推动AI进入工业大生产阶段。