打开网易新闻 查看更多图片

近期,关于大语言模型(LLM)在 Scaling Law 方面的瓶颈引发热议。据报道,OpenAI 新一代模型在性能提升上的表现未达预期,尤其在编程任务中的改进幅度有限。这是否意味着大模型的性能提升已进入收益递减阶段?国内外技术条件是否存在差异?

而在模型规模不断扩大的今天,“量变引起质变”的关键是什么?高质量训练数据的稀缺性、计算资源的限制会对模型的进一步突破产生多大影响?我们是否在追求极限的过程中忽视了现有技术的优化价值?

此外,大模型项目的“成功”又该如何定义?从业务收益到用户体验再到行业发展的长期贡献,不同视角下,评估标准各不相同。在有限资源下,如何平衡成本与收益,最大化模型的经济价值?

11 月 20 日晚上 20:00,我们邀请了来自百度、京东和中科大的三位专家,共同探讨这些关键问题。Scaling Law 是否真的“撞墙”?未来 LLM 该如何破局?一起在直播中探讨!

直播介绍

11 月 20 日 晚上 20:00~21:30

直播主题

Scaling Law,撞墙了吗?

嘉宾阵容

  • 颜林,百度 / 主任架构师,信息流推荐架构负责人。拥有近二十年互联网及 AI 领域经验,现担任百度 App 信息流推荐架构负责人。在大规模推荐系统架构、AI Native 应用架构、数据湖仓平台、AB 实验平台和机器学习服务方向有多年深厚积累。

  • 张泽华,现任京东集团算法总监、京东零售算法通道委员,IEEE 国际标准工作组副主席,并于中国计算机学会担任标准工委执行委员、大数据专委委员。专注广告算法领域在零售业务的研发实践,推动广告核心场景算法效率增长,带领团队自研大规模分布式生成式广告算法推理能力,取得数倍推理加速效果。

  • 王皓,中国科学技术大学特任副研究员。研究方向为数据挖掘与深度学习,主持国家自然科学基金青年基金、CCF- 腾讯犀牛鸟基金和阿里巴巴创新研究计划 (AIR) 等项目,在 KDD、NeurlPS、TKDE、TOIS 等高水平期刊和会议上发表论文 50 余篇,获中国科大“墨子杰出青年特资津贴”资助,担任如 KDD、NeurlPS、WWW 等国际程序委员会委员及 TKDE、TOIS 等高水平期刊审稿人,人工智能智能计算服务专委会委员,相关工作 Google 学术引用 1400 余次。

核心话题

  • Scaling Law 已撞收益递减墙?

  • LLM 性能提升是否已进入收益递减阶段?

  • 大模型从量变到质变的关键是什么?

  • 如何最大化模型的经济价值,平衡成本与收益?

直播亮点

  • 热点讨论:大语言模型在 Scaling Law 方面真的遇到瓶颈?

  • LLM 性能提升是否已经进入收益递减阶段

  • 在资源有限情况下,如何最大化模型的经济价值、平衡成本与收益

如何看直播?

戳下方直播预约按钮,预约 InfoQ 视频号直播。

如何向讲师提问?

文末留言写下问题,讲师会在直播中为你解答。