引用量超过10万次,清华姚班校友,ConvNeXt、ImageBind、《无归一化的Transformer》……这些论文的作者——
普林斯顿大学助理教授刘壮,在学术圈是一个颇为特殊的存在——他的每一篇论文几乎都在质疑某个“理所当然”的假设。 架构真的重要吗?数据集真的足够多样吗?归一化层是必需的吗?大语言模型有世界模型吗?AI智能体能替代博士生吗? 在《信息瓶颈》的最新播客中,刘壮和主持人Ravid Shwartz-Ziv、Allen Roush展开了长达一个多小时的对谈,解答了这些问题。 刘壮给出了几个核心判断(太长不看版): 1、架构选什么,没你想的重要。 只要把残差连接、自注意力、归一化层、线性层这四大基础做对,不管用ConvNet还是Transformer,最终都会落在同一条性能曲线上。 过去十年真正推动AI进步的,是更大程度上是数据规模和计算规模,而不只是架构创新。 2、数据集远没有我们以为的多样。 他和何恺明做了一个实验:训练神经网络来判断一张图片来自哪个数据集。 结果在三个号称“多样化”的亿级数据集上,准确率高达80% 以上—— 说明这些数据集在模型眼里仍然泾渭分明,距离“无偏的全球分布”还差得远。 3、大语言模型有世界模型,但只在语言空间里。 LLM在高层次事件推理上表现出色,但视觉空间的精细世界模型我们还没有—— 根本原因是视觉数据的信息密度太高,现有算力还处理不了。 而且对于超过一半的工作场景(尤其是数字化的白领工作),根本不需要视觉世界模型。 4、记忆才是当前最大的瓶颈,不是能力。 现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。 我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。 5、自主科研还没到位,AI替代不了研究生。 他亲自测试过让Claude Code在一两天内独立完成一个研究项目。 结论是:低层次任务还行,但提出有意思的问题、设计实验、保持方向感——这些还做不到。 整个访谈有一条隐藏的主线:我们在AI领域里奉为圭臬的很多东西,其实是历史偶然。 而真正决定成败的,往往是那些更朴素、更无聊的因素——数据、规模、记忆。 以下是量子位梳理的刘壮最新访谈,为便于理解,有部分删减和润色,并在必要的地方添加了编者注,各位enjoy~
普林斯顿大学助理教授刘壮,在学术圈是一个颇为特殊的存在——他的每一篇论文几乎都在质疑某个“理所当然”的假设。 架构真的重要吗?数据集真的足够多样吗?归一化层是必需的吗?大语言模型有世界模型吗?AI智能体能替代博士生吗? 在《信息瓶颈》的最新播客中,刘壮和主持人Ravid Shwartz-Ziv、Allen Roush展开了长达一个多小时的对谈,解答了这些问题。 刘壮给出了几个核心判断(太长不看版): 1、架构选什么,没你想的重要。 只要把残差连接、自注意力、归一化层、线性层这四大基础做对,不管用ConvNet还是Transformer,最终都会落在同一条性能曲线上。 过去十年真正推动AI进步的,是更大程度上是数据规模和计算规模,而不只是架构创新。 2、数据集远没有我们以为的多样。 他和何恺明做了一个实验:训练神经网络来判断一张图片来自哪个数据集。 结果在三个号称“多样化”的亿级数据集上,准确率高达80% 以上—— 说明这些数据集在模型眼里仍然泾渭分明,距离“无偏的全球分布”还差得远。 3、大语言模型有世界模型,但只在语言空间里。 LLM在高层次事件推理上表现出色,但视觉空间的精细世界模型我们还没有—— 根本原因是视觉数据的信息密度太高,现有算力还处理不了。 而且对于超过一半的工作场景(尤其是数字化的白领工作),根本不需要视觉世界模型。 4、记忆才是当前最大的瓶颈,不是能力。 现有模型的推理能力已经足够强,真正缺的是稳定的长期记忆。 我们需要那么多智能体协作,恰恰是因为一个智能体记不住所有事情。 5、自主科研还没到位,AI替代不了研究生。 他亲自测试过让Claude Code在一两天内独立完成一个研究项目。 结论是:低层次任务还行,但提出有意思的问题、设计实验、保持方向感——这些还做不到。 整个访谈有一条隐藏的主线:我们在AI领域里奉为圭臬的很多东西,其实是历史偶然。 而真正决定成败的,往往是那些更朴素、更无聊的因素——数据、规模、记忆。 以下是量子位梳理的刘壮最新访谈,为便于理解,有部分删减和润色,并在必要的地方添加了编者注,各位enjoy~
行业密探


JPG
长图
GIF
长图
GIF
长图
JPG
长图
JPG
长图
JPG
长图
JPG
长图