奇月 发自 凹非寺量子位 | 公众号 QbitAI

AI末日将近?

深度学习三巨头之一、被称为AI教父的Hinton教授在最新演讲中指出,技术的发展速度远远超出了他的预期,如果再不加以监管人类将会在10年内灭绝:

打开网易新闻 查看更多图片

不过,同为深度学习三巨头之一的LeCun教授则表示:夸大了。

在最新采访中,LeCun表示,自己还是非常看好人工智能的未来的。

对人工智能末日的担忧被夸大了。
我觉得,对于推动社会进步来说,智能是我们社会目前最急需的、最宝贵的东西之一。能有效增强人类智能的机器所产生的影响,可能会和15世纪印刷术的发明一样具有变革性。

打开网易新闻 查看更多图片

与LeCun对谈的主持人是加州大学圣地亚哥分校校长杰出物理学教授Dr.Brian Keating,他还特地带上了最新的Meta Ray-Ban智能眼镜,表示非常欣赏这个产品。

虽然LeCun曾主张“LLM还没有猫聪明”,但其实他在Meta的FAIR团队一直在努力建构下一代被称为“世界模型”的AI模型:

单纯凭借预测下一个单词很难抽象出事物的运行规律,所以我们需要更高级的视觉预测,这也是JEPA架构正在做的事情。

谈到Meta的规划,LeCun表示人类级别的人工智能是Meta不可避免的“产品需求”,他们正在开发超级智能助手,未来这些助手会将人与人、人与知识和他们所需的帮助联系起来。

有网友看完表示非常赞同,人类水平的AI可以重新定义当下的技术与互动:

打开网易新闻 查看更多图片

下面是采访的主要内容,在不改变原意的前提下,量子位对部分内容做了梳理,希望能带给你更多启发。

下一代模型需要类JEPA新架构

一开始,主持人就cue到了他那句经典的“现在的LLM还没有猫聪明”,杨立昆也再次重申了大型语言模型(LLM)的局限。

他认为,这些大型语言模型主要就是靠着文本训练出来的,它们对现实世界的了解,全是通过人类带有象征意味的、近似且离散的描述来获得的,所以难以处理复杂现实世界中的事物。

虽然LLM可以轻松通过律师资格考试这种偏文本知识的事,但生活中普通10岁小孩或者小猫能轻松做到的事,比如规划一下怎么够到高处的东西、根据实际情况推理、还有对身边那些直观物理原理的把握,这些它们就无法实现了。

它们更像是知识的搬运工,只能检索已有知识,缺乏像爱因斯坦那样能创造新物理定律的洞察力,也很难用于预测化学反应、材料特性这类需要创新突破的科学发现事务中。

同时,杨立昆还着重介绍了自己钻研多年的联合嵌入预测架构(JEPA)这一自监督人工智能方法。

打开网易新闻 查看更多图片

目前常见的自监督学习方式在处理自然数据,比如视频、图像等方面存在不足,类似掩码自编码器之类的方法效果欠佳。

主要原因在于预测连续、高维的连续信号并表示其所有可能的概率分布非常复杂,所以常常导致预测结果仅是所有可能情况的平均值,容易出现画面模糊不清等情况。

而JEPA则有着独特的理念,涉及对信号进行表征形成 “嵌入”,以及利用图像及其变换后版本进行 “联合嵌入” 等操作。

什么是嵌入呢?就好比一幅图像,我们不关心每个像素的精确值,而是用一个数字列表,也就是向量来代表图像内容,这就是嵌入,它不展现所有细节。

联合嵌入,就是拿一幅图像和它稍微变换后的版本,比如换个视角的图像,它们内容其实一样,那嵌入结果也该相同。

JEPA的训练过程就是给它同一事物的两个不同版本图像,让它生成相同嵌入结果。“预测” 部分是这样的,如果一个图像版本是视频里的一帧,被破坏的版本是前一帧,那就根据前一帧预测下一帧或接下来几帧。

这样就有两个嵌入,一个对应视频未来部分,一个对应过去部分,还有个预测器根据过去表征预测未来表征。

他表示,用这个架构训练系统学习图像表征效果很棒,最近连视频表征也能学得不错了。

打开网易新闻 查看更多图片

在介绍完新架构之后,杨立昆也表达了自己对于机器学习和物理学之间的联系的理解:

机器学习与科学,尤其是与物理学相联系的本质所在,就是系统在接受训练时,它会同时训练自己去找到输入内容的良好的抽象表征层级,尽可能多地保留输入信息,但同时又要保证具有可预测性,这才是智能的根源所在 。

自监督学习就像AI的暗物质

在深度学习先驱的身份之外,杨立昆表示,自己也一直是一位务实的物理学家。

他曾在8年前的一次演讲中提出“自监督学习就像是人工智能领域的暗物质”这个说法,当时他的同事凯尔·克兰默(纽约大学高能物理学家)还指正说,用暗能量类比更合适,毕竟宇宙大部分质量是暗能量。

在物理学中,暗物质的存在是公认的,比如中微子是暗物质的一种形式,可它的量又不足以解释人类观测到的缺失物质总量。

打开网易新闻 查看更多图片

杨立昆解释道,人类学的大部分东西,都不是靠别人告诉答案或者试错学来的,而是通过自监督学习(或者类似方式)去了解感官输入信息的结构、自己慢慢感悟出来的,而不是监督学习或者强化学习。

监督学习就是给系统明确的输入和输出,比如给它看大象图片,告诉它这是大象,答错了就调整参数让它答对。

强化学习是给系统看大象后,只告诉它答得对不对,或者给个类似分数的评价,如果有无限个答案,它就得在里面慢慢找正确的,效率很低。

强化学习和监督学习都解释不了在人类和动物身上看到的高效学习现象。像章鱼、鸟类这些动物,没有过多的教育,却懂得很多,这就是不太明确的无监督学习,而且大型语言模型的成功也证明了自监督学习能力很强。

他还表示,自己一直对物理学和计算之间的联系很着迷,约翰·惠勒曾做了一个叫《万物源于比特》的演讲,说世界到底就是信息,得从信息处理角度阐释物理内容,他觉得这个想法很有趣。

谈到AGI实现的时间,他表示:

要打造出一个至少在大多数人看来具备和人类同等智能水平的系统,前提是我们设想的所有计划都能奏效,比如JEPA以及其他一些想法,即便如此,我觉得这在不到五六年的时间内是实现不了的。而且人工智能发展的历史表明,人们总是低估它的实现难度,五六年是最理想的情况。

同时, 他还强调人们对于AI末日的担忧被夸大了

我们可以设定相应的“护栏”机制确保人工智能系统拥有安全的目标,而且只会处理信息的LLM还不存在像人类和动物一样的社会性驱动力,比如更多的领地、更大的权力等。

在探索科学的道路上犯错很常见

在访谈的最后,杨立昆还分享了他对AI发展历程、自身职业经历以及未来的展望。

他表示,自己既是一名科学家,也是一位教育者,在工业界和学术界的时长都差不多。

早年从贝尔实验室工作,后在日本电气公司(NEC)研究院短暂任职,直至40岁出头成为教授,随后加入Meta,负责运营脸书人工智能研究院(FAIR)长达4年,如今担任 Meta 的首席人工智能科学家。

目前,他正在以独立贡献者的角色推动人工智能技术的进步,致力于探索实现人类水平智能的道路,这也是他毕生的科学追求。

在谈及Meta公司的未来发展方向时,杨立昆指出,Meta公司在马克·扎克伯格的引领下,有一个宏大的愿景,就是通过技术手段连接人们,不仅是人与人之间的连接,还包括人与知识的连接以及在日常生活中为人们提供帮助。

未来,每个人都将拥有超级智能助手,这种智能助手的广泛应用需要具备人类智能水平的人工智能技术作为支撑,Meta 也在朝着这个方向积极打造相关设备,并已在印度农村地区开展了智能眼镜的试用。

当地农民借助智能眼镜解决了诸多农业生产中的实际问题,比如农作物病虫害识别、天气查询以及收割时机判断等,同时还能使用本地语言进行操作。

打开网易新闻 查看更多图片

谈到人工智能对教育职业的影响时,他认为,随着人工智能技术的不断发展,知识传授这一传统职业将面临深刻变革,科研与学术研究领域可能需要探索新的经济模式,以适应技术发展带来的变化。

尽管如此,他还是强调:

博士培养过程中导师与学生之间的关系具有非常重要的意义,这种关系不仅仅是知识的传递,更包含行为规范、道德伦理等方面的交流与传承,而在未来,每个人包括学生都将在人工智能系统的辅助下进行学习与研究,这将成为一种新的趋势。

值得一提的是,杨立昆还分享了自己在学术观点上的转变历程:

在探索科学的道路上犯错是非常正常的。

在神经网络发展的早期,尤其是在1987至1988年跟随Hinton做博士后期间,他对无监督学习这一概念并不认同,认为其定义不够清晰,缺乏实际意义。

然而,Hinton当时专注于玻尔兹曼机的研究(后因此获得诺贝尔奖,尽管如今玻尔兹曼机已较少使用),并坚信无监督学习将是学习的主体部分。

随着时间的推移和技术的发展,在进入21世纪后,他才初逐渐认识到无监督学习的重要性,并从2010年开始积极倡导这一理念。

更多采访内容请点击下方链接查看。

[1]https://www.youtube.com/watch?v=u7e0YUcZYbE