编辑部 发自 凹非寺量子位 |公众号 QbitAI

具身智能,无疑是2024最热科技话题之一。

很多人会好奇,有着超级AI大脑的机器人,何时能够参与到我们的日常生活当中?什么时候才能给我们建立一个真实的物理世界模拟器?

现在,国内具身智能创新应用引领者云深处,在MEET 2025智能未来大会上分享了自己的观点:

具身智能提高了传统机器人的泛化能力,处理真实环境中的复杂数据仍是未来训练重点。
目前具身智能行业处于L2级,工业场景中的需求非常明确。

云深处科技公司成立于2017年,专注于具身智能的研发与应用,拥有超过15年的腿足机器人研发经验,其产品已在电力、消防、救援、建筑、安防等多个行业中实现商业化应用。

在MEET 2025智能未来大会上,量子位邀请到了云深处科技公司的联合创始人兼CTO李超,探讨了云深处科技公司旗下机器人产品的发展历程、目前具身智能行业的发展重点、未来公司的商业和技术方面的规划等话题。

打开网易新闻 查看更多图片

MEET 2025智能未来大会是由量子位主办的行业峰会,20余位产业代表与会讨论。线下参会观众1000+,线上直播观众320万+,获得了主流媒体的广泛关注与报道。

打开网易新闻 查看更多图片

核心观点梳理

  • 多模态数据真实性(To-Real问题)仍是制约具身智能进一步发展的关键因素之一。
  • 类似于自动驾驶的分级标准,具身智能也呈现出从L0到L4的不同级别,目前基本处于L2阶段。
  • 行业内对具身智能的未来充满乐观,预计将在工业及其他非家用场景中率先实现大规模商业化应用。
  • 云深处通过对具体场景做适配、并对模型能力进行约束,已实现强化学习算法的产品化落地

以下是李超在MEET大会现场圆桌论坛的QA实录,为了完整体现他的思考,在不改变原意的基础上,量子位对问答部分进行了编辑整理,希望能给你带来更多启发。

提高传统机器人智能泛化能力

量子位:云深处很早开始就直奔具身智能终点,做仿生类形态,你们是怎么思考这个问题?

李超:云深处科技从今年开始专注具身智能的技术创新与行业引领,客观来说我们云深处是具身智能第一批受益者,也真实产生了一些市场价值。

我们最早是做机器狗的,几年前,这些机器狗很多是基于模型进行控制,它的泛化能力和适应性没有现在这么好。

打开网易新闻 查看更多图片

这两年我们在这方面持续投入,去年整个团队就已经在做跟训练相关的具身智能,去年开始我们的四足机器人有了很好的应用,今年开始规模化应用。

我们有面向一些消防场景,还有救援的、特种的,包括电力巡检等,具身智能给机器人赋予了灵魂,有了这个灵魂加持,加上机器人的应变能力本身也很强,目前已开始实现一年增长两三倍的规模化应用。

到明年还会有更多应用,面向更开放的环境,陆陆续续会在一些民用的场景有更好的应用。

打开网易新闻 查看更多图片

量子位:具身智能这个概念来自于艾伦·图灵,是他在半个世纪以前开始定义或者构想的事情,到现在我们才真正定义元年,云深处当时是看到什么趋势,或者产业内有什么样技术或者要素变化,让你们觉得可以开始做具身智能了?

李超:具身这个概念早些年其实我不太熟悉,云深处团队,包括浙大团队,最早是把学习引入到机器人控制中。

我们在2019年时其实就做了这个工作——多专家系统,也登上Science Robotics子刊。

打开网易新闻 查看更多图片

但是这里面的工作,是不是真的能超过以前的一些算法,能否实现产品化落地,才是更加重要的部分。云深处花了三年时间才真正把强化学习的东西做落地。

机器人在应用的时候要基于具体的一个场景做适配,对它的能力要进行一定*约束。

我们现在感觉,智能模型的能力有点太强了,如果放在机器人身上,能力会超出我们之前的预期。

核心的一点是,以前早期的机器人是基于规则的控制,但现在基于训练的方法,能力极大超出了我们认知的边界,而且还在不断进化。

随着机器人能力的增加,以前我们觉得只能在固定场景下应用,但今年在完全开放的环境里效果也可以非常棒。

我们上月发布的轮足形态机器人山猫,对这个行业来说是有颠覆性的,尤其是对未来二、三十公斤以下的移动平台来说。

打开网易新闻 查看更多图片

它可以用最好的能力解决各种小场景下突破性的问题,是一个极大的提升,它相当于一个有生命的物理系统,这是我们最大的感受。

重点是处理复杂真实场景中的数据

量子位:数据在你们的实践落地过程中是一个关键挑战吗?

李超:目前客观地说还不是,云深处有一个很重要的使命,让AI+机器人的技术真正落地,产生价值。目前从我的角度看,除了数据,还有技术的成熟度商业的成本,包括部署等挑战。

在机器人能力层面,云深处做本体和小脑会更多一点,在数据层面上,确实没有遇到太多的障碍,因为数据没有大模型用的这么多。未来要结合更复杂的场景空间和操作,到明年这方面应该是我们的一个挑战。

量子位:对于如何处理真实数据,像类似Sora的模型,或者Sim-To-Real的解决方法,您有什么看法?

李超:我们经常困扰在To-Real这个事情里面,确实是问题很多。

刚才说到动画的数据,可能体现在一些色彩,真实的场景里面的数据,还包括质感等更多方面,我们希望有更加多模态的。

比如像机器人在野外行驶的时候,看到一些草地,或者和雪地、水这些东西融合在一块,对机器人来说如何做出通过与否的决策,这个是现在蛮大的一个挑战,这些都是To-Real的问题,我们每天都在解决这样的问题。

打开网易新闻 查看更多图片

工业生产场景中需求明确

量子位:像云深处这样实践者,你们会考虑把具身智能实践按照一些能力技术的标准去划分吗?类比智能驾驶领域里面的L2—L5的划分,你们会有类似的标准吗?

李超:有,而且很明确,去年以前我们很多是L1,准确说是L0,因为有很多行业应用,比如消防和应急救援,还是人在操控。

打开网易新闻 查看更多图片

现在我们用的最多的,工业巡检场景下,在固定场景下、小范围的L4,机器人自主去做决策,去做判断,这是分行业的。

但是像山猫机器人在开放环境下,我们觉得目前是L2多一点点,大部分情况下它可以靠自己判断去做,还有一半时间需要靠人做决策。

明年希望进化到L3级别,但对机器人来说场景太大了。

打开网易新闻 查看更多图片

量子位:类比ChatGPT的发展轨迹的话,您觉得现在是具身智能的几点0?

李超:我更乐观一些,因为刚好处在这个行业里面,我们也解决了很多恶劣环境下的实践。

第一个被改变的格局还不确定,有些公司太瞄准家用,家用是不是很快有这些需求还不确定。

但是我相信在工业生产中,很多场景已经发生深刻的改变了,我处在这个圈子里面已经感受很大了。

打开网易新闻 查看更多图片