打开网易新闻 查看更多图片

让具身智能建立“可计算、可预测、可执行”的内部世界模型。

2026年,极有可能会被后来人标记为具身智能的分水岭。过去两年,我们见证了人形机器人赛道的大爆发,他们成为聚光灯下的宠儿。然而,在繁荣的Demo表演的背后,一种心照不宣的焦虑正在整个行业蔓延:为什么在发布会上能跳舞、能叠衣服、甚至能后空翻的机器人,却无法走进真实的工厂和家庭厨房?

“现在行业的瓶颈,不在于机器人能不能动,而在于真实世界的长尾可靠性。”宸境科技联合创始人兼CEO胡闻一针见血地指出。通俗点说,机器人不仅要能作对一次动作,更要在不可控的开放环境里,把任务做一万次且不出错。

胡闻算了一笔账:“客户买的永远是‘单位任务成本’和‘Uptime(无故障运行时间)’。在Demo里,你可以通过预设和遥操作来‘作弊’,但在真实世界里,光照变化、地面湿滑、甚至一把椅子的摆放位置不同,都能成为摧毁机器人逻辑的长尾场景。算不过来这笔账,具身智能就永远只能停留在实验室的展示柜里。”

宸境科技是空间智能领域的硬核玩家,致力于构建连接物理与数字世界的“空间基础设施”。

当整个行业都在试图跨越Demo到落地的“死亡谷”时,宸境科技选择了一条极具挑战、却又或许是极大可能的路径:抛弃昂贵的激光雷达,用纯视觉方案重构具身智能的“眼”与“脑”。

告别“框选万物”,拥抱“空间智能”

大模型攻克了“听懂人话”的难关,而具身智能面临的是更棘手的深渊:赋予机器在物理世界中绝对精准的“几何感知”。这种感知是要在毫秒级运动中,实时丈量出世界的三维结构,并构建严谨的时空坐标系。

“AI教母”李飞飞教授提出的“空间智能”概念,开启了AI主动探索世界的历程。简而言之,就是让AI拥有“物理直觉”,能时刻感知自身姿态、位置及物体的几何距离。

在胡闻看来,这正是宸境科技多年来深耕的技术腹地。作为一家早在2019年就开始布局“镜像宇宙”的空间计算公司,宸境科技致力于将真实的物理世界,以1:1的比例在云端克隆出一个数字孪生体。这种对“空间一致性”的极致追求,让宸境科技在相关底层技术上构建了极高的壁垒。

传统的机器视觉往往只输出一个二维标签(如“这是瓶子”),但这在物理交互中是苍白的。真正的空间智能输出的是“空间结构+空间坐标+动态关系”。无论机器人如何剧烈晃动,它都能死死咬住目标的绝对坐标和几何姿态。这种高精度定位能力,是机器人执行精密抓取的前提。

宸境科技即将发布的新产品,核心是让机器人建立“可计算、可预测、可执行”的内部世界模型。这种从“识别”到“测量”的代际跨越,意味着机器人不再依赖高精地图或二维码,而是像人类一样,通过双眼形成生物级的“空间直觉”。

拥抱特斯拉FSD,纯视觉的进击

在感知路线上,特斯拉Optimus彻底转向纯视觉端到端训练,标志着行业“新公约数”的形成:尽可能与人类共享同样的视觉模态,机器人才能复用人类社会的物理规则。

在胡闻眼中,纯视觉不仅是未来的终局,更是当下的最优解。“我们坚定选择以视觉感知为核心的全栈方案,是基于三个落地底层事实:可规模化、可泛化、可持续迭代。”

首先是成本铁律。要把能力装进百万台机器人里,传感器必须便宜且量大。摄像头作为消费电子里的成熟组件,符合摩尔定律,而激光雷达的降本曲线依然难以支撑家用场景。

更关键的是信息密度。激光雷达只能提供几何位置,而视觉包含了语义、纹理、物理属性等海量信息。“视觉携带的信息量是最大的。从道路结构到室内场景,本质是同一个世界模型的问题。我们期待Scaling Law(规模效应)能像在LLM上一样,在视觉模型上复现。只有纯视觉,才能喂饱那个通用的世界模型。”胡闻强调。

当然,纯视觉曾有短板。传统的视觉方案非常“娇气”,它怕反光,遇到落地的玻璃门或不锈钢台面,往往会产生“幻觉”,把玻璃看成空气直接撞上去,或者被反射的虚像带偏了路;怕强光,光照条件的剧烈变化会让它丢失深度信息;也怕运动,当机器人快速转身或转身或走路颠簸时,画面会产生动态模糊,机器人瞬间就会“晕头转向”,导致定位漂移。

而这,恰恰是宸境科技此次新品试图攻克的“死穴”,通过端侧大算力和独创算法,让视觉感知在工业级的环境下依然稳如泰山。

做具身智能时代的“卖水人”

随着赛道变得拥挤,自研顶级视觉系统对许多机器人厂商而言可能是巨大的“战略陷阱”。“全栈自研是一场消耗大量资金与顶级人才的长期战争。对于本体厂商,最稀缺的是时间窗口。”胡闻直言。

宸境科技给即将发布的新品自主空间AI摄像头做了一个清晰的定位:做机器人的“标准化眼睛”和“世界模型入口”。胡闻表示,产品的商业路径清晰:“既是机器人To C和To B规模化的关键瓶颈之一,也是最容易形成平台化规模经济的环节之一。”胡闻透露,宸境科技的新品已经与行业“顶流”宇树科技达成合作。此前,宇树凭借G1、H1等产品在运动控制领域独步天下,但在复杂环境感知的鲁棒性上,行业一直期待出现更强的解决方案。

作为公认的硬核技术派,宇树科技对硬件的要求近乎苛刻。“宇树科技是极致的技术驱动,他们已经在多个场景开始测试和部署我们的Looper Robotics 这套视觉感知方案。”胡闻透露。能通过宇树的严苛测试,甚至在抗震指标上达到24g加速度量程,能适配高动态作业需求,本身就证明了这套视觉方案的工业级实力。

2026年1月28日上午,宸境科技将在杭州举办新品发布会,正式启动面向具身智能的LooperRobotics品牌并揭晓其产品矩阵。这可能是目前市面上极度接近“空间智能”终极形态的产品组合:

Insight全自主空间智能相机:一款为具身智能量身打造的智能相机。它搭载大算力神经网络计算单元,将原本沉重的AI算法直接推向端侧边缘,并且内置高性能VSLAM引擎,大大拓展了端上感知的边界。配合188°超广角镜头与24G超大加速度量程,它能在极端运动下实时处理复杂的空间信息,为机器人提供如生物般敏锐、稳健的视觉反馈。

TinyNav高性能导航算法库:一套轻量化高精度3D导航算法库,是机器人的“空间潜意识”。它打破了传统导航对昂贵算力的依赖,在低成本嵌入式系统上亦能提供稳健的定位与建图能力。TinyNav深度优化的局部感知能力,确保机器人在高不确定性的复杂环境下保持极高的鲁棒性。

RoboSpatial空间编辑工具链:一套面向具身智能行业应用的3D空间编辑工具。它将复杂的空间智能能力解构为易用的“增删改查”操作,开发者可以像编辑文档一样在3D实景中定义POI、设定任务逻辑。它与底层系统的无缝打通,让具身智能应用的落地从“月”缩短到“天”。

当机器人真正拥有了空间智能,它将不再是机械执行指令的机器。具身智能“睁眼”的时刻,从LooperRobotics开始。