【环球网报道 记者 王雨琪】4月25日,360集团创始人周鸿祎在北京车展结束后,奔赴2024中关村论坛年会会场。对于此次北京车展,他谈到了大模型应用于自动驾驶的感受。

打开网易新闻 查看更多图片

一是多模态感知赋予车辆“眼睛”和“耳朵”。周鸿祎称,大模型技术不仅提升了语音交互的能力,还增强了车辆的视觉和感知能力。通过多模态处理,车辆能够更好地理解车内和车外的环境,如通过摄像头识别驾驶员的手势,甚至感知驾驶员的情绪状态。这种能力的提升,为车辆带来了更丰富的交互方式和更深入的安全保障。

二是逻辑推理与规划成为车辆的“大脑”。搭载了大模型的车辆,不再仅仅是执行命令的机器,它们开始具备了逻辑推理和规划的能力。这意味着车辆能够根据当前的情况和用户的需求,做出更加智能的决策。“比如,当驾驶员表示饥饿时,车辆能够根据车内的食物存储情况,推荐合适的食物。”周鸿祎表示。

三是自动驾驶迈向更高级别的自主性。在自动驾驶领域,大模型技术的应用同样具有革命性意义。通过学习量的驾驶案例,大模型能够形成举一反三的能力,提高自动驾驶系统在复杂环境下的适应性和决策能力。这为实现更高级别的自动驾驶提供了可能。

从商业角度来看,大模型技术的应用将为汽车行业带来新的商业模式和服务。汽车的设计、制造和使用周期将更加接近快速消费品或数码产品的开发和更新节奏,这将对整个汽车产业的生态产生深远的影响。

来源:环球网