打开网易新闻 查看更多图片

在美国德州发生的特斯拉Model S致命车祸事件仍在发酵,引发了更多关注和讨论。

负责监管车辆安全的美国国家公路交通安全管理局(NHTSA)和美国国家运输安全委员会(NTSB)周一宣布,正在调查这起事故。

北京时间4月20日早间,特斯拉CEO马斯克(Elon Musk)也打破沉默,首次针对此次事故发声。

马斯克在Twitter上表示,迄今提取到的数据显示,该车发生车祸时没有使用特斯拉自动辅助驾驶系统Autopilot,而且这辆车也没有配备FSD(完全自动驾驶套件)。

图源:马斯克Twitter

马斯克称,“此外,标准的自动辅助驾驶需要有车道线才能开启,而出事街道上没有。”

Autopilot是特斯拉汽车的标准配置,但并不总是能完美地识别车道标记,比如会混淆道路或自行车道上的密封裂缝和其他车道标记。

对于马斯克的发言,正在调查此事的哈里斯县第四分局警员马克·赫曼表示,这是警员们第一次听到来自该公司的消息。

赫曼称,“如果他已经调取了数据,他还没有告诉我们,我们正急切地等待获取这些数据。”

赫曼反驳了马斯克的说法,称有目击者的证词:这两名男子离开是为了试用自动驾驶功能,向朋友展示汽车如何能自己驾驶。

赫曼对路透社表示,德州警方周二将向特斯拉发出搜查令,以获取周末发生车祸的车辆数据。

可以看出,特斯拉的Autopilot系统是Model S致命车祸事件的一个关键。事实上,Autopilot的使用此前已引起美国监管部门的关注。

美国国家公路交通安全管理局(NHTSA)上个月表示,正在调查近二十多起涉及特斯拉的事故,这些事故发生时,要么涉事特斯拉汽车正在使用Autopilot功能,要么可能一直在使用Autopilot功能。

被夸大的自动驾驶功能

事实上,Autopilot这项功能自推出起,就充满了争议。

特斯拉于2015年推出Autopilot功能。Autopilot本义是飞机的自动驾驶系统,批评者认为,特斯拉使用这个名字,充满了误导性,会让司机误认为特斯拉汽车有自动驾驶能力,从而放松警惕。而实际上,Autopilot只是辅助驾驶的功能。

最初,特斯拉在中国官网上也是使用“自动驾驶”这样的字眼。而这也引发了质疑。

2016年8月初,一名中国特斯拉车主发生车祸。当时这辆汽车正处于“Autopilot”模式,但其未能避过停在左侧的汽车,导致两辆汽车损毁,但无人员伤亡。这是特斯拉自动驾驶被曝光的中国首例事故。

车祸发生后,该名特斯拉车主发微博详述了车祸发生的过程,并投诉特斯拉公司夸大自动驾驶功能,误导消费者。

特斯拉随后在中国官网上用“自动辅助驾驶”这个词替代了“自动驾驶”。

不过,据外媒报道,特斯拉在宣传Autopilot时仍有所夸大,特斯拉在其网站上将Autopilot称为“驾驶的未来”,就好像它是世界上最先进的自动驾驶系统。

其实并非如此。自动驾驶有6个级别,从L0到L5,L5是最高级别。Autopilot是L2级系统,美国交通部将其定义为“部分自动化”,要求驾驶员“始终保持对驾驶任务的投入,并时刻监控环境”。

就在上周六,马斯克还曾宣传该公司最近的一份安全报告。马斯克在Twitter上表示,“现在,启动Autopilot的特斯拉出事故的几率比普通车辆低10倍。”

但美国权威杂志《消费者报告》互联和自动汽车测试负责人凯莉·芬克豪斯表示,特斯拉过去的数据并不准确,在没有基础数据的情况下也很难验证。

芬克豪斯补充道,在报告中,特斯拉没有说明系统出现故障但没有撞车的次数,也没有说明什么时候司机未能接管车辆。

今年,特斯拉还将推出所谓的完全自动驾驶功能,可在大多数特斯拉车型上作为软件升级,价格为1万美元。但该技术远未达到L5级自动驾驶,即“完全自动化”。

普林斯顿大学自主汽车工程系主任阿兰·科恩豪瑟表示,“马斯克的做法完全不负责任。”

科恩豪瑟称,的确,在一些细则中,特斯拉说明了他们还没有准备好(自动驾驶),但马斯克已经向消费者售卖了汽车可以自己驾驶的梦想。“这不是一个游戏。这是严肃的事情。”

过度依赖“自动驾驶”系统酿恶果

批评者认为,特斯拉多年来夸大营销Autopilot系统的方式,助长了一些司机依赖、滥用该系统,从而导致了Autopilot相关事故增多。

在使用手册上,特斯拉建议司机在使用Autopilot时,双手放在方向盘上,并注意观察但是,网络上出现了许多视频,称有人在驾驶座上睡觉,或以其它不安全方式驾驶。一些特斯拉司机表示,他们在使用Autopilot时能够不必将手长时间放在方向盘上。

美国监管机构的报告也证实了依赖Autopilot系统所带来的恶果。

美国国家运输安全委员会(NTSB)发现多起致命和非致命事故和Autopilot有关,根据NTSB的报告,这些事故都有一个共同点:司机过度依赖“自动驾驶系统”,但是在某些情况下系统是有缺陷的,在某些情况下它的能力并不如司机所想的那么强,从而导致事故发生。以下案例均来自NTSB报告。

2016年,在佛罗里达州威利斯顿市发生一起车祸,车主驾驶的特斯拉Model S被一辆牵引车压在下面造成司机死亡。报告称, “特斯拉的自动车辆控制系统没有设计成和识别出横穿车道的卡车,也没有判定即将发生碰撞。”

2018年,在加州山景城发生一起车祸,一辆Model X撞上了高速公路隔离带,导致司机死亡。

报告称,“车祸的可能原因是,由于系统限制,特斯拉Autopilot将Model X引导到了高速公路的分道角区,而驾驶员由于分心而缺乏反应,他可能正在玩手机游戏应用,并且过度依赖Autopilot的部分驾驶自动化系统。”

2018年,在加州卡尔弗城发生了一起非致命性车祸。一辆Model S追尾停在车道上的消防车。报告称,“可能的原因是,由于未注意到车辆的高级驾驶辅助系统,特斯拉司机对行车道上静止的消防车未作出反应。”

2019年,在佛罗里达州德雷海滩发生了一起车祸,一辆Model 3从一辆牵引车下驶过,导致司机死亡。报告称,“Autopilot没有向驾驶员发出视觉或听觉警告,让他把手放回方向盘上。由于系统的设计限制,避撞系统没有发出警告或启动(自动紧急制动)。周遭环境超出了Autopilot的(操作设计领域)。”

据外媒报道,自Autopilot推出以来,在美国发生的9起涉及Autopilot的车祸中,至少有11人死亡。在国际上,又有7起事故,导致至少9人死亡。

美国政府或加强监管

接连发生的特斯拉Autopilot相关的事故,也引发了美国监管机构的反思。

今年2月1日,NTSB主席罗伯特·萨姆沃尔特致信美国交通部,批评自动驾驶系统安全标准不严,并特别提到特斯拉。

萨姆沃尔特表示,如果该部门在2016年佛罗里达州死亡事件发生后,要求特斯拉改进Autopilot的安全协议,2019年Model 3车祸致死事件可能就不会发生。

萨姆沃尔特还警告称,“特斯拉正在公共道路上测试一项高度自动化的(自动驾驶)技术,但监管部门对其监督非常有限,这会给司机和其他道路使用者带来潜在风险。”

NTSB还批评NHTSA对自动化车辆的监督方式“是错误的,因为它基本上是等待问题发生,而不是主动解决安全问题。”NTSB还表示,NHTSA“对自动车辆安全采取了一种非监管的方法。”

NTSB只能发布建议,要求NHTSA和特斯拉将Autopilot系统使用场景限制在该系统可以安全运行的道路上,并要求特斯拉配置一个更强大的系统来监控司机,以确保他们的注意力集中。

特斯拉和NHTSA都没有采取行动,因此引起了NTSB的批评。

过去,NHTSA有权对汽车制造商进行监管,并能要求召回有缺陷的车辆。但由于担心阻碍有前景的新功能的开发,NHTSA对部分和全自动驾驶系统的监管采取了不干涉的态度。

但自今年3月以来,NHTSA加强了对特斯拉的调查。不过,到目前为止,它一直依赖汽车厂商和科技公司自愿遵循安全合规。

NHTSA上月表示,“随着新政府成立,我们正在审查关于自动驾驶汽车的法规。”

监管机构的批评者表示,随着自动化系统不断向完全自动化迈进,法规(尤其是约束特斯拉的法规)早就该出台了。

去年12月,在前总统特朗普离任前,NHTSA曾就(自动驾驶相关)法规征求公众意见。美国时任交通部长赵小兰(其管辖部门包括NHTSA)表示,该法规提案将解决安全问题,“同时不会妨碍自动驾驶系统的开发创新”。

但她的接替者皮特·布蒂吉格在国会面前表示,改变可能会到来。

布蒂吉格上月表示,“我想说的是,美国的政策框架还没有真正赶上技术平台的进步,因此,我们打算对此给予高度关注,并在我们的权限范围内尽一切努力。”布蒂吉格称,可能会与国会合作解决这一问题。

研究自动化汽车的杜克大学电气和计算机工程教授卡米斯表示,德州车祸会成为NHTSA(政策)的分水岭。

她希望这次车祸能带来改变,因为“特斯拉已经持有这么长时间的免费通行证了”,是时候改变了。

(加美财经专稿,抄袭必究)

#特斯拉#、#自动驾驶#

作者:宋星

责编:Faye