特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出
而后,特斯拉官方也出来证实了这一规则。
不过,虽说人类不用背锅了,但事故发生1秒前才将自动驾驶切断这一“骚操作”,还是无法改变人类驾驶员来不及接过方向盘的事实。
Autopilot,到底靠不靠谱?
在看完NHTSA的调查结果后,我们回头来看看这次舆论焦点的Autopilot。
Autopilot是出自特斯拉的一套高级驾驶辅助系统(ADAS),处于国际汽车工程师学会(SAE)提出自动驾驶等级中的L2。
(SAE将自动驾驶分为了六个等级,从L0至L5)
根据特斯拉官方的描述,Autopilot目前具备的功能包括在车道内自动辅助转向、加速和制动,自动泊车,以及从车库或停车位“召唤”汽车等。
那么这是否意味着驾驶员可以完全“托管”了呢?
并非如此。
特斯拉目前阶段的Autopilot只是能起到“辅助”的作用,并非是完全自动驾驶。
而且还需要驾驶员“主动”、“积极”地去监督Autopilot。
但在官方介绍中,特斯拉对于“全自动驾驶”的能力也做了些许的描述:
所有新款特斯拉,都具备未来几乎所有情况下完全自动驾驶所需的硬件。
能够在不需要驾驶员的情况下,进行短途和长途的旅行。
不过要想让Autopilot实现上面的这些目标,很重要的一点就是在安全性方面远超人类。
在这一方面,特斯拉表示已经在数十亿英里的实验中证明了这一点。
而且马斯克也不止一次地对特斯拉的安全性发声:
特斯拉全自动驾驶的安全水平远高于普通司机。
但事实是这样吗?
暂不论特斯拉和马斯克给出的评价,单就从现实角度出发,特斯拉的Autopilot在安全性方面可谓是饱受的争议。
例如屡见不鲜的“幽灵刹车”事件,便将其再一次又一次推向舆论的风口浪尖,也是NHTSA展开这次调查的主要原因之一。
“幽灵刹车”,指的是当驾驶员开启特斯拉Autopilot辅助驾驶功能以后,即便车辆在前方没有障碍物或者不会与前车发生碰撞的前提下,特斯拉车辆会进行非必要的紧急刹车。
这就给驾驶员以及道路中的其它车辆带来巨大的安全隐患。
不仅如此,若是细扒与特斯拉这家公司相关的热点事件,不难发现有许多都是与Autopilot的安全性相关:
那么NHTSA对此又是怎么看的呢?
在这份文件中NHTSA提醒,目前市面上没有完全自动驾驶的汽车,“每辆车的都要求驾驶员在任何时间都要处于控制状态,所有州的法律都要求驾驶员对其车辆的操作负责。”
至于这份调查将来会对特斯拉造成什么影响,根据NHTSA的说法:
如果存在与安全相关的缺陷,有权向制造商发出“召回请求”信。
……
最后,做一个小调查——你是否信任Autopilot呢?