蔚来事故启示录:被夸大的和被误导的自动驾驶
科技
科技 > 车研所 > 正文

蔚来事故启示录:被夸大的和被误导的自动驾驶

蔚来事故启示录:被夸大的和被误导的自动驾驶

文|罗宁

消费者对于造车新势力的担忧,很大原因来自于这些企业的过度宣传引导,尤其蔚小理,在官方宣传中通常给用户带来一种“黑科技”错觉。

8月14日晚,一则讣告再次引发了人们对于蔚来汽车及自动驾驶安全性的担忧。

名为“美一好”的公众账号发布内容,称在8月12日,上善若水投资管理公司创始人、意统天下餐饮管理公司创始人、美一好品牌管理公司创始人林文钦驾驶蔚来ES8汽车在沈海高速涵江段发生交通事故,不幸逝世,终年31岁。讣告中特别提到,发生事故时,林文钦启用自动驾驶功能(NOP领航状态)。

蔚来事故启示录:被夸大的和被误导的自动驾驶

对蔚来而言,这已经是一个月内第二起交通事故致死事件。

实际上,7月30日凌晨,一位蔚来车主驾驶蔚来EC6在上海浦东新区临港大道也发生了交通事故,这辆蔚来撞击隔离石墩后车辆起火自燃,驾驶员不幸身亡,截至目前蔚来官方并没有对事故详细情况进行公布。

两起交通事故在具体情况上虽然并不相同,但蔚来在近一段时间受到的质疑却又十分相似,不少消费者,也包括专业车评人在内的用户开始对造车新势力的自动驾驶辅助功能提出质疑。

而国家工业和信息化部最近出台的《关于加强智能网联汽车生产企业及产品准入管理的意见》,也再次揭示了在火热的市场和投资背景下,当下智能网联车存在的数据和网络安全、数据记录、过程保障种种问题。

自动驾驶辅助系统 被夸大的和被误导的

消费者对于造车新势力的担忧,很大原因来自于这些企业的过度宣传引导,尤其被称作“电动三傻”的蔚小理,在官方宣传中通常给用户带来一种“黑科技”错觉。

蔚来汽车的NOP,其全称是领航辅助(Navigate on Pilot),按照官方说法,NOP是“导航系统、高精地图与NIO Pilot自动辅助驾驶系统的深度融合,在Pilot功能已实现的巡航车速控制、车距保持、转向辅助和转向灯控制变道功能的基础上,使车辆在高速景地图覆盖范围内的大部分高速公路及城市高架路段内,按照导航规划的路径实现自动汇入主路、在主路巡航行驶并智能选择最优车道、根据导航规划自动切换至下一条高速/高架、自动驶离主路等操作。”

这听起来是不是很像一个真正的司机?不只是蔚来,小鹏汽车的NGP(Navigation Guided Pilot)、特斯拉的NOA(Navigate on Autopilot)在功能上也都非常类似,在官方宣传中,这样的功能对用户双手脱离方向盘的暗示过于明显,这便成了交通事故的潜在隐患。

比如小鹏此前的官方宣传视频中,就非常直观地告诉消费者,开启NGP功能后,驾驶员可以在车上自拍甚至喝咖啡(相关视频已删除)。而蔚来副总裁沈斐的微博中,也曾提到使用其自动辅助驾驶功能可以“放心地边吃东西边开车”(相关内容已删除)。

(图片来源:B站用户一路向北BYD)

(图片来源:B站用户一路向北BYD)

试问一下,这样的厂商宣传,再加上意向购车用户在低速道路上试驾之后,是不是会让他们产生基础的信任,是否又会影响购买之后的实际驾驶?

一位蔚来车主告诉商业数据派,此次8.12蔚来汽车事故中的驾驶人林文钦,其在购买蔚来ES8之后累计行驶了不到一年时间,而在这期间,他对于蔚来的自动驾驶功能非常喜爱。也许这种喜爱造成了对自动驾驶辅助系统的过度信任,而过度信任则影响到其日常驾驶时的判断。

但实际上,即便是在这方面技术最为领先的特斯拉,如今也不得不承认,所谓的“自动驾驶”距离我们还很遥远,正如马斯克本人所说:

“广义的自动驾驶是一个难题,因为它需要解决非常多的现实世界的人工智能问题。此前没想到这么难,但回想起来难度是显而易见的。”

从消费者角度来讲,不论他们在使用的是NOA、NGP还是NOP,这些系统都依然还只是测试系统,尽管他们为此甚至付出了高昂成本,但他们并没有因此得到安全保证,甚至厂商早已在使用之前就打好预防针,如蔚来NOP功能使用手册上的提示:

“领航辅助Beta版本为公开测试版本,功能尚处于持续优化阶段。”

“与Pilot和其他驾驶辅助功能一样,领航辅助无法响应静态障碍物(如路障、三角警示牌等),如前方存在事故或施工区域,请立即接管车辆一控制方向和速度。”

这意味着,厂商在因用户使用NOP功能造成的交通事故之中,早已提前规避了自身责任,用户因为厂商的过度宣传而选购这些品牌,但在此后的使用中,随时都可能因为不够成熟的自动驾驶辅助系统而发生生命危险,这样的危险,在特斯拉和蔚小理等汽车用户身上或许会越来越多。

如在今年5月8日,一辆特斯拉Model S在美国华盛顿州西雅图东北部的斯诺霍米什县发生一起交通事故,在开启Autopilot自动辅助驾驶模式的情况下撞上了一辆处理事故的警车,所幸没有人员伤亡。但就在这起事件的前三天,一名特斯拉Model 3车主驾驶汽车在洛杉矶以东约50英里的一处高速路上发生车祸,在自动驾驶辅助功能开启的情况下装上了一辆翻覆的半拖车,最终车内驾驶员当场死亡,可见目前自动驾驶辅助功能依然存在缺陷和风险。

谁来规范造车新势力

造车新势力早已度过了最艰难的岁月,尤其是2021年,随着销量提升,已经逐渐开始拥有更大的品牌、资本话语权,但在汽车智能驾驶部分,技术却没有人们想象中那样先进。

蔚来事故启示录:被夸大的和被误导的自动驾驶

汽车自媒体38号车评中心在今年6月曾对特斯拉NOA、小鹏NGP以及蔚来NOP在内的自动驾驶辅助系统(升级到了当时的最新版本)进行了可靠性测试,通过对三辆车宣传的自动驶入驶出匝道能力进行测试,38号车评中心最终认为其功能可用性并没有达到预期。

以蔚来为例,其NOP自动驶入匝道出现失败,之后继续尝试并线但不会开启转向灯,而只有在目标空挡确认后,NOP才会开启转向灯并进行自动并线。不仅如此,还出现了导航中路线出错并自动重置导航路线情况。

实际上,在评测中出现的情况并非特例,蔚来车主晓白(化名)告诉商业数据派,汽车车速过快的情况下,任何自动驾驶辅助系统都不如驾驶者自己注意来的安全:“现在地球上的车,只能识别出来雪糕筒、人还有车,能做多少防御动作,得看工况,超过120km的速度,没有车能做反应。”在他看来,林文钦驾驶过程中最高速度114.6公里每小时,这样的工况下还继续用NOP是有风险的。

另一位蔚来车主蛋疼的axb则认为:“很多车评人喜欢测试辅助驾驶的极限场景,比如在270度弯道上60迈撒手看能不能过,边界很模糊,受此影响,很多用户也以探索辅助驾驶边界为乐,甚至还有高速上主驾不坐人这种奇葩的操作。”在他看来,目前造车新势力对常规环境下的跟车和车道保持做的不错,但用户也要认识到自动驾驶辅助功能的局限,也有一些场景黑名单不适合使用这样的功能,比如:

1 非封闭道路不开

2 车多频繁加塞的场景不开

3 中雨,大雾场景不开

4 进出匝道不开

5 前面发现道路施工,事故这些非常规情况立刻接管

这样的用户无疑是非常理智并能引导其他人做出决策的,但问题在于,既然系统有着各种缺陷和不足,那为何车企不能在更加稳定之后投放市场?

对于车企来说,这些系统不但是作为其卖点存在,更能在吸引用户作为“小白鼠”不断验证之后变得更好用。但对用户来说,这其实并不公平,正如车评人总结的“这不是对用户的驾驶辅助功能,而是对厂商的研发辅助功能。”

随着汽车销量逐渐增加,造车新势力越来越受到关注,但相应的制度规范却始终没有完善,在很多方面,用户和企业的责任划分不够明确,既造成了部分车企使用各种手段打擦边球,也对用户的生命安全造成一定影响。

正因如此,在8月12日,工业和信息化部公布了《关于加强智能网联汽车生产企业及产品准入管理的意见》,在《意见》中对于智能网联汽车进行了更进一步的规范和说明,在一切与用户生命和信息隐私保护方面对车企提供了更进一步的要求。

比如针对信息安全,《意见》中提到:“企业应当建立健全汽车数据安全管理制度,依法履行数据安全保护义务,实施数据分类分级管理,加强个人信息与重要数据保护;建设数据安全保护技术措施,确保数据持续处于有效保护和合法利用的状态,依法依规落实数据安全风险评估、数据安全事件报告等要求;在中华人民共和国境内运营中收集和产生的个人信息和重要数据应当按照有关法律法规规定在境内存储,需要向境外提供数据的,应当通过数据出境安全评估。”

而在关乎用户生命安全的自动驾驶辅助系统方面,《意见》中则更进一步明确的车企的责任:“企业生产具有组合驾驶辅助功能的汽车产品的,还应采取脱手检测等技术措施,保障驾驶员始终在执行相应的动态驾驶任务。企业生产具有自动驾驶功能的汽车产品的,应当确保汽车产品至少满足系统失效识别与安全响应、人机交互、数据记录、过程保障和模拟仿真等测试验证的要求。应当确保汽车产品具有安全、可靠的时空信息服务,鼓励支持接受北斗卫星导航系统信号。”

当然,仅仅只有《意见》还是不够的,由于新能源汽车的加速发展,国内在智能网联汽车,尤其是关于自动驾驶辅助系统方面的规范细则还不够完善,仍然需要更进一步的标准制定和准入管理原则,但也能看出,随着汽车企业对于汽车智能化功能的更进一步深入,只想让用户做“小白鼠”而无需承担相应责任的情况或许会进一步改变。

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载