热门资讯> 正文
2025-08-21 09:02
【文/观察者网专栏作者 苏奎】
8月13日,《市场监管总局工业和信息化部关于加强智能网联新能源汽车产品召回、生产一致性监督管理与规范宣传的通知(征求意见稿)》,向社会公开征求进一步加强智驾行业安全管理的意见,其核心意图是强化智驾系统缺陷管理。
巧合的是,8月4日,大洋彼岸,美国佛罗里达州联邦地方法院对涉及特斯拉智驾系统的一宗交通事故公布了判决文书,陪审团认为智驾系统应对事故负有部分责任,并裁定特斯拉公司智驾系统存在缺陷,需承担民事赔偿责任(约人民币18亿元);更重要的是,判决实际上对生产厂家提出了一些具体的责任和要求,明确了产品缺陷的认定标准。
这项裁决的很多内容与中国监管部门征求意见的思路不谋而合。其中所体现的新观点和新思路值得生产厂家、消费者以及监管部门认真研究,智驾误用或者滥用的悲剧不能再发生了,这不只是驾驶员“咎由自取”,责任也不该仅由消费者承受。
不该发生的悲剧
距某新势力汽车智驾系统的悲剧才刚刚过去4个月,8月8日,山东高速交警又发布了一起过度依赖智能辅助驾驶的事故案例。
在高速公路上,一辆使用智能辅助驾驶系统的汽车径直追尾撞上前面因爆胎而停在路中的故障车辆,当场造成两人死亡。尽管警方没有公布事故详情,仅提及后方车辆处于“智驾”状态,在行驶过程中未减速、未避让,直直地追尾前车;但可以合理推测,肇事车辆的驾驶员走神了,车辆实际上处于脱离驾驶任务状态之中,智驾系统没有及时感知到前方的车辆和人员,未能及时做出避让。
此外,警方还提及了智驾过程中未能识别施工区域、突发障碍物、收费站等导致碰撞的其他事故案例。
虽然中国还没有针对智驾系统致命事故的专门历史统计数据,但可以说智驾系统的悲剧其实一直在发生。在国外,特别是美国的数据,令人触目惊心。据Tesla Deaths这个追踪涉及特斯拉交通事故亡人事故网站的不完全统计,截止2025年7月,涉及特斯拉车辆事故导致亡人总数高达734人,其中直接涉及其智驾系统的事故也达到59人。
需要注意的是,不少事故尽管与智驾系统没有直接关系,但可能存在间接关系。涉事驾驶员因仗歭车辆存在智驾系统而养成了不安全的驾驶习惯,或不经意退出智驾系统进入人工驾驶状态而不自知,这也是大量致命事故发生的关键因素。
智驾非自驾
类似上文中山东高速交警公布的智驾车辆事故案例并不罕见。2021年8月,美国交通部启动对特斯拉智驾系统的的初步缺陷调查(ODI),调查的直接原因正是发现特斯拉车辆在智驾系统启用的情况下,多次与道路上或路边静止的应急或执法车辆相撞。这样的错误可以说是匪夷所思,毕竟前方的被撞物十分显眼,不算什么小概率的所谓“长尾场景”。
据统计,2018年1月至2021年7月间发生11起类似事故;在调查期间(截止2022年3月),仅仅约7个月的时间内,居然又发生了6起类似事故。
通过分析发现,大部分事故案例中,碰撞发生前,车辆的前方防碰撞系统(FCW)都已经激活,大概一半的案例是随后自动紧急刹车系统(AEB)也有激活,但遗憾的是,都没能避免事故发生。
更让人惊讶的是,平均而言,在碰撞前1秒钟,智驾系统居然主动放弃控制权,或者说智驾系统临阵逃脱!换言之,在最需要系统介入以避免事故发生的紧急时刻,智驾系统反而将责任甩给人类驾驶员,而在如此之短的时间内,人类驾驶员更没有可能及时接手以避免事故发生。不得不承认,这样的智驾系统还不够可靠,不能自动驾驶,我们还不能完全信赖。
所有的事故案例都发生在有入口控制的公路上,即道路符合系统的设计运行条件。通过事故录像分析,如果是一个谨慎的人类驾驶员,平均大概在事故发生前8秒钟就可以看到被撞的车辆。这说明智驾系统的感知能力仍存在缺陷,对于人类可以轻易发现并理解的事实,智驾系统可以看见,但存在对真实世界的理解困难,并不知道那是什么以及意味着什么,人工智能还有很长的路要走。
在事故发生前5分钟,只有2宗事故的驾驶员收到了驾驶员脱离驾驶任务的警告。此外,根据最终上法庭的11宗事故的证据数据显示,在碰撞前2-5秒,没有驾驶员有明显的脱离驾驶任务行为,所有驾驶员都没有脱手。
交通部又分析了另外106宗其他类型事故,发现在超过一半的事故中,驾驶员没能及时对动态驾驶任务的控制接管需求做出反应,驾驶员或者完全没有反应,或者实施了无效的错误干预。其中43宗有比较完整的事故数据,高达86%(37宗)的事故中,在事故发生前2秒,驾驶员没有脱手。
这说明智驾系统的驾驶员监控系统(DMS)存在缺陷或不完善,发生事故必定是驾驶员走神或存在一定程度的脱离驾驶任务,但监控系统没有发现,如果说这样的监控系统不算形同虚设,那么其有效性也是要打上问号的。
2024年4月,美国交通部发布了2021年特斯拉缺陷调查的一些过程信息,初步结论是特斯拉智驾系统的驾驶员监控系统(DMS)可能是不充分的,很可能导致可预见的驾驶员脱离驾驶任务和事故发生。报告分析了截止到2023年8月涉及智驾系统的956宗事故,其中211宗事故涉及前方碰撞。而在这211宗事故中,13宗涉及亡人(14人死亡和49人受伤)。
109宗事故有比较清晰的视频信息,通过分析可以发现,超过一半(59宗)在事故发生前5秒钟,驾驶员可以发现前方车辆或障碍物;发现时间小于2秒的,只占7%(8宗)。而有驾驶员操作数据的135宗事故中,82%的事故驾驶员根本没有刹车或在事故发生前少于1秒钟的时间才开始刹车,78%的事故驾驶员根本没有操作方向盘或在事故发生前少于1秒钟才开始打方向盘。当然,在如此短的时间内,这些操作根本不可能避免事故发生。
这些分析同样表明,尽管驾驶员或许达到了特斯拉驾驶员监控系统的标准,但驾驶员实际状态和注意力根本不能满足安全驾驶的需要,而驾驶员监控系统却并未发现。这些数据进一步表明,驾驶员监控系统存在明显的安全隐患。
值得注意的是,55宗事故是由于驾驶员无意的行为或在不知情的情况下导致智驾系统退出,但交通感知系统(TACC)仍处于激活状态,其中78%(43宗)的案例是在无意退出后5秒内就发生了事故。
调查报告认为,特斯拉这种过于敏感的退出设计实际上是不鼓励驾驶员进行任何的介入行为,换句话说,这也导致驾驶员不合理地过度依赖智驾系统,进一步增大交通安全风险。
特斯拉“天价”赔偿
2019年4月25日晚上9:30左右,在佛州门罗县(Monroe County)一条编号为县道905A的路上,麦克吉(George McGee)驾驶一台2019版的特斯拉Model S向东行驶,在通过与905路的T形交叉口时,垂直撞上了一辆正停在905号路肩的雪佛兰汽车。正站在车边上的22岁的姑娘利昂(Leon)当场死亡,遗体被强大的冲击力抛到75英尺(约23米)远的地方,死者男友安古洛(Angulo)重伤,侥幸捡回一条命。
涉事的特斯拉Model S安装了辅助驾驶系统(Autopilot)等全套智驾系统。据特斯拉提供的数据,距事故发生地约2.6公里前,驾驶员麦克吉踩了加速踏板从而退出辅助驾驶系统,此时距离发生事故还有75秒。事故发生时,车速达到约100公里,而路段限速为约72公里,也就是说严重超速。此外,路口有停车让行(Stop Sign)的指示牌,交叉口有灯控,当时正好是闪红灯状态(在美国的意思是停车观察安全后可通行)。
在事故发生前1.65秒,智驾系统感知到了路边的停车让行标识牌、停放在路侧的雪佛兰车以及受害者安古洛,并在事故发生前1秒时开始刹车,但为时已晚,智驾系统没有更早发现也没能更早警告驾驶员,更没有将车刹停。
2021年4月22日,逝者利昂的代理人起诉了特斯拉,2022年8月16日,伤者安古洛也起诉了特斯拉。法官随后将两起案件进行合并审理。
2025年8月1日,佛州联邦地方法院陪审团成员投票一致同意:特斯拉的智驾系统存在缺陷,特斯拉对2019年一起交通事故的发生负有33%的责任。特斯拉公司需承担损害赔偿4250万美元,另外对特斯拉公司施以2亿美元的惩罚性赔偿。多年来,这是特斯拉第一起被联邦法院宣布其FSD(自动驾驶系统)对交通事故负有责任的赔偿案。
这项判决意义重大,天价判罚不啻于对所谓的智驾行业的盲目乐观一记重锤,有助于推动全世界监管和司法加快厘清涉辅助驾驶的责任在厂家与消费者间该如何分配。这更是向外界递了一个信息,多年来,智驾行业以辅助驾驶的名义逃脱事故法律责任恐怕一去不复返了,只有加强责任,双边预防或许能防止更多悲剧的发生。
庭审认为,特斯拉的智驾系统风险警示不充分违法行为同时成立
值得注意的是,除了设计缺陷,法庭辩论的一个核心是智驾系统风险警示是否充分。
原告认为,特斯拉存在警示不充分,包括:特斯拉没有充分警示消费者车辆的智驾系统仍是Beta版本(测试版本);使用手册中的警示内容是充分且完整的,但位置不显著(指消费者难以看到),且只提供了电子版本(阅读可达性不足,即不容易看到这部分内容),因此同样属于警示不充分;驾驶员监控系统没能提供充分的车内警示要求驾驶员保持注意力。按照相关法律,警示不充分或者说不能有效警示同样属于产品缺陷,需要承担严格的产品责任。
使用手册中的警示是否充分,不仅取决于手册中是否有警示的内容,还包括警示的措辞,以及警示的位置和方式是否足够明显。
关于车内显示屏的警示是否充分的问题,根据相关判例建立的标准,产品警示标签必须显著标明潜在的损害后果,包括不能按照规范使用产品的严重风险的措辞。特斯拉车内的警示——“如果你能密切观察道路情况并准备随时接管,才能够启用智驾系统”——显然不能满足法定标准,按照法官的评论,这与其说是警示,更像是指令(instructions),因为并没有点出相关风险和潜在严重后果。
产品如果存在内在的威胁,生产者就有了警示义务。这种义务包括了产品即使不是按照预期使用,只要这种使用是可以合理预见的。但是,生产者没有义务警示一个显然的危险(obvious danger)或者众所周知的危险。
特斯拉认为驾驶员需要集中注意力驾驶是一个人尽皆知的常识,并不需要专门警示,因此否认其存在警示不足的缺陷。此外,驾驶员承认其并未阅读使用手册中的警示部分,没有证据可以证实,任何额外的警示可以影响驾驶员事故当天的驾驶行为。
睿智的法官对此有十分精彩的评论。她认为,特斯拉确实不需要警示驾驶汽车需要集中注意力,但这并不是一个好的问题;驾驶员过度依赖智驾系统的风险,或者智驾系统激活期间驾驶员需要集中注意力,才是需要警示的真问题,这恐怕并不是一个人所尽知的常识。由于夸大宣传、误解等各种原因,很多消费者并不了解智驾系统的局限性,现实中存在大量误用或滥用,况且特斯拉的智驾系统在名称上更容易使人误解其为“自动驾驶系统”——FSD指全自动驾驶系统,Autopilot也包含了自动的意思,这种暗示具有比其实际更多的能力。
马斯克多次公开宣称特斯拉的智驾系统比人类驾驶员更安全,智驾系统已经拯救了超过50万人的生命。特斯拉官网上的安全报告也在持续向社会宣称使用智驾系统远比人类驾驶安全。这些都表明,对于普通消费者而言,不要信任特斯拉的智驾系统以避免事故是不是一个人人所共知的事实存在争议,很难说已成为社会常识,因此需要陪审团来进行判断。
关于驾驶员没有阅读使用手册中的警示的问题,按照相关判例建立的标准,如果是生产者的警示不充分使得消费者不能或没有阅读警示,这不影响生产者警示不充分违法行为的成立。
最终庭审认为,特斯拉的智驾系统风险警示不充分违法行为同时成立。按照美国有关法律要求,产品风险警示需要“准确、清晰以及不含糊”。按照普通法有关判例建立的警示标准,充分的警示标识必须显著告知潜在的损害后果,以及必须达到这样一个强度——足以使得一个理性的人能够为了其个人的安全而提高警惕至与潜在安全风险程度相当的水平。
2024年10月,美国国家公路交通安全管理局正式对特斯拉 “全自动驾驶系统”(FSD)启动调查。
中国监管新规
8月13日,市场监管总局的征求意见稿,主要包括用户手册和安全警示的完善、驾驶员监控系统功能完善、系统在线升级管理、智驾系统宣传以及事故报送等六个方面。后三方面的内容,此前工信部在相关通知中已多次强调,应该不算监管新政,而关于前三方面的内容确有不少是新政,其核心为加强产品缺陷的认定与监管。这恰好与特斯拉佛州案子的主要内容几乎完全契合,冥冥之中,似乎大洋两岸对智驾行业监管有了一种默契。
在用户手册和安全警示完善方面,通知明确,企业应当在车辆App、车载信息交互系统显著位置和用户手册中显示组合驾驶辅助系统的安全提示和使用说明,以便于消费者阅读、理解和操作,避免驾驶员将组合驾驶辅助功能视为自动驾驶功能使用。
企业向消费者提供有关智能网联新能源汽车驾驶自动化等级、系统能力、系统边界等信息时,应当真实、全面,不得做虚假、夸大系统能力或引人误解的宣传,确保消费者正确理解和驾驶智能网联新能源汽车。企业在组合驾驶辅助系统或功能命名及营销宣传中,不得暗示消费者可以视其为自动驾驶系统、具备实际上并不具备的功能,防止驾驶员滥用。
在驾驶员监控系统功能完善方面,通知明确,企业应当开发、使用安全优先的驾驶员监测、警示和处置功能,密切监测驾驶员的驾驶状态,在驾驶员出现脱手、睡眠等脱离动态驾驶任务的情形时,及时采取语音警告、方向盘震动、限速、靠边停车、组合驾驶辅助功能禁用等警示或控制措施,以便驾驶员及时接管车辆和降低安全风险。企业不得通过用户操作或系统逻辑主动关闭驾驶员监测、警示和处置功能。
最值得关注的是,这份通知明确,市场监管总局对存在因安全提示和使用说明不完善、网络攻击、网络威胁和漏洞等安全事件开展缺陷调查,必要时督促企业通过召回方式进行改进。市场监管总局将对驾驶员监测、警示和处置功能不足的问题开展专项调查,必要时纳入缺陷分析与调查工作。
这段话十分重要,因为这相当于将用户手册、安全警示及驾驶员监控系统的不完善视为存在产品缺陷,企业应当召回。根据《产品质量法》第四十一条:“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任”。换言之,如果智驾车辆发生事故,产品存在此类缺陷,那么就很有可能被法院判有责任。这与美国佛州特斯拉案体现的判决思路也不谋而合。
事实上,这也并不能完全算新规,只是社会对此并不熟悉。根据《缺陷汽车产品召回管理条例》第三条规定,“本条例所称缺陷,是指由于设计、制造、标识等原因导致的在同一批次、型号或者类别的汽车产品中普遍存在的不符合保障人身、财产安全的国家标准、行业标准的情形或者其他危及人身、财产安全的不合理的危险”。原国家质监局《产品标识标注规定》第五条规定:“ 除产品使用说明外,产品标识应当标注在产品或者产品的销售包装上”。将这两条规定联系起来就嫩恶搞看出,《召回管理条例》中指的标识缺陷,包括用户手册和警示标识等。
还需要特别注意的是,根据《家用汽车产品修理、更换、退货责任规定》第十条,“产品使用说明书应当符合消费品使用说明等国家标准规定的要求。家用汽车产品所具有的使用性能、安全性能在相关标准中没有规定的,其性能指标、工作条件、工作环境等要求应当在产品使用说明书中明示”。
《消费品使用说明 总则》本是一个国家推荐性标准,但《责任规定》明确汽车使用说明书应当遵循这个标准,那么这个标准也就变成了汽车行业的强制性标准,或者说汽车行业必须执行这个标准。这个标准特别对如何编制安全警示进行了规范,比如标准规定,“安全警示的位置、内容和形式要醒目”、“解释危害的性质”、“具有中高度危险的产品,应将安全警示永久地装置在产品上”等等,这些规定都是与本次《通知》的思路是一致的,这也是特斯拉事故案法官反复分析的内容。
回归本质
多年以来,使用L2级别的辅助驾驶系统出了交通事故,厂家多以简单的一句“人类驾驶员始终是L2级自动驾驶车辆的驾驶人,系统只是辅助”而卸下全部责任,驾驶员只能独自承担所有后果,社会舆论则更多认为是驾驶员咎由自取。毋庸讳言,驾驶员确实是L2级自动驾驶汽车的责任人,但厂家难道就没有任何一点责任吗?按照特斯拉案原告律师的说法,这实际上是厂家搭的台,消费者唱的戏。
有业内人士希望通过建立L2组合辅助驾驶系统的能力标准以此提高安全水平的想法是美好的。但需要注意,L2的组合辅助驾驶系统是不能自动驾驶的系统,我们不可能建立一个可以科学评价不能自动驾驶的标准,这样的标准即使建立起来,其效果恐怕也难如人意。还需指出的是,事实上检测其安全可靠性需要的成本十分高昂,甚至我们可能还没有这样的能力。
比如规定80%的可靠性还是60%的可靠性(此前同济大学朱西产教授提出L2辅助驾驶系统应该60分还是80分的问题已经引发行业激烈争论),即使按照80%,通过标准认定的系统,事实上仍是不安全的,这样的可靠性本质上仍是一个极为危险的系统,标准的权威性恐怕都会受到损害。
对于消费者来说,可靠性是一个宏观指标,而安全事故的发生具有偶然性,60%或80%对于一个具体的消费者来说,就风险发生,没有根本的区别。当然这并不是说可靠性的指标不重要,更不是说指标越高反而不好,而是想提醒行业不能指望通过这个指标来解决系统的安全问题。
现实的例子摆在那里,即使技术强如特斯拉,如果标准以其能力为基准来构建,美国交通部的调查显示,这样的智驾系统同样是不够安全的,甚至使用这样的先进系统使得一些消费者出现过度依赖或过度自满(unduly complacent),结果适得其反。更糟糕的是,标准认定背书的系统是否会导致用户更多的滥用呢?况且在悲剧发生后,如何承担责任也同样难以界定。
美国佛州特斯拉案及中国征求意见新规其实是提供了另外一个思路,那就是从提升系统的安全能力更多转变到或更多强调系统监督人的安全驾驶和限制系统的使用范围,这也应成为标准制定的方向和厂家责任的范围。毕竟对于辅助驾驶系统而言,本质上只能是提供辅助功能,人才是驾驶的主体。
全世界每年道路交通死亡人数超过120万人,发展自动驾驶的最重要目的就是提高道路交通的安全水平,拯救更多生命。规范使用L2级的辅助驾驶系统可以提高安全水平,无论是特斯拉公司还是国内智驾企业都公布过案例,但宏观上这需要科学的系统设计与规范的使用。要求L2厂家生产设计出达到或接近L3以上功能的产品是强人所难,也可能是本末倒置,这恐怕也是同济大学朱西产教授坚持60分的逻辑。
提升安全不是让L2去靠近L3或L4的能力,而是如何更好地辅助人和监督人,让辅助回归其本质,L2辅助驾驶系统的安全设计必须以人为中心。不能最大程度保证消费者正确使用组合辅助驾驶系统的厂家,在事故发生后就可能要承担相应责任。希望使用自动驾驶的消费者,那就去购买L3以上有自动驾驶能力的汽车,当然前提是厂家尽快生产出符合监管部门要求的自动驾驶车辆,安全责任则全部由厂家承担。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。