熱門資訊> 正文
2025-08-21 09:02
【文/觀察者網專欄作者 蘇奎】
8月13日,《市場監管總局工業和信息化部關於加強智能網聯新能源汽車產品召回、生產一致性監督管理與規範宣傳的通知(徵求意見稿)》,向社會公開徵求進一步加強智駕行業安全管理的意見,其核心意圖是強化智駕系統缺陷管理。
巧合的是,8月4日,大洋彼岸,美國佛羅里達州聯邦地方法院對涉及特斯拉智駕系統的一宗交通事故公佈了判決文書,陪審團認為智駕系統應對事故負有部分責任,並裁定特斯拉公司智駕系統存在缺陷,需承擔民事賠償責任(約人民幣18億元);更重要的是,判決實際上對生產廠家提出了一些具體的責任和要求,明確了產品缺陷的認定標準。
這項裁決的很多內容與中國監管部門徵求意見的思路不謀而合。其中所體現的新觀點和新思路值得生產廠家、消費者以及監管部門認真研究,智駕誤用或者濫用的悲劇不能再發生了,這不只是駕駛員「咎由自取」,責任也不該僅由消費者承受。
不該發生的悲劇
距某新勢力汽車智駕系統的悲劇纔剛剛過去4個月,8月8日,山東高速交警又發佈了一起過度依賴智能輔助駕駛的事故案例。
在高速公路上,一輛使用智能輔助駕駛系統的汽車徑直追尾撞上前面因爆胎而停在路中的故障車輛,當場造成兩人死亡。儘管警方沒有公佈事故詳情,僅提及后方車輛處於「智駕」狀態,在行駛過程中未減速、未避讓,直直地追尾前車;但可以合理推測,肇事車輛的駕駛員走神了,車輛實際上處於脱離駕駛任務狀態之中,智駕系統沒有及時感知到前方的車輛和人員,未能及時做出避讓。
此外,警方還提及了智駕過程中未能識別施工區域、突發障礙物、收費站等導致碰撞的其他事故案例。
雖然中國還沒有針對智駕系統致命事故的專門歷史統計數據,但可以説智駕系統的悲劇其實一直在發生。在國外,特別是美國的數據,令人觸目驚心。據Tesla Deaths這個追蹤涉及特斯拉交通事故亡人事故網站的不完全統計,截止2025年7月,涉及特斯拉車輛事故導致亡人總數高達734人,其中直接涉及其智駕系統的事故也達到59人。
需要注意的是,不少事故儘管與智駕系統沒有直接關係,但可能存在間接關係。涉事駕駛員因仗歭車輛存在智駕系統而養成了不安全的駕駛習慣,或不經意退出智駕系統進入人工駕駛狀態而不自知,這也是大量致命事故發生的關鍵因素。
智駕非自駕
類似上文中山東高速交警公佈的智駕車輛事故案例並不罕見。2021年8月,美國交通部啟動對特斯拉智駕系統的的初步缺陷調查(ODI),調查的直接原因正是發現特斯拉車輛在智駕系統啟用的情況下,多次與道路上或路邊靜止的應急或執法車輛相撞。這樣的錯誤可以説是匪夷所思,畢竟前方的被撞物十分顯眼,不算什麼小概率的所謂「長尾場景」。
據統計,2018年1月至2021年7月間發生11起類似事故;在調查期間(截止2022年3月),僅僅約7個月的時間內,居然又發生了6起類似事故。
通過分析發現,大部分事故案例中,碰撞發生前,車輛的前方防碰撞系統(FCW)都已經激活,大概一半的案例是隨后自動緊急剎車系統(AEB)也有激活,但遺憾的是,都沒能避免事故發生。
更讓人驚訝的是,平均而言,在碰撞前1秒鍾,智駕系統居然主動放棄控制權,或者説智駕系統臨陣逃脱!換言之,在最需要系統介入以避免事故發生的緊急時刻,智駕系統反而將責任甩給人類駕駛員,而在如此之短的時間內,人類駕駛員更沒有可能及時接手以避免事故發生。不得不承認,這樣的智駕系統還不夠可靠,不能自動駕駛,我們還不能完全信賴。
所有的事故案例都發生在有入口控制的公路上,即道路符合系統的設計運行條件。通過事故錄像分析,如果是一個謹慎的人類駕駛員,平均大概在事故發生前8秒鍾就可以看到被撞的車輛。這説明智駕系統的感知能力仍存在缺陷,對於人類可以輕易發現並理解的事實,智駕系統可以看見,但存在對真實世界的理解困難,並不知道那是什麼以及意味着什麼,人工智能還有很長的路要走。
在事故發生前5分鍾,只有2宗事故的駕駛員收到了駕駛員脱離駕駛任務的警告。此外,根據最終上法庭的11宗事故的證據數據顯示,在碰撞前2-5秒,沒有駕駛員有明顯的脱離駕駛任務行為,所有駕駛員都沒有脱手。
交通部又分析了另外106宗其他類型事故,發現在超過一半的事故中,駕駛員沒能及時對動態駕駛任務的控制接管需求做出反應,駕駛員或者完全沒有反應,或者實施了無效的錯誤干預。其中43宗有比較完整的事故數據,高達86%(37宗)的事故中,在事故發生前2秒,駕駛員沒有脱手。
這説明智駕系統的駕駛員監控系統(DMS)存在缺陷或不完善,發生事故必定是駕駛員走神或存在一定程度的脱離駕駛任務,但監控系統沒有發現,如果説這樣的監控系統不算形同虛設,那麼其有效性也是要打上問號的。
2024年4月,美國交通部發布了2021年特斯拉缺陷調查的一些過程信息,初步結論是特斯拉智駕系統的駕駛員監控系統(DMS)可能是不充分的,很可能導致可預見的駕駛員脱離駕駛任務和事故發生。報告分析了截止到2023年8月涉及智駕系統的956宗事故,其中211宗事故涉及前方碰撞。而在這211宗事故中,13宗涉及亡人(14人死亡和49人受傷)。
109宗事故有比較清晰的視頻信息,通過分析可以發現,超過一半(59宗)在事故發生前5秒鍾,駕駛員可以發現前方車輛或障礙物;發現時間小於2秒的,只佔7%(8宗)。而有駕駛員操作數據的135宗事故中,82%的事故駕駛員根本沒有剎車或在事故發生前少於1秒鍾的時間纔開始剎車,78%的事故駕駛員根本沒有操作方向盤或在事故發生前少於1秒鍾纔開始打方向盤。當然,在如此短的時間內,這些操作根本不可能避免事故發生。
這些分析同樣表明,儘管駕駛員或許達到了特斯拉駕駛員監控系統的標準,但駕駛員實際狀態和注意力根本不能滿足安全駕駛的需要,而駕駛員監控系統卻並未發現。這些數據進一步表明,駕駛員監控系統存在明顯的安全隱患。
值得注意的是,55宗事故是由於駕駛員無意的行為或在不知情的情況下導致智駕系統退出,但交通感知系統(TACC)仍處於激活狀態,其中78%(43宗)的案例是在無意退出后5秒內就發生了事故。
調查報告認為,特斯拉這種過於敏感的退出設計實際上是不鼓勵駕駛員進行任何的介入行為,換句話説,這也導致駕駛員不合理地過度依賴智駕系統,進一步增大交通安全風險。
特斯拉「天價」賠償
2019年4月25日晚上9:30左右,在佛州門羅縣(Monroe County)一條編號為縣道905A的路上,麥克吉(George McGee)駕駛一臺2019版的特斯拉Model S向東行駛,在通過與905路的T形交叉口時,垂直撞上了一輛正停在905號路肩的雪佛蘭汽車。正站在車邊上的22歲的姑娘利昂(Leon)當場死亡,遺體被強大的衝擊力拋到75英尺(約23米)遠的地方,死者男友安古洛(Angulo)重傷,僥倖撿回一條命。
涉事的特斯拉Model S安裝了輔助駕駛系統(Autopilot)等全套智駕系統。據特斯拉提供的數據,距事故發生地約2.6公里前,駕駛員麥克吉踩了加速踏板從而退出輔助駕駛系統,此時距離發生事故還有75秒。事故發生時,車速達到約100公里,而路段限速為約72公里,也就是説嚴重超速。此外,路口有停車讓行(Stop Sign)的指示牌,交叉口有燈控,當時正好是閃紅燈狀態(在美國的意思是停車觀察安全后可通行)。
在事故發生前1.65秒,智駕系統感知到了路邊的停車讓行標識牌、停放在路側的雪佛蘭車以及受害者安古洛,並在事故發生前1秒時開始剎車,但為時已晚,智駕系統沒有更早發現也沒能更早警告駕駛員,更沒有將車剎停。
2021年4月22日,逝者利昂的代理人起訴了特斯拉,2022年8月16日,傷者安古洛也起訴了特斯拉。法官隨后將兩起案件進行合併審理。
2025年8月1日,佛州聯邦地方法院陪審團成員投票一致同意:特斯拉的智駕系統存在缺陷,特斯拉對2019年一起交通事故的發生負有33%的責任。特斯拉公司需承擔損害賠償4250萬美元,另外對特斯拉公司施以2億美元的懲罰性賠償。多年來,這是特斯拉第一起被聯邦法院宣佈其FSD(自動駕駛系統)對交通事故負有責任的賠償案。
這項判決意義重大,天價判罰不啻於對所謂的智駕行業的盲目樂觀一記重錘,有助於推動全世界監管和司法加快釐清涉輔助駕駛的責任在廠家與消費者間該如何分配。這更是向外界遞了一個信息,多年來,智駕行業以輔助駕駛的名義逃脱事故法律責任恐怕一去不復返了,只有加強責任,雙邊預防或許能防止更多悲劇的發生。
庭審認為,特斯拉的智駕系統風險警示不充分違法行為同時成立
值得注意的是,除了設計缺陷,法庭辯論的一個核心是智駕系統風險警示是否充分。
原告認為,特斯拉存在警示不充分,包括:特斯拉沒有充分警示消費者車輛的智駕系統仍是Beta版本(測試版本);使用手冊中的警示內容是充分且完整的,但位置不顯著(指消費者難以看到),且只提供了電子版本(閲讀可達性不足,即不容易看到這部分內容),因此同樣屬於警示不充分;駕駛員監控系統沒能提供充分的車內警示要求駕駛員保持注意力。按照相關法律,警示不充分或者説不能有效警示同樣屬於產品缺陷,需要承擔嚴格的產品責任。
使用手冊中的警示是否充分,不僅取決於手冊中是否有警示的內容,還包括警示的措辭,以及警示的位置和方式是否足夠明顯。
關於車內顯示屏的警示是否充分的問題,根據相關判例建立的標準,產品警示標籤必須顯著標明潛在的損害后果,包括不能按照規範使用產品的嚴重風險的措辭。特斯拉車內的警示——「如果你能密切觀察道路情況並準備隨時接管,才能夠啟用智駕系統」——顯然不能滿足法定標準,按照法官的評論,這與其説是警示,更像是指令(instructions),因為並沒有點出相關風險和潛在嚴重后果。
產品如果存在內在的威脅,生產者就有了警示義務。這種義務包括了產品即使不是按照預期使用,只要這種使用是可以合理預見的。但是,生產者沒有義務警示一個顯然的危險(obvious danger)或者衆所周知的危險。
特斯拉認為駕駛員需要集中注意力駕駛是一個人盡皆知的常識,並不需要專門警示,因此否認其存在警示不足的缺陷。此外,駕駛員承認其並未閲讀使用手冊中的警示部分,沒有證據可以證實,任何額外的警示可以影響駕駛員事故當天的駕駛行為。
睿智的法官對此有十分精彩的評論。她認為,特斯拉確實不需要警示駕駛汽車需要集中注意力,但這並不是一個好的問題;駕駛員過度依賴智駕系統的風險,或者智駕系統激活期間駕駛員需要集中注意力,纔是需要警示的真問題,這恐怕並不是一個人所盡知的常識。由於誇大宣傳、誤解等各種原因,很多消費者並不瞭解智駕系統的侷限性,現實中存在大量誤用或濫用,況且特斯拉的智駕系統在名稱上更容易使人誤解其為「自動駕駛系統」——FSD指全自動駕駛系統,Autopilot也包含了自動的意思,這種暗示具有比其實際更多的能力。
馬斯克多次公開宣稱特斯拉的智駕系統比人類駕駛員更安全,智駕系統已經拯救了超過50萬人的生命。特斯拉官網上的安全報告也在持續向社會宣稱使用智駕系統遠比人類駕駛安全。這些都表明,對於普通消費者而言,不要信任特斯拉的智駕系統以避免事故是不是一個人人所共知的事實存在爭議,很難説已成為社會常識,因此需要陪審團來進行判斷。
關於駕駛員沒有閲讀使用手冊中的警示的問題,按照相關判例建立的標準,如果是生產者的警示不充分使得消費者不能或沒有閲讀警示,這不影響生產者警示不充分違法行為的成立。
最終庭審認為,特斯拉的智駕系統風險警示不充分違法行為同時成立。按照美國有關法律要求,產品風險警示需要「準確、清晰以及不含糊」。按照普通法有關判例建立的警示標準,充分的警示標識必須顯著告知潛在的損害后果,以及必須達到這樣一個強度——足以使得一個理性的人能夠爲了其個人的安全而提高警惕至與潛在安全風險程度相當的水平。
2024年10月,美國國家公路交通安全管理局正式對特斯拉 「全自動駕駛系統」(FSD)啟動調查。
中國監管新規
8月13日,市場監管總局的徵求意見稿,主要包括用户手冊和安全警示的完善、駕駛員監控系統功能完善、系統在線升級管理、智駕系統宣傳以及事故報送等六個方面。后三方面的內容,此前工信部在相關通知中已多次強調,應該不算監管新政,而關於前三方面的內容確有不少是新政,其核心為加強產品缺陷的認定與監管。這恰好與特斯拉佛州案子的主要內容幾乎完全契合,冥冥之中,似乎大洋兩岸對智駕行業監管有了一種默契。
在用户手冊和安全警示完善方面,通知明確,企業應當在車輛App、車載信息交互系統顯著位置和用户手冊中顯示組合駕駛輔助系統的安全提示和使用説明,以便於消費者閲讀、理解和操作,避免駕駛員將組合駕駛輔助功能視為自動駕駛功能使用。
企業向消費者提供有關智能網聯新能源汽車駕駛自動化等級、系統能力、系統邊界等信息時,應當真實、全面,不得做虛假、誇大系統能力或引人誤解的宣傳,確保消費者正確理解和駕駛智能網聯新能源汽車。企業在組合駕駛輔助系統或功能命名及營銷宣傳中,不得暗示消費者可以視其為自動駕駛系統、具備實際上並不具備的功能,防止駕駛員濫用。
在駕駛員監控系統功能完善方面,通知明確,企業應當開發、使用安全優先的駕駛員監測、警示和處置功能,密切監測駕駛員的駕駛狀態,在駕駛員出現脱手、睡眠等脱離動態駕駛任務的情形時,及時採取語音警告、方向盤震動、限速、靠邊停車、組合駕駛輔助功能禁用等警示或控制措施,以便駕駛員及時接管車輛和降低安全風險。企業不得通過用户操作或系統邏輯主動關閉駕駛員監測、警示和處置功能。
最值得關注的是,這份通知明確,市場監管總局對存在因安全提示和使用説明不完善、網絡攻擊、網絡威脅和漏洞等安全事件開展缺陷調查,必要時督促企業通過召回方式進行改進。市場監管總局將對駕駛員監測、警示和處置功能不足的問題開展專項調查,必要時納入缺陷分析與調查工作。
這段話十分重要,因為這相當於將用户手冊、安全警示及駕駛員監控系統的不完善視為存在產品缺陷,企業應當召回。根據《產品質量法》第四十一條:「因產品存在缺陷造成人身、缺陷產品以外的其他財產(以下簡稱他人財產)損害的,生產者應當承擔賠償責任」。換言之,如果智駕車輛發生事故,產品存在此類缺陷,那麼就很有可能被法院判有責任。這與美國佛州特斯拉案體現的判決思路也不謀而合。
事實上,這也並不能完全算新規,只是社會對此並不熟悉。根據《缺陷汽車產品召回管理條例》第三條規定,「本條例所稱缺陷,是指由於設計、製造、標識等原因導致的在同一批次、型號或者類別的汽車產品中普遍存在的不符合保障人身、財產安全的國家標準、行業標準的情形或者其他危及人身、財產安全的不合理的危險」。原國家質監局《產品標識標註規定》第五條規定:「 除產品使用説明外,產品標識應當標註在產品或者產品的銷售包裝上」。將這兩條規定聯繫起來就嫩惡搞看出,《召回管理條例》中指的標識缺陷,包括用户手冊和警示標識等。
還需要特別注意的是,根據《家用汽車產品修理、更換、退貨責任規定》第十條,「產品使用説明書應當符合消費品使用説明等國家標準規定的要求。家用汽車產品所具有的使用性能、安全性能在相關標準中沒有規定的,其性能指標、工作條件、工作環境等要求應當在產品使用説明書中明示」。
《消費品使用説明 總則》本是一個國家推薦性標準,但《責任規定》明確汽車使用説明書應當遵循這個標準,那麼這個標準也就變成了汽車行業的強制性標準,或者説汽車行業必須執行這個標準。這個標準特別對如何編制安全警示進行了規範,比如標準規定,「安全警示的位置、內容和形式要醒目」、「解釋危害的性質」、「具有中高度危險的產品,應將安全警示永久地裝置在產品上」等等,這些規定都是與本次《通知》的思路是一致的,這也是特斯拉事故案法官反覆分析的內容。
迴歸本質
多年以來,使用L2級別的輔助駕駛系統出了交通事故,廠家多以簡單的一句「人類駕駛員始終是L2級自動駕駛車輛的駕駛人,系統只是輔助」而卸下全部責任,駕駛員只能獨自承擔所有后果,社會輿論則更多認為是駕駛員咎由自取。毋庸諱言,駕駛員確實是L2級自動駕駛汽車的責任人,但廠家難道就沒有任何一點責任嗎?按照特斯拉案原告律師的説法,這實際上是廠家搭的台,消費者唱的戲。
有業內人士希望通過建立L2組合輔助駕駛系統的能力標準以此提高安全水平的想法是美好的。但需要注意,L2的組合輔助駕駛系統是不能自動駕駛的系統,我們不可能建立一個可以科學評價不能自動駕駛的標準,這樣的標準即使建立起來,其效果恐怕也難如人意。還需指出的是,事實上檢測其安全可靠性需要的成本十分高昂,甚至我們可能還沒有這樣的能力。
比如規定80%的可靠性還是60%的可靠性(此前同濟大學朱西產教授提出L2輔助駕駛系統應該60分還是80分的問題已經引發行業激烈爭論),即使按照80%,通過標準認定的系統,事實上仍是不安全的,這樣的可靠性本質上仍是一個極為危險的系統,標準的權威性恐怕都會受到損害。
對於消費者來説,可靠性是一個宏觀指標,而安全事故的發生具有偶然性,60%或80%對於一個具體的消費者來説,就風險發生,沒有根本的區別。當然這並不是説可靠性的指標不重要,更不是説指標越高反而不好,而是想提醒行業不能指望通過這個指標來解決系統的安全問題。
現實的例子擺在那里,即使技術強如特斯拉,如果標準以其能力為基準來構建,美國交通部的調查顯示,這樣的智駕系統同樣是不夠安全的,甚至使用這樣的先進系統使得一些消費者出現過度依賴或過度自滿(unduly complacent),結果適得其反。更糟糕的是,標準認定背書的系統是否會導致用户更多的濫用呢?況且在悲劇發生后,如何承擔責任也同樣難以界定。
美國佛州特斯拉案及中國徵求意見新規其實是提供了另外一個思路,那就是從提升系統的安全能力更多轉變到或更多強調系統監督人的安全駕駛和限制系統的使用範圍,這也應成為標準制定的方向和廠家責任的範圍。畢竟對於輔助駕駛系統而言,本質上只能是提供輔助功能,人才是駕駛的主體。
全世界每年道路交通死亡人數超過120萬人,發展自動駕駛的最重要目的就是提高道路交通的安全水平,拯救更多生命。規範使用L2級的輔助駕駛系統可以提高安全水平,無論是特斯拉公司還是國內智駕企業都公佈過案例,但宏觀上這需要科學的系統設計與規範的使用。要求L2廠家生產設計出達到或接近L3以上功能的產品是強人所難,也可能是本末倒置,這恐怕也是同濟大學朱西產教授堅持60分的邏輯。
提升安全不是讓L2去靠近L3或L4的能力,而是如何更好地輔助人和監督人,讓輔助迴歸其本質,L2輔助駕駛系統的安全設計必須以人為中心。不能最大程度保證消費者正確使用組合輔助駕駛系統的廠家,在事故發生后就可能要承擔相應責任。希望使用自動駕駛的消費者,那就去購買L3以上有自動駕駛能力的汽車,當然前提是廠家儘快生產出符合監管部門要求的自動駕駛車輛,安全責任則全部由廠家承擔。
本文系觀察者網獨家稿件,文章內容純屬作者個人觀點,不代表平臺觀點,未經授權,不得轉載,否則將追究法律責任。關注觀察者網微信guanchacn,每日閲讀趣味文章。