熱門資訊> 正文
2025-08-04 18:34
每經記者|劉曦 每經編輯|裴健如
據央視新聞報道,當地時間8月1日,美國佛羅里達州一個陪審團裁定,特斯拉公司在2019年一起車禍中負有責任,應向原告方賠償超2.4億美元,約合人民幣17.3億元。
報道稱,這起案件涉及發生在2019年4月25日的一起事故。當時一名司機駕駛他配有自動輔助駕駛系統的特斯拉Model S型汽車以大約每小時100公里的速度穿過一個十字路口,撞上了原告方停在路邊的汽車,造成一名女性死亡,其男友受重傷。而司機在撞到原告方的汽車前,曾伸手去撿掉在車里的手機。在此過程中他還闖了一個紅燈且忽視了一個停車標識,但據稱他沒有收到任何警告。
對此,特斯拉方面堅持認為事故主因在於駕駛員操作不當,並表示將提起上訴。
這一消息也引發了廣泛的關注和討論。從技術層面看,特斯拉2025年第二季度安全報告顯示,開啟Autopilot或FSD輔助駕駛功能的車輛平均每行駛669萬英里發生一起事故,而未使用輔助駕駛的特斯拉車輛每96.3萬英里發生一次事故。
相比之下,據美國國家公路交通安全管理局 (NHTSA) 和聯邦公路管理局 (FHWA) 公佈的自2023年以來的數據,美國境內大約每70.2萬英里行駛里程即發生一起車輛碰撞事故。
但值得一提的是,近年來,特斯拉的自動駕駛技術(包括Autopilot和FSD),因技術成熟度與安全性屢遭質疑,其不僅引發過多起事故,更在美國、歐洲等地面臨法律訴訟與監管壓力。
例如,今年4月,一輛2022款特斯拉Model S在西雅圖附近使用"全自動駕駛"(FSD)模式時,撞死了一名摩托車手。
事實上,在美國,特斯拉因多起事故受到NHTSA的嚴格調查。自2021年8月起,NHTSA就對特斯拉的Autopilot(自動駕駛輔助系統)展開了調查,其中特別關注了322起事故。調查結果顯示,Autopilot系統存在「關鍵安全缺口」,導致了多起事故的發生。
在德國,特斯拉同樣面臨法律訴訟和監管壓力。2025年,德國法院裁定特斯拉Model 3所搭載的Autopilot系統存在「缺陷」,並因「幽靈剎車」問題被認定為「不適合正常使用」。
值得注意的是,在上述美國佛羅里達州陪審團裁定的案件中,特斯拉被認定需承擔三分之一的責任,其余責任由駕駛員承擔。
據《每日經濟新聞》記者觀察,全球範圍內對智能駕駛事故的責任認定尚未形成統一標準。比如,在美國,責任劃分主要基於多方責任原則。以上述裁定為例,特斯拉因Autopilot設計缺陷需承擔33%的事故責任,並支付2.43億美元賠償,其中包含2億美元懲罰性賠償,以警示車企在自動駕駛技術宣傳和安全性上的責任。
在中國,政策法規更傾向於分級定責。今年7月,科技部官網公佈的《駕駛自動化技術研發倫理指引》明確指出,L0~L2級責任主體通常是人類駕駛員;L3~L4級「因場景而異」用户和自動駕駛系統都可能成為責任主體;L5級除非特殊情況下有用户主動介入操作,否則,無限制階段自動駕駛的責任主體以自動駕駛系統為主。
實際上,隨着自動駕駛技術向L3級別邁進,駕駛責任主體正從駕駛員向自動駕駛系統轉移,這一轉變催生了全新的保險需求。
例如,比亞迪承諾承擔智能泊車場景下的全部責任損失;小鵬推出年費239元的「智能輔助安心駕駛服務」,提供最高100萬元補償;平安產險與賽力斯也合作推出了智駕保障服務計劃,覆蓋智能泊車、智能駕駛等8個場景,提供智能駕駛責任風險保障方案。
然而,目前車企提供的智駕保障服務更多是一種增值承諾,而非真正的保險產品。這類服務通常要求車主必須先購買交強險和商業險,本質上是一種補充保障。
從保險產品責任劃分來看,傳統車險以駕駛員過錯為核心,但智能駕駛技術引入「人機共駕」模式后,責任鏈條涉及駕駛員、車企、算法三方,定責難度陡增。
根據太平再保險(中國)有限公司發佈的《智能網聯汽車保險創新白皮書》,智能網聯汽車在自動駕駛過程中涉及人車互動,事故責任認定比傳統情況更復雜,導致保險公司調查成本增加、理賠周期延長。
對此,北京社科院副研究員王鵬表示:「在智駕場景下,人機定責難,可能導致理賠糾紛。同時,數據監管與立法尚不健全、智能駕駛數據的真實性與透明度都會影響事故責任劃分和理賠公正性。」
他強調,要解決這一難題,需要保險公司、車企和科技公司等多方協同合作,共同推動智能駕駛保險體系的完善與發展。
封面圖片來源:每經記者 孔澤思 攝(資料圖)