特斯拉Autopilot到底安全嗎?

特斯拉Autopilot到底安全嗎?

“人們關注的重點一直是創新,而不是安全”

編譯|楊玉科

編輯 | Jane

出品| 幫寧工作室(gbngzs)

2017年購買特斯拉Model S時,羅賓·吉烏拉(Robin Geoulla)其實有些顧慮,他對這輛車的自動駕駛技術有些懷疑。

“完全依賴它,讓它自己駕駛,有點可怕,你懂的。”羅賓這樣對一名美國調查人員描述其對特斯拉Autopilot系統的最初感受。2018年1月,發表上述感慨幾天前,羅賓那輛Model S在Autopilot啟動狀態下,撞上一輛停在加州州際公路上的消防車後部。

隨著時間推移,羅賓改變了對Autopilot的懷疑態度。他發現,一般情況下,Autopilot在跟蹤前面車輛時基本可靠,但當面對陽光直射或前面車輛突然改變車道,Autopilot系統似乎就會出現混亂狀況。在接受美國國家運輸安全委員會(NTSB)調查人員問詢時,羅賓回答道。

他告訴調查人員,在與消防車追尾之前,他正朝著太陽行駛——這似乎也印證了上述觀點。NTSB發現,特斯拉Autopilot設計允許羅賓在行駛中脫離駕駛,當Autopilot啟動時,他的手幾乎約30分鐘都不在方向盤上。

NTSB此前曾敦促美國國家公路交通安全管理局(NHTSA)調查Autopilot的侷限性、司機濫用的可能性,以及一系列涉及Autopilot事故(其中有部分致命事故)後可能存在的安全風險。

NTSB新任主席詹妮弗·霍曼迪(Jennifer Homendy)告訴路透社:“事實表明,人們關注的重點一直是創新,而不是安全。我希望當下就是發生轉變的開始。”她說,特斯拉Autopilot與航空領域使用的更嚴格自動駕駛系統沒有可比性,後者配有訓練有素的飛行員,而且匹配應對疲勞、藥物和酒精測試的相關規則。

特斯拉網站顯示,Autopilot是一種先進的駕駛員輔助功能,當前版本無法實現自動駕駛。啟用該系統前,司機必須把手放在方向盤上,並保持對車輛的控制。

特斯拉Autopilot到底安全嗎?

羅賓的事故是NHTSA正在調查的12起(包含9月13日弗羅裡達事故)涉及Autopilot事故之一,這是該機構自特斯拉 2015年引入Autopilot系統以來最深入的調查的一部分。

經路透社查閱NHTSA宣告、NTSB檔案和警方報告顯示,正在調查的這些事故中,大多數發生在天黑後,或陽光刺眼等能見度有限的條件下。自動駕駛專家表示,這引發了人們對Autopilot在特殊駕駛條件下應變能力的質疑。

NHTSA發言人在發給路透社的一份宣告中寫道:“當我們發現對公共安全構成不合理風險時,我們將採取行動。”

▍調查Autopilot

調查行動早已展開。

自2016年以來,美國汽車安全監管機構已陸續安排33個特別事故調查小組,對涉嫌使用先進駕駛輔助系統的特斯拉事故進行調查。NHTSA已經排除其中3起非致命事故中使用Autopilot的可能性。

NHTSA當下對Autopilot的調查,重新引出一個問題——Autopilot系統到底是否安全?這也是特斯拉執行長埃隆·馬斯克(Elon Musk)面臨的重大挑戰。

對於換道等高階駕駛輔助功能,特斯拉向客戶收取1萬美元費用,承諾最終只使用攝像頭和高階軟體就能實現自動駕駛。而其他汽車製造商和自動駕駛公司不僅使用攝像頭,還使用更昂貴的硬體,包括雷達和鐳射雷達。

馬斯克曾表示,配備8個攝像頭的特斯拉比人類駕駛還要安全。但專家和業內高管則表示,攝像頭技術會受到黑暗、陽光,以及暴雨、雪和霧等惡劣天氣條件的影響。

卡耐基梅隆大學電子與計算機工程教授拉吉·拉基庫馬爾(Raj Rajkumar)認為,現今計算機視覺遠未達到完美,在可預見的未來也將如此。

特斯拉Autopilot到底安全嗎?

2016年,特斯拉在佛羅里達州威利斯頓西部發生美國首起涉及Autopilot的致命事故。在明亮的天空下,司機和Autopilot都沒能識別一輛重型卡車的白色擋板。當時,特斯拉沒有剎車,而是直直地撞上了那輛重型卡車。

路透社查閱檔案顯示,2017年1月NHTSA結束對那次致命事故的調查,在與特斯拉相關人員進行一些有爭議的交流後,發現Autopilot效能沒有缺陷。

根據監管機構發給特斯拉的一份特別命令,2016年12月,作為調查的一部分,監管機構要求特斯拉提供對Autopilot引發的任何內部安全擔憂的細節,包括司機誤用或濫用的可能性。

一位NHTSA律師發現,特斯拉的最初回應不夠充分。時任特斯拉總法律顧問託德·馬龍(Todd Maron)再次進行補充,他告訴監管機構,對方要求“過於寬泛”,他不可能將Autopilot在開發過程中涉及的所有問題一一列舉出來。

儘管如此,馬龍認為特斯拉自始至終都持合作態度。在Autopilot開發過程中,特斯拉員工曾談到他們的擔憂——特斯拉偶爾會剎車失靈或加速,或轉向失敗,以及司機某些誤用和濫用,但沒有提供更多細節。

NHTSA檔案顯示,監管機構想知道,特斯拉是如何識別應急車輛上閃爍的燈,或檢測道路上的消防車、救護車和警車的存在?該機構從12家競爭對手那裡獲得了類似資訊。“特斯拉被要求生成並驗證資料,以及他們對這些資料的解釋,NHTSA將對所有資訊進行獨立驗證和分析。”

特斯拉Autopilot到底安全嗎?

作為電動汽車先驅,馬斯克一直在批評人士和監管機構面前竭力為Autopilot辯護。而且,特斯拉還利用Autopilot無線更新汽車軟體,超越並繞開傳統汽車召回程式。

馬斯克多次宣傳Autopilot功能。在一些批評人士眼中,一些宣傳方式會誤導消費者,後者相信特斯拉可以做到自動駕駛——事實恰恰相反,車主手冊告訴司機要保持專注,並說明了這項技術的侷限性。

霍曼迪說:“為了銷售汽車,一些製造商會按照他們的立場做他們想做的事情,這就需要政府監管控制。”

▍2秒鐘的分界線

就在聯邦官員審查特斯拉Autopilot安全性之際,有一項研究表明該系統如何影響駕駛員行為。

麻省理工學院研究人員稱,與單純人類駕駛相比,當Autopilot系統開啟時,駕駛員的眼睛偏離道路頻率更高,時間更長。

這項研究被認為是首次使用真實駕駛資料來衡量Autopilot駕駛員注意力集中度,以及其視線到底在前方道路的哪一邊。

麻省理工學院研究科學家、該研究的作者之一皮尼娜·格森(Pnina Gershon)說:“這是我們第一次將Autopilot對司機注意力的影響進行量化。從本質上講,資料表明,當Autopilot啟用時,我們看到,駕駛員視線偏離道路的時間更長。”

特斯拉Autopilot到底安全嗎?

NHTSA正在調查11起事故,其中多起涉及Autopilot車輛與停止的應急車輛相撞。特斯拉必須在2021年10月22日前,提交聯邦監管機構要求的書面回覆和資料。

這項調查只是Autopilot更廣泛安全問題的一小部分。NTSB在對多起涉及Autopilot車輛的致命車禍調查中表示,駕駛員監管不力,以及Autopilot缺乏安全保障。NTSB為此警告道,這種Level 2系統可能導致人類過度依賴,被稱為“自動化自滿”。

與特斯拉有關的濫用情況在YouTube上被詳盡記錄。記錄顯示,有司機讀著報紙或直接坐在後排,表現出對駕駛任務的公然無視。

麻省理工學院研究人員試圖透過分析特斯拉司機手動解除Autopilot系統,並重新控制車輛期間的眼神來量化注意力水平。

研究人員透過車內攝像頭觀察290個這種切換例項,區分與駕駛任務相關的、朝向後視鏡和儀表板的目光,以及與駕駛無關的目光,如向下和朝向中央區域的目光。研究發現,與單純人類駕駛員相比,Autopilot模式下,與駕駛相關的目光會減少。與駕駛無關的目光次數增多,其中有22%的目光掃視超過2秒,而單純人類駕駛員這一比例為4%。

這2秒鐘的分界線很重要。為防止分心駕駛,NHTSA建議工程師設計一種系統,確保駕駛者視線遠離道路時間不超過2秒鐘。格森透露,在研究過程中發現了幾次超過5秒的非駕駛眼神。

當駕駛員輔助系統處理駕駛任務時,駕駛員是否安全地將視線移開,這是特斯拉和其他汽車製造商需要考慮的一個重要問題。研究結果表明,是時候考慮這個問題了。

特斯拉Autopilot到底安全嗎?

2015年,特斯拉推出第一代Autopilot。2017年,通用汽車於推出超級巡航駕駛員輔助系統。自那以後,眾多汽車製造商紛紛跟進,推出更先進的功能。

最新研究表明,儘管這些Level 2系統多年來一直在路上,但司機使用它們或某些系統效果如何,汽車製造商們並沒有深入考量對比。

格森擔心繫統開發的孤立性質,以及這些系統如何影響操作車輛的人類。“如果各廠商繼續單打獨鬥,我們最終將發現,兩種車輛並排行駛在路上,然而它們的開發基於不同的設計理念和政策方法,無法在一個生態系統中有效合作。”格森說,“因此,我們需要拿出政策,系統設計者應該傳輸給消費者什麼資訊,而消費者根據直觀資訊做出一些駕駛決定。”

▍先解決安全問題

美國首席事故調查員敦促特斯拉在擴大其自動駕駛功能之前,先解決安全問題。

霍曼迪在接受《華爾街日報》採訪時說,“完全自動駕駛”這個詞是“誤導和不負責任的”。《華爾街日報》則認為,與汽車手冊上的警告相比,市場營銷可能會吸引更多關注。

8月13日,霍曼迪宣誓就職後,首次接受彭博社採訪時表示:“無論是特斯拉,還是其他公司,這些製造商都有責任誠實地說出他們的技術能做什麼,不能做什麼。”接著,她讚揚特斯拉在此前多次NTSB調查中的合作,表示並不想把特斯拉單獨拎出來說事。

她舉例道,各種汽車的電視廣告給人一種錯誤印象,即汽車可以自動轉向和制動。“我驚呆了。”霍曼迪說。

特斯拉Autopilot到底安全嗎?

解決這些駕駛輔助系統的安全問題是霍曼迪計劃的“一長串”行動之一。“我們有一個偉大的過去,但我們必須著眼於未來。”她說,“我們正處在一個轉型變革時代,我聽說了很多關於創新和投資的事情,但沒怎麼聽說過安全問題。這就是切入點,安全必須是重點。”

儘管Autopilot名字(英文直譯為自動駕駛)和馬斯克的精心表述,但事實是,Autopilot在技術上並不具備“完全自動駕駛”能力。不斷髮生的事故和失去的生命繼續證明了這一點。

“NHTSA提醒公眾,目前市面上沒有一輛機動車能夠自動駕駛。”該機構發言人在一份調查宣告中說。

目前尚不清楚,NHTSA能否糾正特斯拉的行為。這位發言人補充道,所有州的法律都要求人類司機對車輛操作負責。

由於如此多的危險源自特斯拉過度宣傳駕駛輔助系統能力,更有效的約束可能來自聯邦貿易委員會(Federal Trade Commission)等實體。上週,兩名參議員呼籲聯邦貿易委員會調查特斯拉是否利用欺詐營銷,使公眾處於危險之中。

8月13日,美國汽車安全監管機構啟動對特斯拉Autopilot初步調查。根據NHTSA提交檔案,調查涉及Model Y、Model S、Model X和Model 3車型2014款至2021款,估計有76。5萬輛汽車受影響。

該機構ODI辦公室表示,自2018年1月以來,已經確認11起事故。這些事故中,各種特斯拉車型在第一反應現場附近駕駛,隨後撞上現場的一輛或多輛汽車。除11起事故外,該機構報告還提到17人受傷和1人死亡。

(本文部分內容綜合Automotive News、Reuters、Bloomberg報道,部分圖片來自網路)