首先,關于人工智能(AI)的幾個觀點:它是一個錯誤的名稱!AI既不是人工,,也不是智能,。如果沒有大量人為的訓練,AI無法識別事物,。在識別,、理解和分類物體或場景方面,AI表現(xiàn)出與人類完全不同的邏輯,。標簽意味著AI類似于人類智能 ……
其實,,不是這樣的。
AI往往缺乏任何常識,,很容易被欺騙或破壞,,并可能以意外和不可預測的方式失敗。換句話說,,需要謹慎行事,。
本文探討了AI技術是如何影響汽車行業(yè)的。我們將考慮以下這些問題,。
AI如何解決一個問題,?
AI在汽車中的優(yōu)勢和缺點是什么?
在汽車中使用AI的獨特挑戰(zhàn)是什么,?
哪些汽車電子領域正在使用AI,?
哪些未來的汽車電子領域將依賴AI技術?
AI的開發(fā)分三個階段:建立AI模型,,使用相關數據訓練AI模型,,最后是使用訓練好的模型來解決問題,即推理階段,。
大多數AI模型是基于多種類型的神經網絡和學習網絡,。例如CNN(Convolutional Neural Networks)、GAN(Generative Adversarial Networks),、DRL(Deep Reinforced Learning),、Federated Learning,、Transfer Learning和其他。每一種都有不同的優(yōu)缺點,,所有類型都在迅速發(fā)展,。
下表總結了AI技術的優(yōu)缺點,以及安全考量和擬議的法規(guī),。
AI的優(yōu)勢
AI主要用于解決復雜問題,。由于汽車行業(yè)存在很多難題,AI在推動汽車技術發(fā)展方面發(fā)揮著越來越大的作用,。自動駕駛汽車的前景主要取決于新的AI技術,。人們似乎一致認為,神經網絡的發(fā)展是未來AV部署成功的主要途徑,。
好消息是,,AI,尤其是神經網絡技術還處于早期研發(fā)階段,,這意味著突破性創(chuàng)新未來可期,。隨著全球范圍內在持續(xù)加碼對AI的投資,可以肯定的是,,AI和神經網絡將解決更多的復雜問題,,包括汽車行業(yè)的挑戰(zhàn)。
AI的缺點開發(fā)和部署AI技術的挑戰(zhàn)之一是對神經網絡的充分訓練,。一般來說,,問題越復雜,神經網絡模型就越復雜,。這意味著需要大型模型,。訓練需要大量的資源和專業(yè)知識來設計和測試AI模型,依靠大型數據集來驗證模型的性能,。
AI模型需要廣泛的訓練,,這意味著需要大型數據庫。更大的訓練數據集正在變得可用,,但訓練仍然是一項耗時而昂貴的任務,。大多數訓練數據也必須由人類來標注,以使AI模型可以學習并變得成熟,。而越來越多的人也在擔心,,偏見(bias)的問題也在悄悄地進入訓練數據。
然后是黑箱問題:仍然很難確定AI模型如何做出決定,。這種模糊性對自動駕駛系統(tǒng)來說仍然是一個大問題,,需要更好的解決方案。
另一個問題涉及模型對微小數據變化的敏感性,。這種脆弱性造成了安全隱患,,包括黑掉自動駕駛系統(tǒng)的可能性,,以及由此對AV安全造成的威脅,。缺乏AI專業(yè)知識是汽車和其他行業(yè)的另一個大缺點,,這一技能差距不可能很快得到彌補。
解決問題的推理階段也有弊端,。大型模型,,特別是用于AV的模型,需要巨大的計算資源來壓縮傳感器數據并支持復雜的軟件,。這些資源也需要功耗,,而功耗在汽車應用中總是有限的。
新興技術將提高能力并降低推理成本,,包括新興的AI芯片技術,、激光雷達的價格下降和傳感器性能的提高。
推理的最大缺點是黑箱問題,,即AI的可解釋性,。AI系統(tǒng)仍然無法解釋他們是如何做出決定的,這就造成了一系列AI的信任問題,。對于汽車應用來說,,這是不能接受的。
AI的安全性
汽車AI對安全的要求比其他消費領域高得多,。因此,,必須更加重視AI的安全和研發(fā)。為此,,Georgetown大學的CSET(Center for Security and Emerging Technology)發(fā)布了一份開創(chuàng)性的報告,,研究AI的意外后果和潛在影響。
CSET的報告確定了AI故障的三種基本類型:魯棒性,、規(guī)范性和保證性故障,。魯棒性故障是指AI系統(tǒng)收到異常或意外的輸入,,導致系統(tǒng)故障,。在規(guī)范性故障中,AI系統(tǒng)試圖實現(xiàn)與設計者意圖有細微差別的東西,,導致意外的行為或副作用,。保證性故障意味著AI系統(tǒng)在運行過程中不能被充分監(jiān)控或控制。
這份報告還列舉了AI意外崩潰的例子,,并建議采取行動降低風險,,同時使AI工具更加可信。
可解釋的人工智能,,即XAI(Explainable AI),,是一種緩解黑箱效應的方法,,可以更好地理解哪些數據是需要用來提高模型的準確性。由國防部高級研究計劃局贊助的XAI研究旨在開發(fā)機器學習技術,,產生更多可解釋的模型,,同時保持高水平的學習性能和準確性。XAI還將使人類用戶能夠理解,、信任和管理AI模型,。XAI還可以描述自己的能力,并提供對其未來行為的洞察,。
AI法規(guī)
AI和GDPR(General Data Protection)是緊密相連的,。GDPR影響了歐洲和其他地區(qū)的AI發(fā)展。該法規(guī)明確涵蓋了自動化,、個人決策和剖析,。該規(guī)則保護消費者免受兩者的法律后果。在這種情況下,,自動化,、個人決策包括AI平臺在沒有任何人工干預的情況下做出的決定。剖析是指對個人數據的自動處理,,以評估個人,。
對于汽車應用,這主要影響到內容交付系統(tǒng)和用戶界面,。
歐盟正在準備一項類似于GDPR的AI法規(guī),,這項新規(guī)則可能會像GDPR一樣產生廣泛影響。今年4月,,一份代表監(jiān)管AI的法律框架的提案草案發(fā)布,。
歐盟的提案旨在識別高風險的AI技術及其應用,這些技術針對的是可能危及公民安全的交通等關鍵基礎設施,。這意味著AV將成為AI監(jiān)管的目標,。
根據歐盟提議的AI立法,罰款最高可達3000萬歐元,,或公司全球營收的6%,,以較高額度為準。GDPR下的最高罰款為2000萬歐元,,或全球營收的4%,。
汽車領域的AI
下表總結了與汽車電子結合的AI技術。不包括用于汽車制造,、供應鏈管理,、質量控制、營銷和類似功能的AI,,盡管在這些領域AI正在做出重大貢獻,。
由神經網絡產生的決策必須是可以理解的,。如果不這樣,就很難理解它們是如何工作的,,也很難去糾正錯誤或偏見,。
神經網絡的決策也必須是穩(wěn)定的。也就是說,,盡管視覺數據有微小的差異,,但仍然要保持穩(wěn)定,。這對AV來說尤其重要,。例如,停車牌上貼上黑白膠帶就能讓基于AI的視覺系統(tǒng)失效,。這是一個無法接受的例子,。
AV應用需要更好的技術來理解邊緣案例或以前的軟件行駛訓練沒有經歷過的新的案例。這仍然是大量部署AV系統(tǒng)的一個關鍵制約因素,。
目前AI的用例
語音識別和用戶界面一直是汽車領域最成功的基于AI的應用,。這些應用利用智能手機和消費類電子產品中的AI技術,部署在信息娛樂和HMI中,。Alexa,、CarPlay、Android Auto和類似產品已經被使用在大多數新車型中,。
遠程診斷是一個領先的遠程信息技術應用,。例如,AI技術的加入可以幫助預測未來的設備故障,。
基于AI的視覺系統(tǒng)被用于配備ADAS汽車的DMS,。隨著AI技術的進步,DMS將出現(xiàn)快速增長,。
許多ADAS功能也使用AI技術,,包括ACC到各種類型的自動泊車功能。L1和L2的汽車將在新車型中使用越來越多的AI技術,。
新興的AI用例
多家車廠正在搭載有限的駕駛巡航功能,。它們通常被稱為L2+,但目前的標準中不包括這個術語,。稱它們?yōu)椤癆utopilot”是錯誤的,,因為它讓消費者混淆概念,錯認為比現(xiàn)有的能力更強,。而且它們已經造成了許多事故,。
L3車輛發(fā)布已經有幾年了,但由于監(jiān)管限制,,部署也受到了限制,。允許L3的法規(guī)正在出現(xiàn),,L3車輛使用了很多AI技術。
OTA軟件和網絡安全功能都在通過嵌入式軟件客戶端以及基于云的服務和分析軟件增加AI技術的使用,。
一個新興的AI應用是AV的開發(fā)和測試,。大約有5000輛AV處于測試和驗證階段,主要是在中國和美國,,其中包括自動駕駛運貨車,、自動駕駛卡車、Robotaxi和固定路線的AV,。
未來的AI用例
AV領域是AI技術最有價值和最難的應用,。行業(yè)目標是實現(xiàn)一個比最好的人類司機更好的軟件駕駛程序,同時又沒有人類行為的那些缺點,。
基于AI技術的軟件開發(fā)已經成熟,。識別和修復軟件錯誤有可能在未來十年通過創(chuàng)新的AI技術產生。
AI技術帶來的網絡安全進步也許是汽車和其他行業(yè)最迫切的需求,。這些領域正吸引著大量,、持續(xù)的投資。
底線
AI技術已經成為汽車行業(yè)的主要驅動力,。到目前為止,,有兩家公司在AI技術方面處于領先地位,Nvidia和Tesla,。在為創(chuàng)建和使用AI模型提供芯片和軟件標準方面,,顯然Nvidia是領導者。Tesla正在穩(wěn)步在其Autopilot中部署AI,。
與此同時,,還有許多公司專注于汽車AI:Mobileye是ADAS領域的領導者,也正在野心勃勃地布局AV,,Waymo當然也在其中,。
隨著人們對安全隱患擔憂的增加,AI開發(fā)者必須注意這些變化的跡象,,以免意外事故扼殺技術創(chuàng)新,。排名首位的是解開AI的黑箱,因為這限制了信任系統(tǒng)的部署,。在其他方面,,訓練數據的偏見問題是一個日益嚴重的問題,難以評估,,因此也很難解決,。
歐盟正在制定AI相關的法規(guī),其他地區(qū)也會跟進。
在可預見的未來,,AI開發(fā)者在建立安全,、強大的自動駕駛系統(tǒng)時必須謹慎行事。
[參考文章]
AI in Automotive: Current and Future Impact — Egil Juliussen