《電子技術(shù)應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 全球自動駕駛汽車硬件和軟件最新技術(shù)總結(jié)(2020)

全球自動駕駛汽車硬件和軟件最新技術(shù)總結(jié)(2020)

2020-03-24
來源:電子工程世界
關(guān)鍵詞: 自動駕駛 SLAM RoboTaxi

  進入到2020年,,自動駕駛技術(shù)走到了需要規(guī)模商業(yè)化證明技術(shù)價值的時候,。

  不管是封閉或半封閉場景的礦區(qū),、港口和園區(qū),,還是公開道路的RoboTaxi,、RoboTruck等,,技術(shù)都是自動駕駛在不同場景商業(yè)化的基礎(chǔ),。

  本報告覆蓋了自動駕駛汽車所需要的感知,、定圖與定位,、傳感器融合、機器學習方法,、數(shù)據(jù)收集與處理,、路徑規(guī)劃、自動駕駛架構(gòu),、乘客體驗,、自動駕駛車輛與外界交互、自動駕駛對汽車部件的挑戰(zhàn)(如功耗,、尺寸,、重量等)、通訊與連接(車路協(xié)同,、云端管理平臺)等技術(shù)領(lǐng)域的討論,,并且提供相應的各自動駕駛公司的實施案例。

  本報告是由美國,、中國,、以色列、加拿大,、英國等全球不同國家和地區(qū)的自動駕駛專家,,針對自動駕駛技術(shù)的硬件和軟件技術(shù),進行的全面闡述,方便各位讀者能夠從技術(shù)角度,,了解最新的技術(shù)動態(tài),,從而全面了解自動駕駛汽車。

  本報告的案例大多數(shù)來自汽車領(lǐng)域,,這也是目前自動駕駛行業(yè)最火熱的應用場景,,但是,服務個人出行的汽車并不是自動駕駛技術(shù)影響深遠的行業(yè),,其他的行業(yè),,如公共交通、貨運,、農(nóng)業(yè),、礦業(yè)等領(lǐng)域,也同樣是自動駕駛技術(shù)應用的廣泛天地,。

1.jpg

  01 各類傳感器

  各類傳感器,,用于自動駕駛汽車感知環(huán)境,如同人類的眼睛,,自動駕駛汽車的基礎(chǔ)部件;自動駕駛汽車的傳感器主要有五種,,包括了:1,、Long range RADAR;2,、Camera,;3、LIDAR,;4,、Short/Medium range RADAR;5,、Ultrasound,;

  這些不同的傳感器,主要用于不同距離,、不同類型的物體感知,,為自動駕駛汽車判斷周邊環(huán)境,提供最重要的信息來源,,另外,,還有一個環(huán)境感知的信息來源是車路協(xié)同的來源,這點報告中也有闡述,。

2.jpg

  關(guān)于傳感器的選擇,,主要是根據(jù)下面的技術(shù)因素進行判斷:

  1、掃描范圍,,確定必須對被感測的對象做出反應的時間,;

  2,、分辨率,確定傳感器可以為自動駕駛車輛提供的環(huán)境細節(jié),;

  3,、視場或角度分辨率,確定要覆蓋,、要感知的區(qū)域需要傳感器的數(shù)量,;

  4、刷新率,,確定來自傳感器的信息更新的頻率,;

  5、感知對象數(shù)量,,能夠區(qū)分3D中的靜態(tài)對象數(shù)量和動態(tài)對象數(shù)量,,并且確定需要跟蹤的對象數(shù)量;

  6,、可靠性和準確性,,傳感器在不同環(huán)境下的總體可靠性和準確性;

  7,、成本,、大小和軟件兼容性,這是量產(chǎn)的技術(shù)條件之一,;

  8,、生成的數(shù)據(jù)量,這決定了車載計算單元的計算量,,現(xiàn)在傳感器偏向智能傳感器,,也就是,不僅僅是感知,,還會分辨信息,,把對車輛行駛影響最重要的數(shù)據(jù)傳輸給車載計算單元,從而減少其計算負荷,;

  下面是Waymo,、Volvo-Uber、Tesla的傳感器方案示意圖:

3.jpg

  傳感器因為一直暴露在環(huán)境中,,容易受到環(huán)境的污染,,從而影響傳感器的工作效率,所以,,都需要對傳感器進行清潔,。

  1、Tesla的傳感器,具有加熱功能,,可抵御霜凍和霧氣,;

  2、Volvo的傳感器配備有噴水清潔系統(tǒng),,用于清潔粉塵,;

  3、Waymo使用的Chrysler Pacifica的傳感器有噴水系統(tǒng)和刮水器,。

  02 SLAM和傳感器融合

  SLAM是一個復雜的過程,,因為本地化需要地圖,并且映射需要良好的位置估計,。盡管長期以來人們一直認為機器人要成為自主的基本“雞或蛋”問題,,但在1980年代和90年代中期的突破性研究從概念和理論上解決了SLAM。從那時起,,已經(jīng)開發(fā)了多種SLAM方法,,其中大多數(shù)使用概率概念。

  為了更準確地執(zhí)行SLAM,,傳感器融合開始發(fā)揮作用,。傳感器融合是組合來自多個傳感器和數(shù)據(jù)庫的數(shù)據(jù)以獲得改進信息的過程。它是一個多級過程,,處理數(shù)據(jù)的關(guān)聯(lián),,相關(guān)性和組合,與僅使用單個數(shù)據(jù)源相比,,可以實現(xiàn)更便宜,,更高質(zhì)量或更多相關(guān)信息,。

4.jpg

  對于從傳感器數(shù)據(jù)到運動所需的所有處理和決策,,通常使用兩種不同的AI方法:

  1、順序地,,將驅(qū)動過程分解為分層管道的組件,,每個步驟(傳感,定位,,路徑規(guī)劃,,運動控制)都由特定的軟件元素處理,管道的每個組件都將數(shù)據(jù)饋送到下一個,;

  2,、基于深度學習的端到端解決方案,負責所有這些功能,。

5.jpg

  哪種方法最適合AV的問題是不斷爭論的領(lǐng)域,。傳統(tǒng)且最常見的方法包括將自動駕駛問題分解為多個子問題,并使用專用的機器學習算法技術(shù)依次解決每個子問題,這些算法包括計算機視覺,,傳感器融合,,定位,控制理論和路徑規(guī)劃,。

  端到端(e2e)學習作為一種解決方案,,可以解決自動駕駛汽車復雜AI系統(tǒng)所面臨的挑戰(zhàn),因此越來越受到人們的關(guān)注,。端到端(e2e)學習將迭代學習應用于整個復雜系統(tǒng),,并已在深度學習的背景下得到普及。

  03 三種機器深度學習方法

  當前,,不同類型的機器學習算法被用于自動駕駛汽車中的不同應用,。本質(zhì)上,機器學習根據(jù)提供的一組訓練數(shù)據(jù)將一組輸入映射到一組輸出,。1,、卷積神經(jīng)網(wǎng)絡(CNN);2,、遞歸神經(jīng)網(wǎng)絡(RNN),;3、深度強化學習(DRL),;是應用于自動駕駛的最常見的深度學習方法,。

6.jpg

  CNN——主要用于處理圖像和空間信息,以提取感興趣的特征并識別環(huán)境中的對象,。這些神經(jīng)網(wǎng)絡由卷積層組成:卷積過濾器的集合,,它們試圖區(qū)分圖像元素或輸入數(shù)據(jù)以對其進行標記。該卷積層的輸出被饋送到一種算法中,,該算法將它們組合起來以預測圖像的最佳描述,。最終的軟件組件通常稱為對象分類器,因為它可以對圖像中的對象進行分類,,例如路牌或其他汽車,。

  RNN——當處理諸如視頻之類的時間信息時,RNN是強大的工具,。在這些網(wǎng)絡中,,先前步驟的輸出作為輸入被饋送到網(wǎng)絡中,從而使信息和知識能夠持久存在于網(wǎng)絡中并被上下文化,。

  DRL——將深度學習(DL)和強化學習相結(jié)合,。DRL方法使軟件定義的“代理”可以使用獎勵功能,在虛擬環(huán)境中學習最佳行動,,以實現(xiàn)其目標,。這些面向目標的算法學習如何實現(xiàn)目標,,或如何在多個步驟中沿特定維度最大化。盡管前景廣闊,,但DRL面臨的挑戰(zhàn)是設計用于駕駛車輛的正確獎勵功能,。在自動駕駛汽車中,深度強化學習被認為仍處于早期階段,。

  這些方法不一定孤立地存在,。例如,特斯拉(Tesla)等公司依靠混合形式,,它們試圖一起使用多種方法來提高準確性并減少計算需求,。

  一次在多個任務上訓練網(wǎng)絡是深度學習中的常見做法,通常稱為多任務訓練 或輔助任務訓練,。這是為了避免過度擬合,,這是神經(jīng)網(wǎng)絡的常見問題。當機器學習算法針對特定任務進行訓練時,,它會變得非常專注于模仿它所訓練的數(shù)據(jù),,從而在嘗試進行內(nèi)插或外推時其輸出變得不切實際。

  通過在多個任務上訓練機器學習算法,,網(wǎng)絡的核心將專注于發(fā)現(xiàn)對所有目的都有用的常規(guī)功能,,而不是僅僅專注于一項任務。這可以使輸出對應用程序更加現(xiàn)實和有用,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。