《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > MEMS|傳感技術(shù) > 業(yè)界動態(tài) > 深度解析自動駕駛的未來:多傳感器融合

深度解析自動駕駛的未來:多傳感器融合

2019-10-09
關(guān)鍵詞: 自動駕駛 多傳感器

  傳感器是汽車感知周圍的環(huán)境的硬件基礎(chǔ),,在實現(xiàn)自動駕駛的各個階段都必不可少。

  自動駕駛離不開感知層,、控制層和執(zhí)行層的相互配合,。攝像頭、雷達等傳感器獲取圖像,、距離,、速度等信息,扮演眼睛,、耳朵的角色,。

640.webp (27).jpg

  控制模塊分析處理信息,并進行判斷,、下達指令,,扮演大腦的角色。車身各部件負責執(zhí)行指令,,扮演手腳的角色,。而環(huán)境感知是這一切的基礎(chǔ), 因此傳感器對于自動駕駛不可或缺,。

640.webp (26).jpg

  三大重要傳感器

  攝像頭:智能駕駛之慧眼

  車載攝像頭是實現(xiàn)眾多預警,、識別類ADAS功能的基礎(chǔ)。在眾多ADAS功能中,,視覺影像處理系統(tǒng)較為基礎(chǔ),,對于駕駛者也更為直觀,而攝像頭又是視覺影像處理系統(tǒng)的基礎(chǔ),, 因此車載攝像頭對于自動駕駛必不可少,。

  攝像頭可實現(xiàn)的ADAS功能

  以上眾多功能都可借助攝像頭實現(xiàn),有的功能甚至只能通過攝像頭實現(xiàn),。

  車載攝像頭價格持續(xù)走低,,未來單車多攝像頭將成為趨勢。攝像頭成本相對低廉,,價格也從2010年的300多元持續(xù)走低,,到2014年單個攝像頭價格已降低至200元左右,易于普及應(yīng)用,。

  根據(jù)不同ADAS功能的要求,,攝像頭的安裝位置也不盡相同,。按攝像頭的安裝位置不同,可分為前視,、側(cè)視,、后視和內(nèi)置四個部分。未來要實現(xiàn)全套ADAS功能,,單車需配備至少5個攝像頭,。

640.webp (24).jpg

  前視攝像頭

  前視攝像頭使用頻率最高,單一攝像頭可實現(xiàn)多重功能,。如行車記錄,、車道偏離預警、前向碰撞預警,、行人識別等。前視攝像頭一般為廣角鏡頭,,安裝在車內(nèi)后視鏡上或者前擋風玻璃上較高的位置,,以實現(xiàn)較遠的有效距離。

  側(cè)視攝像頭代替后視鏡將成為趨勢,。由于后視鏡的范圍有限,,當另一輛在斜后方的車位于這個范圍之外就“隱身”,因為盲區(qū)的存在,,大大增加了交通事故發(fā)生的幾率,。而在車輛兩側(cè)加裝側(cè)視攝像頭可以基本覆蓋盲區(qū),當有車輛進入盲區(qū)時,,就有自動提醒駕駛員注意,。

  全景泊車系統(tǒng)

640.webp (23).jpg

  全景泊車系統(tǒng)通過安裝在車身周圍的多個超廣角攝像頭,同時采集車輛四周的影像,,經(jīng)過圖像處理單元矯正和拼接之后,,形成一副車輛四周的全景俯視圖,實時傳送至中控臺的顯示設(shè)備上,。

  駕駛員坐在車中即可以“上帝視角”直觀地看到車輛所處的位置以及車輛周報的障礙物,。

  車載攝像頭應(yīng)用廣泛且價格相對低廉,是最基本最常見的傳感器,。相對于手機攝像頭,,車載攝像頭的工況更加惡劣,需要滿足抗震,、防磁,、防水、耐高溫等各種苛刻要求,。制造工藝流程復雜,,技術(shù)難度高。

  特別是用于ADAS功能的前視攝像頭,涉及行車安全,,可靠性必須非常高,。因此車載攝像頭的制造工藝也更加復雜。

640.webp (22).jpg

  車載攝像頭產(chǎn)業(yè)鏈

  在成為整車廠商的一級供應(yīng)商之前,,需經(jīng)過大量不同種類的嚴格測試,。但是一旦進入整車廠商的一級供應(yīng)商體系就會形成很高的壁壘,很難被替代,,因為更換供應(yīng)商的成本太高,,重新更換供應(yīng)商就意味著整車廠商要再次進行復雜的測試。

  全球視覺系A(chǔ)DAS龍頭Mobileye從1999年成立就開始研發(fā)視覺處理系統(tǒng),,但在2007年搭載Mobileye產(chǎn)品的車型才上市,,從研發(fā)到正式進入前裝市場,用了八年的時間,。但成為眾多整車廠商的一級供應(yīng)商后,,Mobileye已成為這一領(lǐng)域絕對的寡頭。

  自從其公司2014年上市至今,,與其他公司競逐各大汽車廠商的智能汽車安全設(shè)備招標時,,Mobileye的成功率幾乎是百分之百。

  毫米波雷達:ADAS核心傳感器

  毫米波的波長介于厘米波和光波之間,, 因此毫米波兼有微波制導和光電制導的優(yōu)點:

  1)同厘米波導引頭相比,,毫米波導引頭具 有體積小、質(zhì)量輕和空間分辨率高的特點,;

  2)與紅外,、激光等光學導引頭相比,毫米波導引頭穿透霧,、煙,、灰塵的能力強,傳輸距離遠,,具有全天候全天時的特點,;

  3)性能穩(wěn)定,不受目標物體形狀,、顏色等干擾,。毫米波雷達很好的彌補了如紅外、激光,、超聲波,、 攝像頭等其他傳感器在車載應(yīng)用中所不具備的使用場景。

  毫米波雷達的探測距離一 般在150m-250m之間,,有的高性能毫米波雷達探測距離甚至能達到300m,,可以滿足汽車在高速運動時探測較大范圍的需求,。與此同時,毫米波雷達的探測精度較高,。

  毫米波雷達應(yīng)用于自適應(yīng)巡航

  這些特性使得毫米波雷達能夠監(jiān)測到大范圍內(nèi)車輛的運行情況,,同時對于前方車輛的速度、加速度,、距離等信息的探測也更加精準,,因此是自適應(yīng)巡航(ACC)、自動緊急剎車(AEB) 的首選傳感器,。

  目前77GHz毫米波雷達系統(tǒng)單價大約在250歐元左右,,高昂的價格限制了毫米波雷達的車載化應(yīng)用。

640.webp (21).jpg

  激光雷達:功能強大

  激光雷達性能精良,,是無人駕駛的最佳技術(shù)路線,。激光雷達相對于其他自動駕駛傳感器具有非常優(yōu)越的性能:

  分辨率高。激光雷達可以獲得極高的角度,、距離和速度分辨率,,這意味著激光雷達可以利用多普勒成像技術(shù)獲得非常清晰的圖像。

  精度高,。激光直線傳播,、方向性好,、光束非常窄,,彌散性非常低,因此激光雷達的精度很高,。

  抗有源干擾能力強,。與微波、毫米波雷達易受自然界廣泛存在的電磁波影響的情況不同,,自然界中能對激光雷達起干擾作用的信號源不多,,因此激光雷達抗有源干擾的能力很強。

  激光雷達的空間建模

640.webp (19).jpg

  三維激光雷達一般安裝在車頂,, 可以高速旋轉(zhuǎn),,以獲得周圍空間的點云數(shù)據(jù),從而實時繪制出車輛周邊的三維空間地圖,。同時,,激光雷達還可以測量出周邊其他車輛在三個方向上的距離、速度,、加速度,、角速度等信息,再結(jié)合 GPS 地圖計算出車輛的位置,,這些龐大豐富的數(shù)據(jù)信息傳輸給 ECU 分析處理后,,以供車輛快速做出判斷,。

  激光雷達車用方案

  以地圖為中心:以Google和百度為代表的互聯(lián)網(wǎng)企業(yè)的無人駕駛是以地圖為中心, 主要原因在于激光雷達可以為這些公司繪制高精度地圖,。

  以汽車為中心:對大多數(shù)車企而言,,他們更想要一款專為汽車量身定制的激光雷達產(chǎn)品。

  百度自動駕駛汽車上的激光雷達

640.webp (18).jpg

  首先,,和測繪專用的笨重“大花盆”相比,,小型激光雷達和汽車更配,為了兼顧美觀和風阻系數(shù),,自動駕駛汽車與普通汽車不應(yīng)該在外觀上有任何差別,,激光雷達盡量要被做成小體積直接嵌入車身,這就意味著要將機械旋轉(zhuǎn)部件做到最小甚至拋棄,。

  因此車用激光雷達沒有選用大體積旋轉(zhuǎn)結(jié)構(gòu),,而是在制作工藝上,將旋轉(zhuǎn)部件做到了產(chǎn)品內(nèi)部,。例如Ibeo的激光雷達產(chǎn)品LUX,,改為固定激光光源,通過內(nèi)部玻璃片旋 轉(zhuǎn)的方式改變激光光束方向,,實現(xiàn)多角度檢測的需要,。

  而Quanergy旗下產(chǎn)品S3是一款全固態(tài)產(chǎn)品,使用了相位矩陣新技術(shù),,內(nèi)部不存在任何旋轉(zhuǎn)部件,。

  不過,好東西都很貴,。激光雷達單價以萬為單位,,高昂的價格讓其難以市場化。

  最后我們對比一下這三大傳感器性能:

  一起事故引發(fā)的改變

  特斯拉

  2016年5月,,美國佛羅里達州一輛開啟了自動駕駛模式(Autopilot)的特斯拉與白色重型卡車相撞,,導致特斯拉車主身亡。

  這起被稱為“全球首例自動駕駛致死”事故,,讓不少人開始對自動駕駛的安全性表示擔憂,,也給特斯拉蒙上一層陰霾。

640.webp (17).jpg

  事故曝光后,,特斯拉與其視覺識別系統(tǒng)供應(yīng)商Mobileye終止合作,,并于9月份通過OTA推送了V8.0系統(tǒng), 強化毫米波雷達作用,,將其提升成為主控制傳感器,。

640.webp (15).jpg

  特斯拉V7.0時代的自動駕駛主要以圖像識別為主,毫米波雷達只是一個輔助傳感器,,V8.0系統(tǒng)對整個技術(shù)方案做出了很大的調(diào)整:以毫米波雷達為主,,圖像識別為輔,,雷達可以監(jiān)測范圍是之前的6倍,大幅增強特斯拉的前方障礙識別能力,。

640.webp (16).jpg

  而到了2016年10月,,特斯拉又發(fā)布Autopilot2.0,宣布未來生產(chǎn)的所有車型都將具備進行完全自動駕駛的硬件系統(tǒng),。同時,,特斯拉表示在此硬件基礎(chǔ)上的自動駕駛的安全性有了空前提升。

  Autopilot 2.0與 Autopilot 1.0硬件對比情況

  特斯拉的完全自動駕駛硬件系統(tǒng)包括:

  1)車身四周加裝8個攝像頭,,能夠測量250米范圍內(nèi)的物體,;

  2)搭載12顆超聲波傳感器,用以輔助偵測,;

  3)升級增強版的毫米波雷達,,能夠在惡劣天氣下工作,也能探測到前方車輛,;

  4)汽車主板的性能是前款產(chǎn)品的40倍,,大幅提升計算能力。

  特斯拉本次發(fā)布Autopilot 2.0的完全自動駕駛硬件變化最大的在于攝像頭,,數(shù)量從原先的1個增至8個,。這也預示著特斯拉感知端的技術(shù)路線從原先的攝像頭,到倚重雷達,,最后又重新選擇了攝像頭,。

  特斯拉不斷變化的主控傳感器選擇說明感知端目前還沒有完全固定的技術(shù)路線,特斯拉自身也是在探索中不斷地前進,。

  Mobileye

  實際上,,與特斯拉“分手”,,是Mobileye提出來的,。

  經(jīng)過十幾年的研發(fā)創(chuàng)新,Mobileye憑借其EyeQ系列芯片上的高級視覺算法可實現(xiàn)多種ADAS功能,,已成為視覺系A(chǔ)DAS產(chǎn)品中絕對的龍頭,。

640.webp (14).jpg

  從2007年研發(fā)出的第一代EyeQ產(chǎn)品開始,Mobileye與意法半導體合作,,不斷升級芯片技術(shù),,優(yōu)化視覺算法,EyeQ3產(chǎn)品的運算速度已是第一代產(chǎn)品的48倍,。

  Mobileye的EyeQ系列產(chǎn)品升級情況

640.webp (13).jpg

  從表格中我們可以看到,,前三代產(chǎn)品都只搭載一顆攝像頭。目前EyeQ4,、EyeQ5產(chǎn)品計劃已發(fā)布,,其中EyeQ4將開始使用多攝像頭方案,。預計未來通過芯片升級和算法優(yōu)化,Mobileye的芯片算法將融合更多傳感器,,將推出多目攝像頭+毫米波雷達+激光雷達的解決方案,,全面支持無人駕駛。

  2016年7月,,Mobileye宣布和特斯拉終止合作,,EyeQ3將會是Mobileye和特斯拉的最后一次合作。幾乎同時,,Mobileye還宣布英特爾,、寶馬進行合作。今年3月,,英特爾以溢價33%+的價格收購Mobileye,。

640.webp (12).jpg

  其實,Mobileye與特斯拉終止合作的深層次原因在于:

  1)風格策略不同,。Mobileye相對保守,,特斯拉相對激進,因此Mobileye更傾向與傳統(tǒng)汽車廠商合作,。

  2)數(shù)據(jù)歸屬有爭議,。Mobileye提出了一個名為REM的概念,數(shù)據(jù)將由加入的成員共享,,而作為積累里程以及數(shù)據(jù)最多的特斯拉不愿意白白把數(shù)據(jù)共享給別的車廠,。

  不過特斯拉只是Mobileye所面對的眾多整車客戶之一,但是與英特爾的強強聯(lián)合,,Mobileye將受益于英特爾從芯片端提供的資源幫助,,構(gòu)造基于視覺、實現(xiàn)傳感器融合的強大算法,,推動視覺算法持續(xù)向自動駕駛邁進,。

  趨勢——多傳感器融合

  對比特斯拉跟Mobileye的產(chǎn)品升級我們會發(fā)現(xiàn),“老情人”的肉體雖然分離了,,但精神上還是一致的,。都是通過增加傳感器的數(shù)量,并讓多個傳感器融合來提高自動駕駛能力,。

  上面提到的特斯拉事故中,,主要原因有:

  毫米波雷達測距可能誤判。毫米波雷達測到前方有巨大障礙物,,但可能因為卡車反射面積過大和車身過高,,毫米波雷達將拖掛車誤判為懸掛在道路上方的交通指示牌;

640.webp (11).jpg

  攝像頭強光致盲

  前置攝像頭 EyeQ3 可能誤判,。事故拖掛車是橫置的,,全身白色,,沒有色彩警告,在陽光強烈的環(huán)境下,,圖像識別系統(tǒng)容易將拖掛車誤判為白云,。

  在極端情況下,特斯拉的毫米波雷達和前置攝像頭均發(fā)生了誤判,??梢姅z像頭+毫米波雷達方案缺乏冗余度,容錯性差,, 難以完成自動駕駛的使命,,需要多個傳感器信息融合綜合判斷。

  傳感器各有優(yōu)劣,,難以互相替代,,未來要實現(xiàn)自動駕駛,是一定需要多種(個)傳感器相互配合共同構(gòu)成汽車的感知系統(tǒng)的,。不同傳感器的原理,、功能各不相同,在不同的使用場景里可以發(fā)揮各自優(yōu)勢,,難以互相替代,。

640.webp (10).jpg

  多個同類或不同類傳感器分別獲得不同局部和類別的信息,這些信息之間可能相互補充,,也可能存在冗余和矛盾,,而控制中心最終只能下達唯一正確的指令,這就要求控制中心必須對多個傳感器所得到的信息進行融合,,綜合判斷,。

  試想一下,如果一個傳感器所得到的信息要求汽車立即剎車,,而另一傳感器顯示可以繼續(xù)安全行駛,,或者一個傳感器要求汽車左轉(zhuǎn),而另一個傳感器要求汽車右轉(zhuǎn),,在這種情況下,,如果不對傳感器信息進行融合,,汽車就會“感到迷茫而不知所措”,, 最終可能導致意外的發(fā)生。

  因此在使用多種(個)傳感器的情況下,,要想保證安全性,,就必須對傳感器進行信息融合。多傳感器融合可顯著提高系統(tǒng)的冗余度和容錯性,,從而保證決策的快速性和正確性,,是自動駕駛的必然趨勢,。

640.webp (9).jpg

  多傳感器融合要求

  1)硬件層面,數(shù)量要足夠,,也就是不同種類的傳感器都要配備,,才能夠保證信息獲取充分且有冗余;

  2)軟件層面,,算法要足夠優(yōu)化,,數(shù)據(jù)處理速度要夠快,且容錯性要好,,才能保證最終決策的快速性和正確性,。

  算法是多傳感器融合的核心

  簡單地說,傳感器融合就是將多個傳感器獲取的數(shù)據(jù),、信息集中在一起綜合分析以便更加準確可靠地描述外界環(huán)境,,從而提高系統(tǒng)決策的正確性。

640.webp (8).jpg

  多傳感器融合的基本原理

  多傳感器融合的基本原理類似于人類大腦對環(huán)境信息的綜合處理過程,。人類對外界環(huán)境的感知是通過將眼睛,、耳朵、鼻子和四肢等感官(各種傳感器)所探測的信息傳輸至大腦(信息融合中心),,并與先驗知識(數(shù)據(jù)庫)進行綜合,,以便對其周圍的環(huán)境和正在發(fā)生的事件做出快速準確地評估。

  多傳感器融合的體系結(jié)構(gòu):分布式,、集中式和混合式,。

640.webp (7).jpg

  1)分布式。先對各個獨立傳感器所獲得的原始數(shù)據(jù)進行局部處理,,然后再將結(jié)果送 入信息融合中心進行智能優(yōu)化組合來獲得最終的結(jié)果,。分布式對通信帶寬的需求低、 計算速度快,、可靠性和延續(xù)性好,,但跟蹤的精度卻遠沒有集中式高。

640.webp (6).jpg

  2)集中式,。集中式將各傳感器獲得的原始數(shù)據(jù)直接送至中央處理器進行融合處理,, 可以實現(xiàn)實時融合。其數(shù)據(jù)處理的精度高,,算法靈活,,缺點是對處理器的要求高,可 靠性較低,,數(shù)據(jù)量大,,故難于實現(xiàn)。

640.webp (5).jpg

  3)混合式?;旌鲜蕉鄠鞲衅餍畔⑷诤峡蚣苤?,部分傳感器采用集中式融合方式,剩 余的傳感器采用分布式融合方式,?;旌鲜饺诤峡蚣芫哂休^強的適應(yīng)能力,兼顧了集中 式融合和分布式的優(yōu)點,,穩(wěn)定性強,。混合式融合方式的結(jié)構(gòu)比前兩種融合方式的結(jié)構(gòu)復雜,,這樣就加大了通信和計算上的代價,。

  三種傳感器融合體系結(jié)構(gòu)的對比

  因為多傳感器的使用會使需要處理的信息量大增,這其中甚至有相互矛盾的信息,,如何保證系統(tǒng)快速地處理數(shù)據(jù),,過濾無用、錯誤信息,,從而保證系統(tǒng)最終做出及時正確的決策十分關(guān)鍵,。

640.webp (4).jpg

  目前多傳感器融合的理論方法有貝葉斯準則法、卡爾曼濾波法,、D-S證據(jù)理論法,、模糊集理論法、人工神經(jīng)網(wǎng)絡(luò)法等,。

  從我們上面的分析可看出,,多傳感器融合在硬件層面并不難實現(xiàn),重點和難點都在算法上,。多傳感器融合軟硬件難以分離,,但算法是重點和難點,擁有很高的技術(shù)壁壘,,因此算法將占據(jù)價值鏈的主要部分,。

640.webp (3).jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。