《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > MEMS|傳感技術(shù) > 業(yè)界動(dòng)態(tài) > 傳感器與AI的結(jié)合是自動(dòng)駕駛的關(guān)鍵

傳感器與AI的結(jié)合是自動(dòng)駕駛的關(guān)鍵

2017-06-18
關(guān)鍵詞: 自動(dòng)駕駛 傳感器 AI

  要想讓電影中自動(dòng)駕駛的情景變?yōu)楝F(xiàn)實(shí),,環(huán)境傳感器,、車(chē)聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺(tái)都是必不可少的關(guān)鍵技術(shù)。只有三者結(jié)合,,車(chē)輛才能實(shí)現(xiàn)安全無(wú)誤的自動(dòng)駕駛。這三項(xiàng)技術(shù)對(duì)自動(dòng)駕駛的未來(lái)影響深遠(yuǎn),。

  一直以來(lái)自駕車(chē)被當(dāng)成電視影集里的想象,,直到最近才不再被視為遙不可及的幻想,而是當(dāng)下正逐漸實(shí)現(xiàn)的科技產(chǎn)品,,其主要是因?yàn)楦鞣N尖端科技逐漸到位成熟,,讓研發(fā)自駕車(chē)技術(shù)可普及和取得,,最終讓自駕車(chē)可以改變?nèi)祟?lèi)生活型態(tài)。

  其中,,環(huán)境傳感器,、車(chē)聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺(tái)都是實(shí)現(xiàn)自駕車(chē)不可或缺關(guān)鍵因素,。從自駕車(chē)的系統(tǒng)架構(gòu),,首先感測(cè)環(huán)境信息(Sensor),并透過(guò)信息鏈接(Connectiviety),,最后完成人工智能決策(decision),,車(chē)輛才能真正落實(shí)安全無(wú)誤的機(jī)器駕駛,本文從傳感器,、車(chē)聯(lián)網(wǎng)與人工智能介紹自駕車(chē)技術(shù)發(fā)展趨勢(shì),。

  傳感器作為自駕車(chē)之眼

  自駕車(chē)透過(guò)傳感器辨識(shí)外圍環(huán)境數(shù)據(jù),現(xiàn)今自駕車(chē)傳感器解決方案,,包括光達(dá)(LiDAR),、攝影機(jī)、毫米波雷達(dá)(MMWRadar),、超音波(Ultrasonic)等,,其中光達(dá)可在條件惡劣環(huán)境下,仍可透過(guò)激光束建構(gòu)出立體影像,,協(xié)助自駕車(chē)判斷自身所在位置,,以及檢測(cè)周遭障礙物,光達(dá)掃描半徑達(dá)100公尺,,測(cè)距誤差僅有5公分,,被視為自駕駛不可或缺的傳感器。

  目前市面僅有機(jī)械構(gòu)造式光達(dá),,因全手工打造造價(jià)昂貴,,初階款32線(xiàn)光達(dá)即要價(jià)4萬(wàn)美元以上,未來(lái)光達(dá)能透過(guò)硅制程(CMOS)量產(chǎn),,以芯片樣態(tài)的固態(tài)光達(dá)呈現(xiàn),,不僅體積可縮小,光達(dá)價(jià)錢(qián)可望壓在500美元以下,。

  在光達(dá)價(jià)格居高不下情況下,,目前自駕車(chē)業(yè)者同時(shí)采用多元傳感器相互輔助,以不同傳感器物理特性截長(zhǎng)補(bǔ)短,,例如,,像是毫米波雷達(dá)偵測(cè)距離很遠(yuǎn),但容易被金屬物體干擾,;攝影機(jī)價(jià)格便宜,,辨識(shí)能力強(qiáng),,但惡劣天候下感測(cè)效果差;超音波方向性差,、距離短,,只能運(yùn)用在后方防撞。

  透過(guò)多元傳感器信息融合(SensorFusion),,整合出準(zhǔn)確環(huán)境參數(shù),,經(jīng)此讓決策系統(tǒng)做出更好、更安全的決策,。舉例說(shuō)明,,毫米波雷達(dá)能夠測(cè)量高達(dá)120~250公尺的物體的速度和距離,攝影機(jī)在近距離偵測(cè)和物體辨識(shí)方面十分出色,,當(dāng)兩者攜手合作,,雷達(dá)則可作為遠(yuǎn)方對(duì)象早期預(yù)警作用,攝影機(jī)影像辨識(shí)則可精準(zhǔn)判斷近距離號(hào)志,、交通信號(hào),,遠(yuǎn)近分工達(dá)到智能駕駛目的。

  車(chē)聯(lián)網(wǎng)打造道路信息透明平臺(tái)

  自駕車(chē)傳感器其搜集信息僅留存在單一車(chē)輛層次,,但如果在車(chē)輛無(wú)法感測(cè)的死角,,或者不可見(jiàn)遠(yuǎn)方突發(fā)事件,即須要透過(guò)車(chē)輛聯(lián)網(wǎng),,以取得更詳盡信息,;目前車(chē)聯(lián)網(wǎng)層次分為點(diǎn)對(duì)點(diǎn)傳輸,以及云端傳輸,。

  點(diǎn)對(duì)點(diǎn)直接傳輸主要傳遞具有時(shí)間敏感性(time-sensitive)數(shù)據(jù),,透過(guò)車(chē)輛間(VehicletoVehicle;V2V),、車(chē)輛對(duì)道路裝置(VehicletoRoadsideDevice,;V2R)直接對(duì)話(huà),若透過(guò)“遠(yuǎn)在天邊”的云端匯整數(shù)據(jù),,可能緩不濟(jì)急,,因此透過(guò)點(diǎn)對(duì)點(diǎn)傳輸強(qiáng)化車(chē)聯(lián)網(wǎng)溝通效益,。

  當(dāng)前車(chē)聯(lián)網(wǎng)的技術(shù)格式,,主要包含車(chē)用環(huán)境無(wú)線(xiàn)存取(WAVE)/專(zhuān)用短程通訊(DSRC)與LTE-V2X兩種規(guī)格方向。其中車(chē)間點(diǎn)對(duì)點(diǎn)通訊最重要的是低延遲性,,如此才能做到實(shí)時(shí)傳遞效果,。

  WAVE/DSRC傳輸延遲約20毫秒,相對(duì)于LTE-V2X4G約50毫秒,,相較具發(fā)展?jié)摿?,雖然下一代LTE-V2X5G傳輸延遲性?xún)H有1毫秒,,但其技術(shù)規(guī)格仍尚未成熟,目前各國(guó)現(xiàn)今發(fā)展車(chē)間傳輸仍以DSRC為主流,。

  另一部分,,云端傳輸主要應(yīng)用于高精圖資(HighDefinitionMaps)反饋與實(shí)時(shí)更新,高精度協(xié)助自駕車(chē)完落實(shí)點(diǎn)對(duì)點(diǎn)全自動(dòng)駕駛,,因此這個(gè)給機(jī)器看的地圖,,必須具備有高精度的坐標(biāo)、道路線(xiàn)標(biāo),、路標(biāo),,同時(shí)含括道路垂直坡度、曲率,、側(cè)傾,、外圍對(duì)象等信息,同時(shí)可透過(guò)云端實(shí)時(shí)更新路況,、障礙,、道路維修等實(shí)時(shí)動(dòng)態(tài)路況訊息。

  當(dāng)車(chē)間點(diǎn)對(duì)點(diǎn)傳輸與云端傳輸共同運(yùn)作,,將可建立一個(gè)綿密道路傳輸網(wǎng),,協(xié)助自駕車(chē)掌握不可見(jiàn)、不易感測(cè)訊息,。

  AI匯整內(nèi)外信息進(jìn)行駕駛決策

  當(dāng)車(chē)輛傳感器偵測(cè)到周邊環(huán)境信息,,同時(shí)車(chē)間傳輸取得實(shí)時(shí)遠(yuǎn)方路況訊息,此時(shí)即需要透過(guò)人工智能平臺(tái)將多元信息進(jìn)行匯整,、運(yùn)算,、處理,最后做出正確駕駛決策,。目前各種人工智能途徑當(dāng)中,,以深度學(xué)習(xí)(Deeplearning)為最為可行,但該方法需要即大量對(duì)象數(shù)據(jù)庫(kù),,才能訓(xùn)練出精準(zhǔn)分析系統(tǒng),。

  深度學(xué)習(xí)如同人類(lèi)學(xué)習(xí)分類(lèi)的過(guò)程,透過(guò)大量分類(lèi)完成的樣本標(biāo)的數(shù)據(jù)庫(kù),,持續(xù)將不同分類(lèi)樣本投入,,教導(dǎo)系統(tǒng)學(xué)習(xí),使系統(tǒng)逐漸「參透」照片中的規(guī)律性,,當(dāng)未來(lái)發(fā)現(xiàn)特例也可如同人類(lèi)自行推敲分析,。

  在整個(gè)自駕車(chē)系統(tǒng)架構(gòu)內(nèi),感測(cè)端如同五羅近處可見(jiàn)訊息,,車(chē)聯(lián)網(wǎng)將五官延伸搜集遠(yuǎn)程不可見(jiàn)信息,,遠(yuǎn)近訊息融合后,,交由車(chē)輛的人工智能平臺(tái)進(jìn)行運(yùn)算決策,最后由如同人類(lèi)四肢的控制系統(tǒng)執(zhí)行大腦命令,,當(dāng)自駕車(chē)的大腦,、五官、四肢可以協(xié)調(diào)合作,,即可落實(shí)機(jī)器安全駕駛,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀(guān)點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問(wèn)題,,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話(huà):010-82306118;郵箱:[email protected],。