要想讓電影中自動(dòng)駕駛的情景變?yōu)楝F(xiàn)實(shí),,環(huán)境傳感器,、車聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺(tái)都是必不可少的關(guān)鍵技術(shù),。只有三者結(jié)合,車輛才能實(shí)現(xiàn)安全無(wú)誤的自動(dòng)駕駛,。這三項(xiàng)技術(shù)對(duì)自動(dòng)駕駛的未來(lái)影響深遠(yuǎn),。
一直以來(lái)自駕車被當(dāng)成電視影集里的想象,直到最近才不再被視為遙不可及的幻想,,而是當(dāng)下正逐漸實(shí)現(xiàn)的科技產(chǎn)品,,其主要是因?yàn)楦鞣N尖端科技逐漸到位成熟,讓研發(fā)自駕車技術(shù)可普及和取得,,最終讓自駕車可以改變?nèi)祟惿钚蛻B(tài),。
其中,環(huán)境傳感器,、車聯(lián)網(wǎng)通訊技術(shù),、人工智能決策平臺(tái)都是實(shí)現(xiàn)自駕車不可或缺關(guān)鍵因素。從自駕車的系統(tǒng)架構(gòu),,首先感測(cè)環(huán)境信息(Sensor),,并透過信息鏈接(Connectiviety),最后完成人工智能決策(decision),,車輛才能真正落實(shí)安全無(wú)誤的機(jī)器駕駛,,本文從傳感器、車聯(lián)網(wǎng)與人工智能介紹自駕車技術(shù)發(fā)展趨勢(shì),。
傳感器作為自駕車之眼
自駕車透過傳感器辨識(shí)外圍環(huán)境數(shù)據(jù),,現(xiàn)今自駕車傳感器解決方案,包括光達(dá)(LiDAR),、攝影機(jī),、毫米波雷達(dá)(MMWRadar)、超音波(Ultrasonic)等,,其中光達(dá)可在條件惡劣環(huán)境下,,仍可透過激光束建構(gòu)出立體影像,協(xié)助自駕車判斷自身所在位置,,以及檢測(cè)周遭障礙物,,光達(dá)掃描半徑達(dá)100公尺,,測(cè)距誤差僅有5公分,被視為自駕駛不可或缺的傳感器,。
目前市面僅有機(jī)械構(gòu)造式光達(dá),,因全手工打造造價(jià)昂貴,初階款32線光達(dá)即要價(jià)4萬(wàn)美元以上,,未來(lái)光達(dá)能透過硅制程(CMOS)量產(chǎn),,以芯片樣態(tài)的固態(tài)光達(dá)呈現(xiàn),不僅體積可縮小,,光達(dá)價(jià)錢可望壓在500美元以下,。
在光達(dá)價(jià)格居高不下情況下,目前自駕車業(yè)者同時(shí)采用多元傳感器相互輔助,,以不同傳感器物理特性截長(zhǎng)補(bǔ)短,,例如,像是毫米波雷達(dá)偵測(cè)距離很遠(yuǎn),,但容易被金屬物體干擾,;攝影機(jī)價(jià)格便宜,辨識(shí)能力強(qiáng),,但惡劣天候下感測(cè)效果差,;超音波方向性差、距離短,,只能運(yùn)用在后方防撞,。
透過多元傳感器信息融合(SensorFusion),整合出準(zhǔn)確環(huán)境參數(shù),,經(jīng)此讓決策系統(tǒng)做出更好,、更安全的決策。舉例說(shuō)明,,毫米波雷達(dá)能夠測(cè)量高達(dá)120~250公尺的物體的速度和距離,,攝影機(jī)在近距離偵測(cè)和物體辨識(shí)方面十分出色,當(dāng)兩者攜手合作,,雷達(dá)則可作為遠(yuǎn)方對(duì)象早期預(yù)警作用,,攝影機(jī)影像辨識(shí)則可精準(zhǔn)判斷近距離號(hào)志、交通信號(hào),,遠(yuǎn)近分工達(dá)到智能駕駛目的,。
車聯(lián)網(wǎng)打造道路信息透明平臺(tái)
自駕車傳感器其搜集信息僅留存在單一車輛層次,但如果在車輛無(wú)法感測(cè)的死角,,或者不可見遠(yuǎn)方突發(fā)事件,,即須要透過車輛聯(lián)網(wǎng),以取得更詳盡信息,;目前車聯(lián)網(wǎng)層次分為點(diǎn)對(duì)點(diǎn)傳輸,,以及云端傳輸。
點(diǎn)對(duì)點(diǎn)直接傳輸主要傳遞具有時(shí)間敏感性(time-sensitive)數(shù)據(jù),,透過車輛間(VehicletoVehicle,;V2V)、車輛對(duì)道路裝置(VehicletoRoadsideDevice,;V2R)直接對(duì)話,,若透過“遠(yuǎn)在天邊”的云端匯整數(shù)據(jù),可能緩不濟(jì)急,,因此透過點(diǎn)對(duì)點(diǎn)傳輸強(qiáng)化車聯(lián)網(wǎng)溝通效益,。
當(dāng)前車聯(lián)網(wǎng)的技術(shù)格式,主要包含車用環(huán)境無(wú)線存取(WAVE)/專用短程通訊(DSRC)與LTE-V2X兩種規(guī)格方向,。其中車間點(diǎn)對(duì)點(diǎn)通訊最重要的是低延遲性,,如此才能做到實(shí)時(shí)傳遞效果。
WAVE/DSRC傳輸延遲約20毫秒,,相對(duì)于LTE-V2X4G約50毫秒,,相較具發(fā)展?jié)摿Γm然下一代LTE-V2X5G傳輸延遲性僅有1毫秒,,但其技術(shù)規(guī)格仍尚未成熟,,目前各國(guó)現(xiàn)今發(fā)展車間傳輸仍以DSRC為主流。
另一部分,,云端傳輸主要應(yīng)用于高精圖資(HighDefinitionMaps)反饋與實(shí)時(shí)更新,,高精度協(xié)助自駕車完落實(shí)點(diǎn)對(duì)點(diǎn)全自動(dòng)駕駛,因此這個(gè)給機(jī)器看的地圖,,必須具備有高精度的坐標(biāo),、道路線標(biāo)、路標(biāo),,同時(shí)含括道路垂直坡度,、曲率、側(cè)傾,、外圍對(duì)象等信息,,同時(shí)可透過云端實(shí)時(shí)更新路況、障礙,、道路維修等實(shí)時(shí)動(dòng)態(tài)路況訊息,。
當(dāng)車間點(diǎn)對(duì)點(diǎn)傳輸與云端傳輸共同運(yùn)作,將可建立一個(gè)綿密道路傳輸網(wǎng),,協(xié)助自駕車掌握不可見,、不易感測(cè)訊息。
AI匯整內(nèi)外信息進(jìn)行駕駛決策
當(dāng)車輛傳感器偵測(cè)到周邊環(huán)境信息,,同時(shí)車間傳輸取得實(shí)時(shí)遠(yuǎn)方路況訊息,,此時(shí)即需要透過人工智能平臺(tái)將多元信息進(jìn)行匯整,、運(yùn)算、處理,,最后做出正確駕駛決策,。目前各種人工智能途徑當(dāng)中,以深度學(xué)習(xí)(Deeplearning)為最為可行,,但該方法需要即大量對(duì)象數(shù)據(jù)庫(kù),,才能訓(xùn)練出精準(zhǔn)分析系統(tǒng)。
深度學(xué)習(xí)如同人類學(xué)習(xí)分類的過程,,透過大量分類完成的樣本標(biāo)的數(shù)據(jù)庫(kù),,持續(xù)將不同分類樣本投入,教導(dǎo)系統(tǒng)學(xué)習(xí),,使系統(tǒng)逐漸「參透」照片中的規(guī)律性,,當(dāng)未來(lái)發(fā)現(xiàn)特例也可如同人類自行推敲分析。
在整個(gè)自駕車系統(tǒng)架構(gòu)內(nèi),,感測(cè)端如同五羅近處可見訊息,,車聯(lián)網(wǎng)將五官延伸搜集遠(yuǎn)程不可見信息,遠(yuǎn)近訊息融合后,,交由車輛的人工智能平臺(tái)進(jìn)行運(yùn)算決策,,最后由如同人類四肢的控制系統(tǒng)執(zhí)行大腦命令,當(dāng)自駕車的大腦,、五官,、四肢可以協(xié)調(diào)合作,即可落實(shí)機(jī)器安全駕駛,。