文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.2016.01.029
中文引用格式: 段建民,,石慧,,戰(zhàn)宇辰. 基于機器視覺篩選GPS衛(wèi)星信號的無人駕駛汽車組合導(dǎo)航方法[J].電子技術(shù)應(yīng)用,2016,,42(1):111-114.
英文引用格式: Duan Jianmin,,Shi Hui,Zhan Yuchen. Integrated navigation system for unmanned intelligent vehicle based on vision[J].Application of Electronic Technique,,2016,,42(1):111-114.
0 引言
自主駕駛智能車輛的研究受到許多國家的重視,,并成為研究的重要內(nèi)容。車輛實現(xiàn)無人駕駛的前提是其配備的導(dǎo)航系統(tǒng)能夠?qū)崟r,、準確地提供車輛的狀態(tài)信息,。其中以慣性導(dǎo)航系統(tǒng)(INS)和全球定位系統(tǒng)(GPS)提供信息更為豐富完備,。車載導(dǎo)航系統(tǒng)常采用多傳感器進行組合導(dǎo)航,常見組合形式有INS/GPS組合導(dǎo)航,。文獻[1]將GPS觀測姿態(tài)信息引入組合導(dǎo)航濾波模型,提高了組合導(dǎo)航系統(tǒng)的估計精度,,且提高了方位失準角的估計速度,,但是沒顧及在城市化道路中GPS信號易受建筑群遮擋,造成信號丟失或跳變的問題,,因此有很多學(xué)者提出INS/GPS/視覺的組合方式,。文獻[2]采用此方法,但該方法矩陣維數(shù)較高,,易出現(xiàn)數(shù)值不穩(wěn)定情況,,存在不合理性。針對以上問題,,本文提出一種新的組合導(dǎo)航方法,,通過攝像頭采集的周圍環(huán)境信息對GPS的衛(wèi)星數(shù)據(jù)進行篩選后再進行組合導(dǎo)航。并通過實車實驗驗證了其可靠的導(dǎo)航性能和突出的容錯性,,具有較高的實用價值,。
1 基于視覺篩選的組合導(dǎo)航方法系統(tǒng)框架
本文提出的導(dǎo)航系統(tǒng)框架如圖1所示,通過機器視覺采集周圍環(huán)境信息,,處理得到周圍建筑物對車體遮擋角度并與GPS接收到的衛(wèi)星與地面夾角信息進行對比,,判定GPS衛(wèi)星有效性并篩選。由于GPS基于無線電定位技術(shù),,其中視距傳播(Line of Sight,,LOS)是準確定位的必要條件。而移動端與基站間大多通過反射,、散射,、衍射方式到達接收端,多為非視距傳播(Not Line of Sight,,NLOS),,因此對GPS衛(wèi)星數(shù)據(jù)的準確性篩選很有必要。
2 基于視覺篩選的GPS衛(wèi)星有效性判定
2.1 視覺模塊坐標定義
攝像頭成像變換涉及不同坐標系之間的轉(zhuǎn)換,。在視覺系統(tǒng)中需將大地坐標系換算成攝像頭坐標系,,大地坐標系原點Ow在車體重心正下方地面上,zv軸垂直向上,,xv軸平行地面指向車體前進方向,,yv軸在圖中垂直紙面向外。Oc為攝像機坐標系原點,,與Ow點的水平距離為l1,,與地面的垂直距離為l2,。α,β,,γ分別為攝像頭旋轉(zhuǎn)角度,,本文攝像頭只繞x,y,,z軸旋轉(zhuǎn),,該軸與水平面傾斜角為α,旋轉(zhuǎn)角度β,、γ為0,。如圖2所示,(xc,,yc,,zc)T為攝像頭坐標系,大地坐標系中點(xw,,yw,,zw)T換算到(xc,yc,,zc)T為攝像頭坐標系采用式(1)的方法[3-5],。
其中(tx,ty,,tz)T為平移向量,,R為旋轉(zhuǎn)矩陣。
本文以大地坐標系為主坐標系,,統(tǒng)一其他坐標系[16],。視覺坐標系中X軸的正方向為行駛方向的負方向,Y軸的正方向垂直于X軸,,水平向右,。建筑物的特征點其在視覺坐標系中的坐標定義為(xpvision,ypvision),。攝像頭在大地坐標系中的位置是由GPS實時獲得的,,其坐標為(xv,yv),,通過此坐標和智能車航向角可以將視覺坐標系轉(zhuǎn)換到大地坐標系下,,求出目標點在大地坐標系下的坐標(xp,yp),。建筑物特征點在大地坐標中的坐標與視覺坐標系中的坐標可表示為:
2.2 周圍環(huán)境圖像處理方法
圖像經(jīng)處理后提取出代表建筑物特征的候選點,。為了尋找建筑物上下角點,對圖像做Canny變換以累計概率霍夫變換尋找連續(xù)性較高的,、近水平和豎直方向的直線簇作為建筑邊緣,。尋找水平和豎直方向建筑邊緣的交點作為建筑物上角點,,以上角點作垂線,與最大填充域的交點最為建筑物下角點,。然后,,分別計算各交點到車體的距離。最后求處于同一垂直線上的點(大于一個的)到車體點距離的余弦值[6],。
建筑物的俯仰角換算方法定義如下:
2.3 非視距環(huán)境下衛(wèi)星信號可用性檢測
本文采用改進的NLOS識別方法,,主要為判斷車體周圍的建筑物是否遮擋了GPS提供的衛(wèi)星信號,原理如圖3所示,。
其中,a,,b分別表示被建筑物遮擋而進行非視距傳播的衛(wèi)星與未被遮擋直接進行視距傳播的衛(wèi)星,。如果衛(wèi)星的高度Ea、Eb以及與航向角夾角Aa,、Ab屬于建筑物Bn遮擋區(qū)域,,此衛(wèi)星被定義為NLOS情況。衛(wèi)星高度與車體所在位置水平切線的夾角定義為:
其中,,rs為衛(wèi)星軌道半徑,,re為地球半徑,Ls為衛(wèi)星所處緯度,,Le為參照點所處緯度,,ls為衛(wèi)星所處經(jīng)度,le參考點的經(jīng)度,。
因此,,若cos(Ea)<cos(Ebn),則說明衛(wèi)星Sa俯仰角度大于前方建筑物Bn的俯仰角度,,接收機接收到的Sa衛(wèi)星傳輸數(shù)據(jù)屬于視距傳播,,精確度高。若cos(Ea)≥cos(Ebn)則說明衛(wèi)星Sa俯仰角度小于前方建筑物Bn的俯仰角度,,接收機接收到的Sa衛(wèi)星傳輸數(shù)據(jù)屬于NLOS傳播方式,,精確度相對較低,此顆衛(wèi)星提供的數(shù)據(jù)信息被篩掉,,不參與下一步的組合導(dǎo)航,。由于采用雙目攝像頭可以直接采集車體到前方建筑物距離信息,因此采用此方法計算量小,,實時性好,,能很好地滿足實際工程需求。
經(jīng)過視覺篩選后的GPS數(shù)據(jù)與INS采用松組合模式,,狀態(tài)變量取為15維,,包括3個相對平面坐標系的位置及速度誤差,、姿態(tài)角誤差、加速度計偏差,、陀螺漂移[7-8],。
其中F為系統(tǒng)狀態(tài)轉(zhuǎn)移矩陣,u為狀態(tài)過程噪聲向量,。
組合導(dǎo)航數(shù)據(jù)融合采用松耦合方式,,取GPS/INS輸出的位置和速度之差作為觀測值,構(gòu)造觀測量,。
3 實驗分析
本文以無人駕駛智能車BJUT-IV為實驗對象如圖4所示,。BJUT-IV實驗平臺安裝應(yīng)用載波相位技術(shù)的差分GPS,設(shè)備組為FlexPak-G2系列GPS接收處理機和PDL4535數(shù)傳電臺及GPS-702-GG接收天線,。將攝像機安裝在導(dǎo)航車前端的支架上,,距離地面高度為 1.73 m,與水平面平行,,距車體中心約1 m,。
BJUT-IV組合導(dǎo)航控制系統(tǒng)以Microsoft VS2008為軟件開發(fā)平臺并引入MapX地圖控件,編寫了導(dǎo)航與定位系統(tǒng)軟件,,利用此軟件平臺進行實驗驗證,。
實車實驗環(huán)境及周邊環(huán)境情況如圖5所示,試驗路段為一段兩側(cè)有連續(xù)建筑物群遮擋的NLOS路段,,如下圖所示,。
BJUT-IV采用本文所提出的基于攝像頭的組合導(dǎo)航系統(tǒng),重新定義坐標原點O于北緯39.871 9°,,東經(jīng)116.478 9°(即圖6中N8點為原點),。實驗中GPS/INS組合導(dǎo)航處理結(jié)果呈現(xiàn)于一臺移動電腦上,如圖6所示,,視覺模塊單獨在一臺移動電腦上運行,,如圖7所示。
試驗車輛嚴格按照試驗道路中線以低于20 m/s的速度沿實驗路線低速行駛5次,,為未采用視覺篩選法GPS數(shù)據(jù),,選取其中一次結(jié)果進行分析討論,如圖8所示,,畫圈部分未有較大偏差,,究其原因,由于道路周圍存在較高建筑物,,遮擋了部分GPS衛(wèi)星信號,,導(dǎo)致其傳播方式為NLOS,即使采用跟蹤強度較高平滑度較好的濾波算法仍造成定位精度下降,圖8中N6到N7段路線出現(xiàn)多處偏差甚至跳變,,此種情況和前文分析周圍建筑物群密集情況相符,。
如圖9所示,采用本文提出的導(dǎo)航方法對GPS數(shù)據(jù)信號進行篩選后,,依舊行駛在建筑物密集的N6至N7路段軌跡,,估計數(shù)據(jù)穩(wěn)定準確,且在其他有建筑物遮擋的路段均未發(fā)生大偏差,。
4 結(jié) 論
無人駕駛智能車行駛在城市道路上,,其配備導(dǎo)航系統(tǒng)容易受到連續(xù)建筑物群遮擋,進而造成接收機接收到的GPS信號為NLOS傳播方式,,最終導(dǎo)致定位偏差甚至跳變的問題,。本文提出的基于視覺篩選GPS信號的組合導(dǎo)航方法首先通過攝像頭采集到的車體周圍環(huán)境信息,處理得出周圍建筑物與車體當前位置形成的遮擋角度,,并與此時接收機接收到的GPS導(dǎo)航的衛(wèi)星所處俯仰角進行對比,,若建筑物的遮擋角度大于衛(wèi)星的俯仰角,則建筑物遮擋了部分衛(wèi)星信號,,造成衛(wèi)星信號非視距傳播,導(dǎo)致定位精度下降,,因此通過視覺模塊對此類衛(wèi)星信號進行剔除,。將經(jīng)過視覺模塊篩選后的GPS衛(wèi)星數(shù)據(jù)信息與慣導(dǎo)進行組合導(dǎo)航,從而最大限度降低由于建筑物群遮擋對車輛定位系統(tǒng)準確性造成的影響,。實車實驗表明,,無人駕駛汽車采用本文提出的基于機器視覺篩選的組合導(dǎo)航系統(tǒng),能在道路兩側(cè)存在連續(xù)建筑物遮擋的情況下,,保證定位信息不發(fā)生跳變,,與傳統(tǒng)方法相比定位精度明顯提高,滿足了無人駕駛智能汽車在城市路況下導(dǎo)航需求,,方法新穎且具有很高的工程實用價值,。
參考文獻
[1] 周建軍.車輛自動導(dǎo)航定位與控制方法研究[D].北京:中國農(nóng)業(yè)大學(xué),2009.
[2] Sun Chuanwei,,Liu Jingao.The design of low-pass filter based on megacore functions[C].2nd International Conference on Education Technology and Computer.2010,,V1-24-V1-27.
[3] 邱茂林,馬頌德,,李毅.計算機視覺中攝像機定標綜述[J].自動化學(xué)報,,2000,26(1):43-55.
[4] 楊少榮,,吳迪靖,,段德山.機器視覺算法與應(yīng)用[M].北京:清華大學(xué)出版社,2008.
[5] 趙穎,,孫群,,王書茂.單目視覺導(dǎo)航智能車輛的自定位方法[J].計算機工程與設(shè)計,,2008,29(9):2372-2374.
[6] Jay A F,,Tony D G,,Matthew J B.Real-time differential carrier phase GPS-aided INS[J].IEEE Transactions on Control Systems Technology,2000,,8(4):709-720.
[7] 趙其杰,,屠大維,高健,,等.基于Kalman濾波的視覺預(yù)測目標跟蹤及其應(yīng)用[J].光學(xué)精密工程,,2008(5):937-942.
[8] 吳鳳柱,何矞,,焦旭,,等.GPS/SINS緊組合導(dǎo)航系統(tǒng)信息融合技術(shù)研究[J].電子技術(shù)應(yīng)用,2013(2):67-69,,73.