文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.2017.04.002
中文引用格式: 付黎明,,李必軍,,葉雨同. 基于多尺度重采樣的車道線檢測[J].電子技術(shù)應(yīng)用,2017,,43(4):7-12.
英文引用格式: Fu Liming,,Li Bijun,Ye Yutong. Lane detection based on multi scale resampling[J].Application of Electronic Technique,,2017,,43(4):7-12.
0 引言
高級駕駛輔助系統(tǒng)(Advanced Driver Assistance System,,ADAS)快速發(fā)展,作為其中重要模塊的基于視覺的車道線檢測也得到了大量研究,。車道線本身設(shè)計是適合人類視覺系統(tǒng)處理的,,單目相機成本低廉,因此目前車道線檢測主流傳感器是單目相機[1],,本文提出的車道線檢測方法也基于單目相機,。
根據(jù)最終輸出數(shù)據(jù)所在坐標,車道線檢測方法可分為兩類:一類直接在預(yù)處理后圖像上使用直線或直線段檢測方法[2-3],,無需相機參數(shù)和路面幾何參數(shù)的假設(shè),輸出參數(shù)為車道參數(shù)在圖像坐標內(nèi),,無法定量表達自車在車道內(nèi)位置,;另一類使用逆透視變換(Inverse Perspective Mapping,IPM)將圖像或特征轉(zhuǎn)換到世界坐標系,,生成鳥瞰圖,,優(yōu)勢在于輸出坐標為可以直接判斷自車相對車道位置的世界坐標[4-5]。為滿車道偏離檢測對車道內(nèi)位置的定量需求,,本文算法采用基于IPM的方法,。
算法采用簡單亮-暗-亮特征,首先對圖像RGB三通道進行通道運算生成灰度影像,,根據(jù)路面據(jù)相機距離,,對圖像分區(qū)重采樣,在多尺度上查找特征點對,,以克服同一尺度重采樣造成的計算量大或遠處特征點丟失問題,。特征點逆透視變換到世界坐標系后,根據(jù)幾何特征初步篩選,,若上一幀存在檢測結(jié)果,,根據(jù)上一幀結(jié)果進一步篩選特征點。特征點經(jīng)篩選后首先在局部查找相鄰特征點歸組并初步計算參數(shù),,然后根據(jù)組間空間位置進行合并得到超組(super group)并對超組進行模型擬合,,得到候選車道線,候選車道線經(jīng)幾何判斷后查找出本車道左右車道線,,最后對左右車道線使用卡爾曼濾波,,得到最終車道模型。流程圖如圖1,。
1 多尺度影像重采樣
1.1 透視變換和逆透視變換
采用和文獻[4]中相同方法,,假設(shè)地面為平面,相機內(nèi)參數(shù),、外參數(shù)已知,,如圖 2,,以相機光學中心為原點,定義世界坐標系{Fw}={Xw,,Yw,,Zw},僅考慮相機俯仰角?琢和偏航角α,,相機高度為h,。
對于地面一點齊次坐標Pg={xg,yg,,-h,,1},其對應(yīng)圖像坐標:
1.2 多尺度影像重采樣
由于相機透視投特性,,車道線在圖像上呈現(xiàn)近粗遠細的特點,。常規(guī)影像重采樣使用同一縮放尺度對影像重采樣,重采樣比例過大會使輸出圖像尺寸較大,,顯著增加特征點搜索耗時,;重采樣比例過小會使遠處車道線信息嚴重丟失,降低遠處檢測率,。
本文提出一種按距離遠近對圖像各水平區(qū)域不同比例的重采樣方法,,保留遠處車道線信息的情況下,顯著降低搜索區(qū)域大小,,降低搜索時間,。如圖3所示。
由式(1)計算當前標定參數(shù)下滅線在圖像中的水平位置,,從滅線往下至圖像底邊為車道線關(guān)注區(qū)域,,設(shè)滅線到圖像底邊高為H,重采樣比例si≤1.0,,i=1,,…,n依次遞減,,按式(3)計各重采樣區(qū)域高度hi,,i=1,…,,n后分區(qū)重采樣,。
2 車道模型
單根車道線由二次函數(shù)描述:
其中x, y為世界坐標系下坐標,。車道模型采用和式(5)相同的模型描述當前車道中心線,,增加車道寬度參數(shù)w和偏移offset。
3 圖像通道運算
彩色圖像包含RGB三個通道信息,,需處理為灰度影像,,根據(jù)被拍攝物體的光譜反射特性,,路面車道線顏色為白色或黃色[6],對于白色車道線:R≈G≈B,,對于黃色車道線:R≈G>B采用:
如圖 4所示,,所得灰度圖像M在保持白色車道線強度不變前提下有效增強黃色車道線與地面的對比度。
4 多尺度特征點對提取
4.1 特征點對查找
特征點對由圖像水平方向1個“暗-亮”特征和1個“亮-暗”特征組成,,描述由地面到車道線和由車道線到地面的圖像強度變化,。首先使用卷積核為[-1 0 1]的梯度算子對圖像卷積,獲取水平方向一階導(dǎo)數(shù),,在卷積后圖像中查找正負峰值即可對亮度變化邊緣定位,,正峰值處即為原圖“暗-亮”特征邊緣,負峰值即為“亮-暗”特征邊緣,。
特征點對的查找在重采樣后圖像上逐行進行,,利用式(1)計算每行圖像上車道線寬度上下限[wmin,wmax],,作為特征點對搜索范圍,找到一個正峰值后,,從與其相隔像素數(shù)為wmin處開始查找負峰值,,直至wmax處,若范圍內(nèi)查找到負峰值,,則作為特征點對保留,。
4.2 特征點對位置精化
查找到特征點對整像素點位后,精化特征點正負峰值位置,,求出中心點位置和特征點寬度,。
進一步求峰值精確位置:
5 車道跟蹤
5.1 特征點歸組
根據(jù)式(2)將包含寬度的特征點由圖像坐標轉(zhuǎn)換到世界坐標,由距離相機最近點p0向遠順序搜索與其距離最近點p1,,若p0與p1間距離小于一定值td,,則歸為一組,再從p1繼續(xù)搜索,,至兩點間距離大于td則當前組分組完畢,,創(chuàng)建新組繼續(xù)搜索直至所有特征點都被分組。分組后刪除點數(shù)過少的組,。具體算法流程如下:
5.2 分組合并
經(jīng)5.1中特征點歸組后,,連續(xù)線段歸為一組,實際環(huán)境由于虛線或者實線污損會過度分組,,分組后合并操作可使一條車道線的各個組合并為同一個組,。
判斷兩個分組是否合并有兩個規(guī)則:(1)兩個分組是否落在對方的拓展范圍內(nèi);(2)合并后所擬合的二次曲線方差是否足夠小,。
規(guī)則1與文獻[7]中相似,,在各分組首末點處各延伸出一個矩形,,矩形方向與本組特征點方向一致,若待判斷組的端點落在矩形范圍內(nèi),,則標記為True,。規(guī)則2中將兩組特征點合并后進行二次曲線擬合,兩組特征點之間若存在橫向偏移或旋轉(zhuǎn),,二次曲線擬合方差會顯著大于同一條線上擬合方差,。
同時滿足規(guī)則1和規(guī)則2的分組被合并到同一個超組中,對每個超組進行二次曲線擬合,,得到各自的二次曲線方程作為候選車道線,。
5.3 車道模型更新
對于所有候選車道線,根據(jù)a0的正負分為左,、右兩類,,左、右兩類間逐一計算在y=0處和y=20處寬度與上一幀車道模型寬度的差值,,若差值小于一定范圍,,則繼續(xù)進行后續(xù)車道組成。
車道組成分為3種情況:(1)左右均存在車道線,,則用左右車道線更新車道模型,;(2)有一邊車道線缺失,使用存在的車道線更新車道模型,;(3)左右車道線均不存在,,則不更新車道模型。
車道模型使用卡爾曼濾波更新,,模型如下
HLR上3行對應(yīng)左車道線,,下3行對應(yīng)右車道線,當一側(cè)車道線缺失時,,將對應(yīng)部分設(shè)置為0更新模型,,更新后模型即作為車道模型輸出。
6 實驗結(jié)果與分析
算法實現(xiàn)分離線部分和在線部分,,離線部分基于VS2010和OpenCV實現(xiàn),,運行環(huán)境為Intel Core i5-2520 CPU,主頻為2.5 GHz,,操作系統(tǒng)為Windows10 X64,,使用兩組數(shù)據(jù):(1)魅族MX2手機后置攝像頭所采集真實環(huán)境視頻,視頻在武漢市環(huán)城高速,、二環(huán)線等道路上采集,,包含了直線、彎道,、進出隧道,、地面文字圖形干擾,、車道線單邊缺失、車道被侵占和地面陰影干擾等場景,,視頻分辨率為1 280×720,,(2)Caltech車道線數(shù)據(jù)集[4]進行對照,Caltech車道線數(shù)據(jù)集是由美國加州理工學院在2008年公布的車道線測試數(shù)據(jù)集,,數(shù)據(jù)集為4段一天中不同時間的圖像序列,,分別包含250幀、406幀,、337幀和232幀圖像,,分辨率均為640×480,該數(shù)據(jù)集廣泛用于車道線檢測算法評估,。
在線部分硬件為魅族MX2手機,,4核1.6 GHz ARM架構(gòu)CPU,算法基于OpenCV for Android和Qt for Android實現(xiàn),,與離線部分一致,,實時采集圖像分辨率、焦距與離線部分一致,。
為對比多尺度采樣對于算法運行效率的提高,,使用離線數(shù)據(jù)集中的MX2數(shù)據(jù)中一段視頻進行對比實驗,總幀數(shù)1 760幀,。多尺度重采樣比例設(shè)置為si={1.0,0.5,,0.2},;為保證對照組同樣的檢測效果,對照組使用圖像重采樣比例整體為1,,即不進行重采樣操作,,程序運行時間見圖 6,不使用多尺度重采樣平均運行時間為36.0 ms/幀,,幀率約為27.8幀/秒,,基本滿足車道線檢測的實時要求;多尺度重采樣運行時間均值約為20.6 ms/幀,,幀率約為48.5幀/秒,。實驗表明,多尺度影像重采樣在保證相同車道線檢測效果的情況下,,可有效提高算法運行效率,。
離線實驗第二部分為本文算法與Caltech車道線檢測算法對比,對比實驗使用Caltech車道線數(shù)據(jù)集,,為方便比較,,將Caltech數(shù)據(jù)集中4段視頻運行時間數(shù)據(jù)合并后進行運行時間比較,。Caltech車道線檢測算法使用有向高斯濾鏡對經(jīng)過逆透視變換后的圖像進行卷積,隨后使用RANSAC算法進行初始直線匹配,,最后使用快速RANSAC算法將進行貝塞爾曲線匹配,,得到車道線檢測結(jié)果。圖 7和圖 8分別為Caltech車道線檢測算法與本文算法的運行時間和效果對比圖,,Caltech數(shù)據(jù)集中圖像尺寸較小,,檢測算法運行快于上一項實驗,其中Caltech車道線檢測算法運行平均時間約為18.5 ms,,幀率為53.9幀/秒,;本文算法平均運行時間約為10.1 ms,幀率為99.0幀/秒,。
典型場景的檢測效果如圖 8,,在常規(guī)場景(a)下,本文算法結(jié)果與Caltech算法結(jié)果相似,,得益于算法中特征點位置精化,,檢測結(jié)果穩(wěn)定于車道線正中央;圖中(b),、(c),、(d)三項分別為對照算法受到地面橫線、文字和陰影干擾而產(chǎn)生誤檢,,本文中算法可以正確檢測到車道線,。
第三部分實驗算法檢測準確率定量評估,用離線數(shù)據(jù)中的MX2采集的5段視頻運行車道線檢測,,隨后逐幀統(tǒng)計檢測結(jié)果中的誤檢和漏檢情況,,統(tǒng)計結(jié)果見表 1,在絕大多數(shù)情況下,,算法可準確檢測車道線,,其中錯誤部分總體誤檢率小于漏檢率,用于ADAS系統(tǒng)時,,誤提醒干擾駕駛者的概率比較小,。
實驗視典型場景如圖 9所示,包含了常規(guī)的直線行駛,,彎道行駛,,進入隧道、隧道中行駛和駛出隧道等光線劇烈變化場景和地面文字,、陰影,、車輛對于車道線的干擾以及單邊車道線缺失等異常狀況,本文算法在以上場景中均能正確檢測出車道線,場景(f)為誤檢場景,,算法將靠近車道線的地面破損誤檢測為車道線,。
第四部分實驗為在線實驗,算法運行在一臺4核1.6 GHz ARM架構(gòu)CPU的手機上,,從手機相機實時獲取1 280×720像素圖像用于算法處理,,算法占用1個CPU核心,平均運行時間約為35.6 ms,,幀率約為28.1幀/秒,,滿足實時性要求。
7 結(jié)語
本文提出了一種適用于無人駕駛車輛和輔助駕駛的高魯棒性車道線檢測算法,,根據(jù)距離遠近生成金字塔影像,,在縮減計算量的同時保證了對遠處特征點的提取,保證了算法在Android等移動平臺的實時運行,,進一步的特征點位置精化提供了亞像素級特征點位置,,為無人駕駛提供了準確的車道線位置信息?;诙吻€的車道模型用較少的參數(shù)描述車道的位置和幾何特征,,保證了結(jié)果的穩(wěn)定性。大量實驗證明,,算法在PC端和Android端均有很好的實時性,、魯棒性和高檢測率、低誤檢率,。后續(xù)工作中,,將進一步解決因上下坡等特殊情況下出現(xiàn)的車道模型異常等情況。
參考文獻
[1] MCCALL J C,,TRIVEDI M M.Video-based lane estimation and tracking for driver assistance:survey,,system,and evaluation[J].Intelligent Transportation Systems,,IEEE Transactions on,2006,,7(1):20-37.
[2] JIANG Y,,GAO F,XU G.Computer vision-based multiplelane detection on straight road and in a curve[C].Image Analysis and Signal Processing(IASP),,2010 International Conference on,,2010:114-117.
[3] BORKAR A,HAYES M,,SMITH M T.Robust lane detection and tracking with ransac and Kalman filter[C].ICIP,,2009:3261-3264.
[4] ALY M.Real time detection of lane markers in urban streets[C].Intelligent Vehicles Symposium,2008 IEEE,,2008:7-12.
[5] SEUNG-NAM K,,SOOMOK L,,JUNHWA H,et al.Multilane detection based on accurate geometric lane estimation in highway scenarios[C].Intelligent Vehicles Symposium Proceedings,,2014 IEEE,,2014:221-226.
[6] 中國國家標準化管理委員會.GB 5768.3-2009道路交通標志和標線.第3部分:道路交通標線.2009.
[7] ESKANDARIAN A.Handbook of Intelligent Vehicles[M].Springer,2012.
作者信息:
付黎明,,李必軍,,葉雨同
(武漢大學 測繪遙感信息工程國家重點實驗室,湖北 武漢430079)