文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2014)06-0130-03
圖像匹配技術(shù)是機(jī)器視覺和模式識(shí)別領(lǐng)域的一個(gè)重要分支,,其應(yīng)用領(lǐng)域廣泛,如醫(yī)學(xué),、目標(biāo)識(shí)別跟蹤、圖像拼接等,。目前,,圖像配準(zhǔn)的方法大致分為兩類:基于特征的圖像配準(zhǔn)方法和基于灰度的圖像配準(zhǔn)方法。其中,,基于特征的匹配方法由于對不同特性的圖像特征容易提取,,且提取的特征點(diǎn)不易受到光照、旋轉(zhuǎn)變化的影響,,具有較強(qiáng)的穩(wěn)定性和魯棒性,,因而得到廣泛應(yīng)用。
1999年,,LOWE D在總結(jié)現(xiàn)有特征算法的基礎(chǔ)上提出了尺度不變特征變換SIFT(Scale Invariant Feature Transform)算法[1],,并于2004年總結(jié)完善[2]。該算法提取的穩(wěn)定特征點(diǎn)對旋轉(zhuǎn),、亮度變化,、尺度變化保持不變性,對視角變換,、仿射變換也有一定程度的穩(wěn)定性,,因此在圖像配準(zhǔn)中得到了應(yīng)用,如參考文獻(xiàn)[3-4]將SIFT用于圖像配準(zhǔn)領(lǐng)域,,除此以外也衍生了一系列改進(jìn)算法,,如利用主成分分析的PCA-SIFT[5]。但是SIFT本身始終存在抗仿射性弱以及計(jì)算效率低的缺點(diǎn),。針對以上缺點(diǎn),,BAY H等人于2008年提出了一種加速的魯棒性特征SURF(Speeded Up Robust Feature)算法,,該算法是對SIFT的一種改進(jìn)方法,其性能在各方面接近或超越了SIFT算法,,在保持性能的同時(shí),,計(jì)算速度是SIFT的3倍,參考文獻(xiàn)[6]對此進(jìn)行了比較詳細(xì)的闡述,。參考文獻(xiàn)[7]提出了一種基于SURF和CamShift的物體跟蹤方法,,利用SURF算法找到跟蹤窗口與初始窗口的色彩相似度,最終實(shí)現(xiàn)對物體的跟蹤,。
盡管上述算法在特征描述和特征匹配方面取得了較好的效果,,但是,這些算法并沒有在仿射變換上得到更好的改進(jìn),。針對這個(gè)問題,,Random ferns[8]算法通過對以特征點(diǎn)為中心的子塊進(jìn)行仿射變換,利用像素比對信息構(gòu)造快速分類器,,在加快匹配速度的同時(shí)提高了對視角變化的魯棒性,。2009年,Jean-Michel Morel等人提出了ASIFT算法[9],,該算法具有完全仿射不變性,,能夠解決SIFT和SURF在仿射性方面的缺陷,但ASIFT算法計(jì)算量復(fù)雜,,難以在實(shí)時(shí)系統(tǒng)中使用,。
本文通過對以上算法的深入研究和總結(jié),提出了一種基于仿射變換的SURF描述符,。該算法利用透視投影模型來模擬成像過程,,然后將仿射變換后的圖像利用SURF算法進(jìn)行匹配。通過3組不同類型圖像的實(shí)驗(yàn)證明,本文算法比SIFT,、SURF,、MSER(Maximally stable extremal regions)[10] 算法要好。
1 SURF描述符
SURF描述符的建立主要包括特征點(diǎn)檢測與特征點(diǎn)描述兩個(gè)主要步驟,。
1.1 特征點(diǎn)檢測
假如給定圖像I中的一個(gè)點(diǎn)x(x,y),則在x處,,基于尺度空間Hessian矩陣H(x,y)定義為:
在求得Fast-Hessian矩陣行列式的響應(yīng)圖像后,對空間3×3×3鄰域內(nèi)所有點(diǎn)進(jìn)行非最大值抑制,將最值作為候選的特征點(diǎn),,然后采用線性插值法得到特征點(diǎn)的準(zhǔn)確位置,。
1.2 SURF特征點(diǎn)描述
為了保證得到的特征矢量具有旋轉(zhuǎn)不變性,需要為每一個(gè)特征點(diǎn)分配一個(gè)主方向,。統(tǒng)計(jì)以特征點(diǎn)為中心,,以6s(s為特征點(diǎn)尺度)為半徑圓形區(qū)域內(nèi),利用Haar小波濾波器在x,y方向進(jìn)行響應(yīng),,并使用σ=2s的高斯加權(quán)函數(shù)對Haar小波進(jìn)行高斯加權(quán),,離特征點(diǎn)越近響應(yīng)貢獻(xiàn)越大。然后,,在60°的扇形區(qū)域內(nèi)求出x和y方向上的系數(shù)之和,,并構(gòu)建一個(gè)新的向量,接著遍歷整個(gè)圓形區(qū)域,,選擇最長向量方向?yàn)橹鞣较颉?/p>
選定方向后,,以特征點(diǎn)為中心,構(gòu)建一個(gè)20σ×20σ的正方形窗,,并沿主方向?qū)⒎叫未胺殖?×4個(gè)子塊,,計(jì)算每個(gè)子塊的dx、dy,,并用高斯函數(shù)進(jìn)行加權(quán),,得到每個(gè)子塊的矢量V子塊:
最后再對特征矢量進(jìn)行歸一化處理。
2 基于仿射變換的SURF描述符
本文為了解決SURF仿射性能上的不足,,在其基礎(chǔ)上模擬了經(jīng)度角和緯度角兩個(gè)參數(shù),。
2.1 仿射模擬
攝像機(jī)投影模型可以用描述為:
式中,u0表示平面數(shù)字圖像; T和R表示由相機(jī)引起的平移和旋轉(zhuǎn)變換,;A表示仿射投影,;G表示高斯視覺模型;S表示網(wǎng)格采樣,。u為最終獲取的平面圖像。
為了簡化該模型,,結(jié)合相機(jī)的運(yùn)動(dòng)方式與仿射變換形式,,可以得到如下定理。
定理: 對于任意的仿射矩陣A可以分解為:
2.2 Affine-SURF描述符
Affine-SURF描述符的建立過程如下:
(1) 仿射采樣獲取參數(shù)φ和θ
(3) 對輸出的仿射圖像進(jìn)行特征點(diǎn)檢測
①首先計(jì)算仿射圖像的積分圖像,。積分圖像I在X=(x,y)處的定義為:
②然后利用式(2),,獲得Fast-Hessian矩陣行列式,并得到響應(yīng)圖像,。
③接著采用最大值抑制搜索技術(shù),,在位置和尺度上對響應(yīng)圖像進(jìn)行特征點(diǎn)搜索。
④對得到的特征點(diǎn)分配方向,。
(4) 構(gòu)造Affine-SURF描述符
通過計(jì)算圖像的Haar小波響應(yīng),然后統(tǒng)計(jì)∑dx,∑d|x|,∑dy,∑d|y|來形成特征矢量,。
經(jīng)過以上步驟就得到了具有較強(qiáng)仿射性能的Affine-SURF描述符。
3 基于仿射變換的SURF圖像配準(zhǔn)
得到Affine-SURF描述符后,,用其進(jìn)行特征匹配,。本文中,首先采用比值提純法進(jìn)行特征點(diǎn)粗匹配,,接著采用魯棒性較強(qiáng),、可靠性好的RANSAC算法[11]進(jìn)一步提純,,得到最終的匹配對。
4 實(shí)驗(yàn)與結(jié)果分析
本文在VS2010平臺(tái)上驗(yàn)證該算法的性能,。實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)為圖像在不同仿射情況下獲取的正確匹配對數(shù)目,。
第一組實(shí)驗(yàn)主要分析弱視角變化對算法的影響。以圖1為例,,圖像Box由于相機(jī)的視角變化,,存在著旋轉(zhuǎn)、弱透視形變等現(xiàn)象,,圖1(c)~圖1(f)分別為SIFT,、MSER、SURF和Affine-SURF算法的匹配結(jié)果,,它們的匹配結(jié)果如表1所示,。通過對比正確匹配對的數(shù)目可以看出,Affine-SURF有效地克服了視角變化對特征提取與描述的影響。
第二組實(shí)驗(yàn)主要用來評(píng)價(jià)不同算法在尺度變化方面的魯棒性,。以圖2為例,,圖像Book由于拍攝高度不同,導(dǎo)致出現(xiàn)尺度變化,。從圖2(c)~圖2(f)以及表1可以看出,Affine-SURF算法有較好的匹配效果,,而且比其他3種算法能夠獲取更多特征點(diǎn)。這說明Affine-SURF能夠在尺度變化明顯的情況下獲得更多正確的匹配點(diǎn),。
第三組實(shí)驗(yàn)主要用來驗(yàn)證算法在仿射形變較大情況下的性能,。以圖3為例,圖像People由于旋轉(zhuǎn),、視角變化過大,導(dǎo)致仿射形變明顯,。圖3(c)~圖3(f)分別為SIFT、MSER,、SURF和Affine-SURF算法的匹配結(jié)果,,結(jié)合表1可以看出,采用本文提出的Affine-SURF算法找到的正確匹配特征點(diǎn)最多,證明了該算法對大視角變化的仿射圖像匹配魯棒性最好,。
SIFT,、SURF圖像配準(zhǔn)算法已經(jīng)被驗(yàn)證對于尺度變化、旋轉(zhuǎn),、亮度變化具有較好的不變性,,但是它們不具有很好的仿射性。因此,,本文提出一種基于仿射變換的SURF圖像配準(zhǔn)算法,。通過3組不同圖像類型的實(shí)驗(yàn)結(jié)果表明,采用本文算法比SIFT、SURF,、MSER算法能夠得到更多的正確匹配點(diǎn),,更好地提高算法的仿射魯棒性。
參考文獻(xiàn)
[1] LOWE D. Object recognition from local scale-invariant features[C]. In: Proceedings of the 7th IEEE International Conference on Computer Vision,, Corfu,,US: IEEE,1999:1150-1157.
[2] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,,2004,60(2):91-110.
[3] Zhao Wanglei, NGO C W. Flip-invariant SIFT for copy and object detection[J]. Image Processing, IEEE,,2013,22(3):980-991.
[4] 張瑞年.聯(lián)合時(shí)空SIFT特征的同源視頻檢測[J].電子技術(shù)應(yīng)用,,2012,,38(3):130-133.
[5] JUAN L,GWUN O. A comparison of SIFT, PCA-SIFT and SURF[J]. International Journal of Image Processing (IJIP),2009,3(4):143-152.
[6] BAY H,ESS A,TUYTELAARS T,et al. Speeded up robust features(SURF)[J].Computer Vision and Image Understand ing(CVIU),,2008,,110(3):346-359.
[7] 路寧.基于SURF和CamShift的物體跟蹤方法[J].微型機(jī)與應(yīng)用,2012,,31(27):40-43.
[8] OZUYSAL M, CALONDER M, LEPETIT V, et al. Fast keypoint recognition using random ferns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,,2010,32(3):448-461.
[9] MOREL J M, YU G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Image Sciences,,2009,,2(2):438-469.
[10] MATAS J, CHUM O, URBAN M, et al. Robust widebaseline stereo from maximally stable extremal regions[J]. Image and Vision Computing,2004,,22(10):761-767.
[11] FISCHLER M A,,BOLLES R C. Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,,24(6):381-395.