文獻標識碼: A
文章編號: 0258-7998(2014)06-0130-03
圖像匹配技術(shù)是機器視覺和模式識別領(lǐng)域的一個重要分支,,其應(yīng)用領(lǐng)域廣泛,如醫(yī)學(xué),、目標識別跟蹤,、圖像拼接等。目前,,圖像配準的方法大致分為兩類:基于特征的圖像配準方法和基于灰度的圖像配準方法,。其中,基于特征的匹配方法由于對不同特性的圖像特征容易提取,且提取的特征點不易受到光照,、旋轉(zhuǎn)變化的影響,,具有較強的穩(wěn)定性和魯棒性,因而得到廣泛應(yīng)用,。
1999年,,LOWE D在總結(jié)現(xiàn)有特征算法的基礎(chǔ)上提出了尺度不變特征變換SIFT(Scale Invariant Feature Transform)算法[1],并于2004年總結(jié)完善[2],。該算法提取的穩(wěn)定特征點對旋轉(zhuǎn)、亮度變化,、尺度變化保持不變性,,對視角變換、仿射變換也有一定程度的穩(wěn)定性,,因此在圖像配準中得到了應(yīng)用,,如參考文獻[3-4]將SIFT用于圖像配準領(lǐng)域,除此以外也衍生了一系列改進算法,,如利用主成分分析的PCA-SIFT[5],。但是SIFT本身始終存在抗仿射性弱以及計算效率低的缺點。針對以上缺點,,BAY H等人于2008年提出了一種加速的魯棒性特征SURF(Speeded Up Robust Feature)算法,,該算法是對SIFT的一種改進方法,其性能在各方面接近或超越了SIFT算法,,在保持性能的同時,,計算速度是SIFT的3倍,參考文獻[6]對此進行了比較詳細的闡述,。參考文獻[7]提出了一種基于SURF和CamShift的物體跟蹤方法,,利用SURF算法找到跟蹤窗口與初始窗口的色彩相似度,最終實現(xiàn)對物體的跟蹤,。
盡管上述算法在特征描述和特征匹配方面取得了較好的效果,,但是,這些算法并沒有在仿射變換上得到更好的改進,。針對這個問題,,Random ferns[8]算法通過對以特征點為中心的子塊進行仿射變換,利用像素比對信息構(gòu)造快速分類器,,在加快匹配速度的同時提高了對視角變化的魯棒性,。2009年,Jean-Michel Morel等人提出了ASIFT算法[9],,該算法具有完全仿射不變性,,能夠解決SIFT和SURF在仿射性方面的缺陷,但ASIFT算法計算量復(fù)雜,難以在實時系統(tǒng)中使用,。
本文通過對以上算法的深入研究和總結(jié),,提出了一種基于仿射變換的SURF描述符。該算法利用透視投影模型來模擬成像過程,,然后將仿射變換后的圖像利用SURF算法進行匹配,。通過3組不同類型圖像的實驗證明,本文算法比SIFT、SURF,、MSER(Maximally stable extremal regions)[10] 算法要好,。
1 SURF描述符
SURF描述符的建立主要包括特征點檢測與特征點描述兩個主要步驟。
1.1 特征點檢測
假如給定圖像I中的一個點x(x,y),則在x處,,基于尺度空間Hessian矩陣H(x,y)定義為:
在求得Fast-Hessian矩陣行列式的響應(yīng)圖像后,,對空間3×3×3鄰域內(nèi)所有點進行非最大值抑制,將最值作為候選的特征點,然后采用線性插值法得到特征點的準確位置,。
1.2 SURF特征點描述
為了保證得到的特征矢量具有旋轉(zhuǎn)不變性,,需要為每一個特征點分配一個主方向。統(tǒng)計以特征點為中心,,以6s(s為特征點尺度)為半徑圓形區(qū)域內(nèi),,利用Haar小波濾波器在x,y方向進行響應(yīng),,并使用σ=2s的高斯加權(quán)函數(shù)對Haar小波進行高斯加權(quán),,離特征點越近響應(yīng)貢獻越大。然后,,在60°的扇形區(qū)域內(nèi)求出x和y方向上的系數(shù)之和,,并構(gòu)建一個新的向量,接著遍歷整個圓形區(qū)域,,選擇最長向量方向為主方向,。
選定方向后,以特征點為中心,,構(gòu)建一個20σ×20σ的正方形窗,,并沿主方向?qū)⒎叫未胺殖?×4個子塊,計算每個子塊的dx,、dy,,并用高斯函數(shù)進行加權(quán),得到每個子塊的矢量V子塊:
最后再對特征矢量進行歸一化處理,。
2 基于仿射變換的SURF描述符
本文為了解決SURF仿射性能上的不足,,在其基礎(chǔ)上模擬了經(jīng)度角和緯度角兩個參數(shù)。
2.1 仿射模擬
攝像機投影模型可以用描述為:
式中,,u0表示平面數(shù)字圖像; T和R表示由相機引起的平移和旋轉(zhuǎn)變換,;A表示仿射投影;G表示高斯視覺模型;S表示網(wǎng)格采樣,。u為最終獲取的平面圖像,。
為了簡化該模型,結(jié)合相機的運動方式與仿射變換形式,,可以得到如下定理,。
定理: 對于任意的仿射矩陣A可以分解為:
2.2 Affine-SURF描述符
Affine-SURF描述符的建立過程如下:
(1) 仿射采樣獲取參數(shù)φ和θ
(3) 對輸出的仿射圖像進行特征點檢測
①首先計算仿射圖像的積分圖像。積分圖像I在X=(x,y)處的定義為:
②然后利用式(2),,獲得Fast-Hessian矩陣行列式,,并得到響應(yīng)圖像。
③接著采用最大值抑制搜索技術(shù),,在位置和尺度上對響應(yīng)圖像進行特征點搜索,。
④對得到的特征點分配方向。
(4) 構(gòu)造Affine-SURF描述符
通過計算圖像的Haar小波響應(yīng),然后統(tǒng)計∑dx,∑d|x|,∑dy,∑d|y|來形成特征矢量,。
經(jīng)過以上步驟就得到了具有較強仿射性能的Affine-SURF描述符。
3 基于仿射變換的SURF圖像配準
得到Affine-SURF描述符后,,用其進行特征匹配,。本文中,首先采用比值提純法進行特征點粗匹配,,接著采用魯棒性較強,、可靠性好的RANSAC算法[11]進一步提純,得到最終的匹配對,。
4 實驗與結(jié)果分析
本文在VS2010平臺上驗證該算法的性能,。實驗的評價指標為圖像在不同仿射情況下獲取的正確匹配對數(shù)目。
第一組實驗主要分析弱視角變化對算法的影響,。以圖1為例,,圖像Box由于相機的視角變化,存在著旋轉(zhuǎn),、弱透視形變等現(xiàn)象,,圖1(c)~圖1(f)分別為SIFT、MSER,、SURF和Affine-SURF算法的匹配結(jié)果,,它們的匹配結(jié)果如表1所示。通過對比正確匹配對的數(shù)目可以看出,Affine-SURF有效地克服了視角變化對特征提取與描述的影響,。
第二組實驗主要用來評價不同算法在尺度變化方面的魯棒性,。以圖2為例,圖像Book由于拍攝高度不同,,導(dǎo)致出現(xiàn)尺度變化,。從圖2(c)~圖2(f)以及表1可以看出,Affine-SURF算法有較好的匹配效果,而且比其他3種算法能夠獲取更多特征點。這說明Affine-SURF能夠在尺度變化明顯的情況下獲得更多正確的匹配點,。
第三組實驗主要用來驗證算法在仿射形變較大情況下的性能,。以圖3為例,圖像People由于旋轉(zhuǎn),、視角變化過大,導(dǎo)致仿射形變明顯,。圖3(c)~圖3(f)分別為SIFT、MSER,、SURF和Affine-SURF算法的匹配結(jié)果,,結(jié)合表1可以看出,采用本文提出的Affine-SURF算法找到的正確匹配特征點最多,證明了該算法對大視角變化的仿射圖像匹配魯棒性最好,。
SIFT,、SURF圖像配準算法已經(jīng)被驗證對于尺度變化、旋轉(zhuǎn),、亮度變化具有較好的不變性,,但是它們不具有很好的仿射性。因此,,本文提出一種基于仿射變換的SURF圖像配準算法,。通過3組不同圖像類型的實驗結(jié)果表明,采用本文算法比SIFT,、SURF,、MSER算法能夠得到更多的正確匹配點,更好地提高算法的仿射魯棒性,。
參考文獻
[1] LOWE D. Object recognition from local scale-invariant features[C]. In: Proceedings of the 7th IEEE International Conference on Computer Vision,, Corfu,US: IEEE,,1999:1150-1157.
[2] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,,2004,60(2):91-110.
[3] Zhao Wanglei, NGO C W. Flip-invariant SIFT for copy and object detection[J]. Image Processing, IEEE,2013,,22(3):980-991.
[4] 張瑞年.聯(lián)合時空SIFT特征的同源視頻檢測[J].電子技術(shù)應(yīng)用,,2012,38(3):130-133.
[5] JUAN L,GWUN O. A comparison of SIFT, PCA-SIFT and SURF[J]. International Journal of Image Processing (IJIP),,2009,3(4):143-152.
[6] BAY H,ESS A,TUYTELAARS T,et al. Speeded up robust features(SURF)[J].Computer Vision and Image Understand ing(CVIU),,2008,110(3):346-359.
[7] 路寧.基于SURF和CamShift的物體跟蹤方法[J].微型機與應(yīng)用,,2012,,31(27):40-43.
[8] OZUYSAL M, CALONDER M, LEPETIT V, et al. Fast keypoint recognition using random ferns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,,32(3):448-461.
[9] MOREL J M, YU G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Image Sciences,,2009,,2(2):438-469.
[10] MATAS J, CHUM O, URBAN M, et al. Robust widebaseline stereo from maximally stable extremal regions[J]. Image and Vision Computing,2004,,22(10):761-767.
[11] FISCHLER M A,,BOLLES R C. Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,,24(6):381-395.