《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 一種基于SIFT和SUSAN特征的圖像匹配方法
一種基于SIFT和SUSAN特征的圖像匹配方法
來源:微型機與應用2011年第12期
吳毅良
(暨南大學 計算機科學系,, 廣東 廣州 510632)
摘要: 針對SIFT方法在角點檢測上的不足,,提出了一種基于SIFT和SUSAN混合特征匹配的自動匹配算法。算法應用SIFT 和SUSAN 兩種具有互補特性的局部不變特征,,利用SIFT方法檢測空間極值特征點,,利用SUSAN方法檢測角點,,結合兩種特征點位置,利用SIFT方法生成匹配特征向量,,最后根據(jù)最近鄰特征點距離與次近鄰特征點距離之比確定初始匹配點對,,實現(xiàn)圖像的配準。實驗表明該算法有效,能夠提高圖像的自動匹配準確性,。
Abstract:
Key words :

摘   要: 針對SIFT方法在角點檢測上的不足,,提出了一種基于SIFT和SUSAN混合特征匹配的自動匹配算法。算法應用SIFT 和SUSAN 兩種具有互補特性的局部不變特征,,利用SIFT方法檢測空間極值特征點,,利用SUSAN方法檢測角點,結合兩種特征點位置,,利用SIFT方法生成匹配特征向量,,最后根據(jù)最近鄰特征點距離與次近鄰特征點距離之比確定初始匹配點對,實現(xiàn)圖像的配準,。實驗表明該算法有效,,能夠提高圖像的自動匹配準確性。
關鍵詞: 圖像匹配,; SIFT特征,; SUSAN角點

    圖像匹配是圖像處理的一個基本問題,在計算機視覺,、圖像配準,、信息檢索等領域得到了廣泛的應用,是很多基于圖像內(nèi)容應用的基礎,。隨著計算機技術的發(fā)展和數(shù)字圖像應用的日益廣泛,,圖像匹配技術在諸多領域內(nèi)發(fā)揮越來越重要的作用。長期以來, 國內(nèi)外很多學者都致力于解決圖像匹配的技術問題,。
 簡單來說,,圖像匹配就是找出兩幅圖像中相同或相似景物,目前圖像匹配的方法一般分為基于區(qū)域匹配和基于特征匹配兩類,。
 近年來,,在計算機視覺領域,基于局部不變量描述符的方法在目標識別和圖像匹配方面取得了顯著發(fā)展,。SIFT特征描述符克服了傳統(tǒng)圖像匹配在圖像尺度,、視差變化的局限性。參考文獻[1]對10種最具代表性的特征匹配描述算子進行了實驗和性能比較,結果表明, SIFT特征描述符在對光照變化,、圖像旋轉(zhuǎn),、比例縮放、幾何變形,、模糊和圖像壓縮等6種情況下性能最好,。
 本文在SIFT方法的基礎上加入SUSAN角點檢測的思想,,提出一種新的更加穩(wěn)健的圖像匹配方法,。
1 SIFT特征檢測
    2004年, LOWE D提出了一種新的點特征匹配算法——SIFT(Scale Invariant Feature Transform)算法,較好地解決了場景部分遮擋、旋轉(zhuǎn)縮放,、視點變化引起的圖像變形等問題,,并且有效應用于目標識別、圖像復原,、圖像拼接等領域,。
 SIFT算法首先在尺度空間進行特征點檢測,并確定關鍵點的位置和所處的尺度,,然后使用關鍵點鄰域梯度的主方向作為該點的方向特征,,以實現(xiàn)算子對尺度和方向的無關性。
1.1 尺度空間理論

 


 尺度空間理論是一種對圖像從多尺度考察圖像特征的理論方法,,能夠發(fā)掘出很多從單一尺度無法發(fā)現(xiàn)的圖像特征,。
 SIFT方法選用了高斯函數(shù),利用其標準差σ作為尺度參數(shù)與圖像進行卷積運算以產(chǎn)生多尺度的圖像,。一幅二維圖像的尺度空間定義為:

1.5 特征描述子
 首先以特征點為中心取8×8的鄰域作為采樣窗口,窗口內(nèi)每個方格代表特征點尺度空間的一個像素,,箭頭方向代表該像素的梯度相對于特征點方向的相對方向,箭頭長度代表梯度的模,,大圓圈代表加權的范圍,。然后利用直方圖統(tǒng)計的方法,在每 4×4 的小塊上計算 8 個方向的梯度方向直方圖,,即可形成 4 個種子點,如圖1所示,。
    每個種子點可以產(chǎn)生8個方向信息,共4×8=32個方向信息,,按順序就可以組成32維的特征向量,。本文采用16×16的采樣窗口,一共產(chǎn)生16個種子點,,產(chǎn)生16×8=128維的特征向量,,更多的種子點可以增加匹配的穩(wěn)定性。
2 SUSAN角點檢測
 1997年 SMITH S M和 BRADY J M提出了一種最小核值相似區(qū)SUSAN(Smallest Univalue Segment Assimilating Nucleus)算法,,它直接對圖像灰度值進行操作,,方法簡單,算法效率高,,定位準確,,對多個區(qū)域的角點也能精確檢測,對局部噪聲不敏感,,抗噪能力強,。
2.1 SUSAN方法簡介
 SUSAN方法其實是利用圓形模板遍歷整個圖像,如果模板內(nèi)其他像素值與模板中心像素值相差小于一定閾值,,就認為該點與中心點具有近似的灰度值,,模板內(nèi)滿足這樣條件的像素組成的區(qū)域稱為核值相似區(qū)USAN(Univalue Segment Assimilating Nucleus),。利用這個區(qū)域可以將像素點的性質(zhì)分成幾類考慮,而屬于直角角點的大概就是具有1/4模板大小的USAN區(qū)的像素點,如圖2所示,。

2.2  USAN區(qū)域
    USAN區(qū)域利用中心點與周圍像素的差值和預先設定的閾值進行比較得出,,其相似比較函數(shù)表示為:        
2.3 角點檢測
 SUSAN方法通過設定角點閾值,利用角點響應函數(shù)判斷角點位置,,計算公式如下:
 
其中g為角點閾值,它影響檢測到的角點形狀,,g越小,檢測到的角點越尖銳,一般設定為1/2模板區(qū)域大小,。
 SUSAN角點檢測的最后一個階段,,就是尋找初始角點響應的局部最大值,在局部范圍內(nèi),,如果中心像素的初始響應是此區(qū)域內(nèi)的最大值,,則判斷其屬于角點。
3 基于SIFT和SUSAN特征檢測
 SIFT方法能夠從尺度空間尋找出具有結構化特性的特征點,,但是可能在視覺上沒有特殊意義,,而實際圖像中很多具有視覺意義的特征位置,如角點利用SIFT方法檢測會出現(xiàn)位置偏移或者漏檢的情況,如圖3所示。]

    從圖3可以看出,最右角出現(xiàn)漏檢,,其他角的特征點均發(fā)生一定程度的位置偏移,,這是由于高斯平滑的過程中極值點會隨著像素擴散引起的。但是圖像上的角點往往是進行圖像匹配比較理想的特征,,SIFT方法并沒有很好地將角點利用起來,,遺漏了某些重要的角點信息。
 本文在SIFT的基礎上引入SUSAN角點檢測就是為了增強其對圖像特性信息的利用率,,從而應用于圖像匹配上得到更多有意義的正確匹配點,,因為SUSAN能夠有效檢測出圖像中的角點,如圖4所示,。

    由圖4可以看出,,SUSAN方法能夠準確定位并檢測到4個角點。SUSAN角點檢測的優(yōu)點在于可以簡單快捷地檢測出圖像的明顯形狀特征,,但是針對紋理圖像或者低對比度圖像,,效果并不明顯。
 通過以上分析, 本文在SIFT方法的基礎上引入SUSAN角點檢測思想,基本能夠?qū)D像中的結構化信息特征和形狀信息的特征檢測出來,。算法的流程圖如圖5所示,。

4 特征匹配
 已經(jīng)找出圖像上的特征向量,接下來的任務就是特征匹配,,即對特征向量作相似性度量判斷其相似程度,。本文采用兩個向量的歐氏距離作為相似性的判斷度量,歐氏距離定義如下:

 取圖像1中的某個關鍵點,,并找出其與圖像2中歐式距離最近的前兩個關鍵點,,在這兩個關鍵點中,,如果最近的距離除以次近的距離小于某個比例閾值,則接受這一對匹配點,。如果降低這個比例閾值,,匹配點數(shù)目會減少,,但更加穩(wěn)定,。最后再設定一個匹配點數(shù)目閾值,如果匹配點數(shù)目大于閾值,,就認為兩幅圖像是相似的,。
5 實驗結論
 在Core 2, 2.2 GHz CPU, 2.0 GB RAM的PC機上運行Solaris 10操作系統(tǒng),采用C 語言編程實現(xiàn)了本文提出的算法,通過實驗圖片驗證本文方法的有效性(限于篇幅,下文僅給出一組實驗結果),,并將本文算法與SIFT算法進行了實驗分析和比較,。實驗中,最近鄰特征點距離與次近鄰特征點距離之比取0.7。
 圖6利用SIFT方法,左圖和右圖分別生成了356個和369個特征點,,最終產(chǎn)生12對匹配對,,其中兩個錯誤匹配對;圖7利用SUSAN方法,左圖和右圖分別生成了315個和358個特征點,,最終產(chǎn)生25對匹配點,,其中兩個錯誤匹配對;圖8結合兩種方法,,左圖和右圖分別生成了671個和727個特征點,,最終產(chǎn)生33對匹配對,其中一個錯誤匹配對,。

    SUSAN方法在更少的特征點中可以找出更多匹配點對,,而且錯誤匹配率沒有增加,由此可見,,角點信息在特征匹配上非常有效,。本文方法利用兩種特征,得到更多的特征匹配對,,并且降低了錯誤匹配率,。
參考文獻
[1] M IKOLAJCZYK K, SCHM ID C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern  Analysis & Machine Intelligence, 2005,27(10):1615-1630.
[2] BROWN M, LOWE D. Invariant features from interest point groups[C].In Proceedings of the 13th British Machine Vision Conference. Cardiff: [s. n.], 2002:253-262.
[3] LOWE D. Object recognition from local scale-invariant features[C].In Proceedings of the International Conference on Computer. Corfu ,Greece:[s.n.],1999:1150-1157.
[4] SMITH S M, BRADY J M. SUSAN——a new approach to low level image processing[J]. Computer Vision,1997,23(10):45-78.
 

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權禁止轉(zhuǎn)載,。