文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.2016.12.023
中文引用格式: 賀康建,,周冬明,,聶仁燦,等. 基于局部控制核的彩色圖像目標檢測方法[J].電子技術(shù)應用,,2016,,42(12):89-92.
英文引用格式: He Kangjian,Zhou Dongming,,Nie Rencan,,et al. Target detection method based on local steering kernel of color image[J].Application of Electronic Technique,2016,,42(12):89-92.
0 引言
近年來計算機技術(shù)快速發(fā)展,,計算機智能為人們的日常生活帶來諸多方便。隨著人們需求的日益增長,,目標檢測與定位逐步進入到人們的實際生活中[1,,2],隨著對人體動作識別,、人機交互技術(shù)的深入研究,,計算機視覺系統(tǒng)也變得越來越智能。使用計算機進行特征檢測,、目標跟蹤、目標檢測及定位等技術(shù)得到了研究人員的廣泛關(guān)注,,這些技術(shù)也開始應用到人們的日常生活中,。本文采用圖像局部控制核算法[3],實現(xiàn)了對不同目標的快速檢測與定位,。目前對于目標檢測及定位問題,,有關(guān)研究人員提出了許多新穎的算法,但大多數(shù)算法需要進行繁瑣的訓練和預處理過程,。如參考匹配法[4]將隱馬爾科夫統(tǒng)計模型引入到目標參考匹配,,此方法的局限性是無法從圖像內(nèi)容來解釋并確定隱馬爾科夫模型的參數(shù),只能通過一系列的實驗來選擇最優(yōu)參數(shù),,這一問題限定了圖像識別中隱馬爾科夫模型[5]的進一步應用,。還有一種多檢測目標自動定位監(jiān)測技術(shù)主要是基于圖像像素的單閾值分割法[6]的運用,此類定位方法過程繁瑣耗時,。本文提出采用圖像局部控制核算法來對目標進行快速的配準,、檢測與定位[7]。
1 算法描述
本文采用局部控制核[8]的方法,,獲取圖像像素點的幾何結(jié)構(gòu)信息,,提取出圖像的結(jié)構(gòu)特征,將目標圖像分割成與目標參考圖像大小一致的一系列子圖,,參考圖像即為所需查找定位的目標,,最后分析包含圖像特征信息的數(shù)據(jù)矩陣之間的相似性來達到目標檢測的目的。算法流程圖如圖1所示,。
1.1 局部控制核函數(shù)LSK
局部控制核函數(shù)(Local Steering Kernel,,LSK)是在評估梯度的基礎(chǔ)上通過分析像素值的差異來獲取圖像的局部數(shù)據(jù)結(jié)構(gòu),,用所獲取的結(jié)構(gòu)信息確定核的形狀和大小,用徑向?qū)ΨQ函數(shù)來表示局部核函數(shù),,表達式如式(1):
式中,,n和nT分別是在參考圖像Q和目標圖像T中計算LSK所用到的子塊數(shù)目。
1.2 獲取主要數(shù)據(jù)特征(降維)
1.3 矩陣相似性判決準側(cè)
得到ρi以后,,就可以分析參考圖像Q和目標圖像Ti之間的相似性關(guān)系,。如果夾角為0°,意味著方向相同,、線段重合,;如果夾角為90°,意味著形成直角,,方向正交,;如果夾角為180°,意味著方向正好相反,。為更好地體現(xiàn)向量間的差異,,用與1-的比值來衡量兩向量的相似度,即f(ρi)=/(1-),,f(ρi)∈[0,,∞]。這樣,,就將相似度的范圍從[0,,1]擴展到[0,∞]之間,,可以更好地突出向量間的微小差異,,更能體現(xiàn)兩者的相似程度。
1.4 保留最大相似區(qū)域
在圖像中目標的檢測與定位過程中,,設定一個整體閾值τ0,,將f(ρi)與τ0作比較,若f(ρi)>τ0就認為目標圖像與參考圖像相似,,最終的定位與檢測的準確度與相似度可以通過調(diào)節(jié)τ0來實現(xiàn),。這樣就可以得到一個相似區(qū)域,然后,,進行非極大值抑制,,即只保留maxf(ρi)的對象,就是最終的檢測與定位結(jié)果,。maxf(ρi)>τ0表明目標圖像中有需要檢測的參考圖像,,maxf(ρi)<τ0,則目標圖像中不存在所感興趣的對象,。
所有相似性區(qū)域子圖塊位置和保留最大相似區(qū)域?qū)嶒灲Y(jié)果如圖2所示,。
2 實驗結(jié)果與分析
為了驗證該算法的有效性,,本文選取兩組圖作為實驗數(shù)據(jù)。其中一組圖像是對衛(wèi)星接收器進行定位,,如圖3所示,。
實驗結(jié)果如圖4所示。圖4中,,不同顏色代表不同的相似度,,藍色(區(qū)域1、3)到紅色(區(qū)域2,、4)表示的相似度依次增強,,實驗選取的參考圖像為目標圖像中最左側(cè)的圖像,所以定位結(jié)果中最左側(cè)的定位結(jié)果為紅色,,與參考圖像最為接近,。圖4(c)中可以看到檢測出不同的相似區(qū)域,可以通過調(diào)節(jié)整體閾值來決定不同相似度區(qū)域的取舍,,最終定位出結(jié)果,。
下面給出另一組人臉檢測與定位實驗,并分析靈敏度?琢對準確度與計算復雜度的影響,,實驗結(jié)果如圖5所示,。
由于式(3)中參數(shù)靈敏度α影響檢測的準確度與運算速度,在實驗中,,選取α=1.0。從表1與圖5中可以看出,,靈敏度α越小,,計算出的顯著性區(qū)域即與參考圖相似的子塊區(qū)域越大,檢測結(jié)果越準確,,但需要很大的計算復雜度;α越大,,相似性區(qū)域越小,檢測時間越短,,但有可能造成檢測目標的缺失,,如圖5(e)中所示。
3 結(jié)論
本文采用的目標定位算法對圖像中的參考圖像目標進行定位,,該算法不需要過多的預處理和訓練過程,,只需要輸入一個參考圖像來獲取所需定位目標的結(jié)構(gòu)信息矩陣,再用局部保留投影(LPP)對圖像矩陣進行降維,,提取顯著特征,,進而與目標圖像的相似特征進行匹配,用余弦相似性方法作為判決依據(jù),。由實驗得知,,該算法是一個通用的定位算法,,參考圖像和目標圖像里的定位圖像不需要嚴格一致。從實驗1看出,,在目標圖像中,,定位目標的角度、方向,、亮度和目標大小等信息不一致,,仍準確定位出3個目標;在實驗2中也可以看出,,在復雜的圖像背景下,,輸入的參考與檢測目標有一定的差異,仍能檢測定位出人臉信息,,說明本算法的有效性和通用性,。
本文算法的局限在于,檢測目標圖像中的目標時,,目標圖像中目標的大小應大致與參考圖像大小一致,,這樣對檢測圖像分割成一系列與參考圖像大小一致的子圖塊時才能進行特征點相似性判決。針對目標圖像中目標大小與參考圖像大小不一致的問題,,可以通過縮放參考圖像來解決,。在參考圖像與目標圖像存在形變時,若目標的局部幾何形狀特征明顯,,能提取出特征,,則可以通過調(diào)節(jié)相似度閾值τ0來實現(xiàn)對目標進行檢測與定位,但會造成定位精度下降,。有關(guān)算法的參數(shù)設置,,目前沒有自適應的優(yōu)化參數(shù)方法,只能做大量實驗選取最優(yōu)參數(shù),,隨著這一問題的解決,,必會使此算法得到更廣泛的應用。
參考文獻
[1] 喻鑫,,明德烈,,田金文.前下視紅外圖像中復雜地面背景下的目標定位[J].紅外與激光工程,2007,,6(6):988-991.
[2] 楊威,,付耀文,潘曉剛,,等.弱目標檢測前跟蹤技術(shù)研究綜述[J].電子學報,,2014,42(9):1786-1793.
[3] SEO H J,,MILANFAR P.Training-free,,generic object detection using locally adaptive regression kernels[J].Pattern Analysis and Machine Intelligence,,IEEE Transactions on,2010,,32(9):1688-1704.
[4] 任仙怡,,張桂林,張?zhí)煨?,?基于奇異值分解的圖像匹配方法[J].紅外與激光工程,,2001,30(4):200-202.
[5] 劉小軍,,王東峰,,張麗飛,等.一種基于奇異值分解和隱馬爾可夫模型的人臉識別方法[J].計算機學報,,2003,,26(3):340-344.
[6] 陳果,左洪福.圖像的自適應模糊閾值分割法[J].自動化學報,,2003,,29(5):791-796.
[7] 鄧集洪,魏宇星.基于局部特征描述的目標定位[J].光電工程,,2015,,1(1):58-64.
[8] KUMAR Y,GAUTAM J.Training-free video indexing scheme using local steering kernel[J/OL].(2012)[2016].http://www.tjprc.org/files/2-15-1371044563-1.Training%20free%20video.full.pdf.
[9] WONG W K,,ZHAO H T.Supervised optimal locality preserving projection[J].Pattern Recognition,,2012,45(1):186-197.
[10] YE J.Cosine similarity measures for intuitionistic fuzzy sets and their applications[J].Mathematical & Computer Modelling,,2011,,53(53):91-97.