摘 要: FT算法是在空間頻域內(nèi)的顯著目標(biāo)檢測(cè)算法,。該算法簡(jiǎn)單,、高效,但是在自然圖像顯著目標(biāo)檢測(cè)中,,存在顯著區(qū)域中心像素抑制,、顯著目標(biāo)不突出等問(wèn)題,故對(duì)FT算法進(jìn)行改進(jìn),。首先,,在特征提取階段,除了提取顏色和亮度信息外,,改進(jìn)的FT算法還提取圖像的邊緣信息,,利用Canny算子檢測(cè)圖像的邊緣并用梯度算子表示邊緣特征,使得顯著區(qū)域的邊界信息更加豐富,;然后,,利用中心優(yōu)先規(guī)則線性處理顯著圖,,提高顯著區(qū)域的中心像素的亮度,,突出顯著區(qū)域,去除冗余信息,。仿真結(jié)果表明改進(jìn)的FT算法是切實(shí)可行的,。
關(guān)鍵詞: 顯著目標(biāo)檢測(cè),;Canny算子;梯度,;中心優(yōu)先
0 引言
視覺(jué)注意機(jī)制是人類視覺(jué)系統(tǒng)的重要機(jī)制,,它能夠從復(fù)雜的圖像中準(zhǔn)確識(shí)別顯著目標(biāo)。一般來(lái)說(shuō),,顯著區(qū)域包含較多的信息,,顯著目標(biāo)檢測(cè)被廣泛應(yīng)用于許多圖像處理領(lǐng)域,例如感興趣區(qū)域的自適應(yīng)壓縮,、圖像和視頻的質(zhì)量評(píng)估[1],、視頻監(jiān)控[2]、圖像分割和草圖檢索等,。
顯著性目標(biāo)檢測(cè)源于視覺(jué)注意模型,,是一種模擬人類視覺(jué)智能的重要模型,它得到圖像中最顯著的區(qū)域,。大量的研究表明視覺(jué)注意模型分為兩種類型:自底向上的數(shù)據(jù)驅(qū)動(dòng)的顯著性提取和自頂向下的目標(biāo)驅(qū)動(dòng)的顯著性提取,。由于視覺(jué)內(nèi)容需要大量的先驗(yàn)知識(shí),自頂向下的方法應(yīng)用不多,。而自底向上的方法受圖像特征支配,,不依賴任何先驗(yàn)知識(shí),被廣泛研究和應(yīng)用,。比較經(jīng)典的自底向上的視覺(jué)注意模型是Itti[3]模型,,Itti是在特征整合理論的基礎(chǔ)上,利用高斯金字塔進(jìn)行非均勻采樣得到9個(gè)尺度的圖像,,計(jì)算各尺度的顏色,、亮度和方向特征,由中央周邊差算子計(jì)算各尺度上的顯著圖,,最后把各個(gè)尺度的顯著圖融合得到顯著圖,,但是Itti算法得到的顯著圖的分辨率低,計(jì)算量較大,?;趫D的顯著性算法(Graph-Based Visual Saliency,GBVS[4]),,在Itti算法的基礎(chǔ)上進(jìn)行了改進(jìn),,在特征提取階段,采用Markov鏈方法計(jì)算顯著值,,顯著目標(biāo)相對(duì)完整,。基于空間頻域分析的算法有兩種,剩余譜方法(Spectral Residual,,SR[5])和全分辨率方法(FT[6]),。SR算法運(yùn)算效率高,并且該算法的顯著圖和人眼感知具有一致性,。但是SR算法不能計(jì)算顏色的顯著度,。FT算法是基于空間頻域分析的,比SR算法保留了較多的高頻信息,,顯著目標(biāo)的邊界比SR算法清晰,,但同時(shí)也引入了噪聲。
FT算法是基于空間頻域分析的顯著算法,,該算法簡(jiǎn)單高效,,但是顯著區(qū)域中心像素抑制,顯著目標(biāo)不突出,。故本文在提取顏色和亮度特征的基礎(chǔ)上,,加入提取圖像的邊緣特征,提高顯著區(qū)域的輪廓信息的清晰度,,得到顯著圖,,最后利用中心優(yōu)先規(guī)則對(duì)顯著圖做線性處理,優(yōu)化顯著圖,,提高顯著區(qū)域的亮度,。
1 FT算法
FT算法是Achanta等在2009年提出的全頻域分析算法,利用顏色和亮度特征來(lái)估計(jì)中央周邊差對(duì)比度,,疊加多個(gè)帶通濾波器得到全分辨率顯著圖,。
1.1 FT算法原理
設(shè)wlc為低頻截止頻率,whc為高頻截止頻率,。為了突出大的顯著對(duì)象,,wlc需盡可能的低。為了得到較好的輪廓信息,,whc選擇較高,。本算法選擇DOG濾波器作為帶通濾波器。DOG公式如下:
式中,,1和
2是高斯分布的標(biāo)準(zhǔn)差,。DOG帶通濾波器的通頻帶寬是由
1與
2的比值決定的。多個(gè)DOG濾波器疊加可由濾波器的標(biāo)準(zhǔn)差的比值ρ表示:
在計(jì)算顯著圖時(shí),,1和
2的取值決定帶通濾波器保留圖像中的頻率范圍,。為了使ρ變大,令
1為無(wú)窮大,,這將在截止直流頻率的同時(shí)保留所有的其他頻率,。使用一個(gè)小的高斯核去除高頻率的噪聲以及紋理,。其中小的高斯核選擇二項(xiàng)濾波器代替。使用1/16*[1,,4,,6,,4,,1]二項(xiàng)濾波器,并令whc=π/2.75,。
視覺(jué)顯著值的計(jì)算公式為:
Iu(x,,y)是圖像在lab空間的像素算術(shù)平均值,Iwhc(x,,y)是圖像的高斯模糊模板(使用5×5二項(xiàng)式濾波器),,用來(lái)消除紋理細(xì)節(jié)以及噪聲,‖‖是歐式距離,。
1.2 FT算法的顯著圖
根據(jù)公式(3),,得出FT算法的仿真結(jié)果如圖1所示。
其中,,第一列是原圖像,,第二列是FT算法得到的顯著圖。從FT算法的顯著圖中看出,,前兩幅圖像顯著區(qū)域弱化,,背景對(duì)比度較差,顯著區(qū)域中心像素抑制,,不顯著區(qū)域被突出,。第三幅圖像背景簡(jiǎn)單,顯著圖相對(duì)較好,,背景冗余信息處理較好,,但仍存在部分顯著區(qū)域弱化的問(wèn)題。針對(duì)這些問(wèn)題,,利用改進(jìn)的FT算法進(jìn)行完善,。
2 算法的改進(jìn)
算法的改進(jìn)分為兩個(gè)部分:首先在特征提取階段,加入了全局邊緣特征提取處理,,能使顯著區(qū)域邊界更加清晰,;然后利用中心優(yōu)先規(guī)則對(duì)顯著圖做線性處理,解決顯著區(qū)域中心像素抑制和顯著區(qū)域不突出等問(wèn)題,。
2.1 基于邊緣特征提取的全局處理
FT算法在特征提取上采用的是顏色和亮度的特征,,由于自然圖像內(nèi)容豐富,邊緣信息比較重要,,因此本文在FT算法的顏色和亮度特征提取的基礎(chǔ)上,,加入圖像的邊緣特征,,使得邊緣細(xì)節(jié)更加豐富。
由于Canny算子錯(cuò)誤率低,、邊緣點(diǎn)能較好地定位以及單一的邊緣點(diǎn)響應(yīng)等優(yōu)點(diǎn),,故采用Canny算子檢測(cè)圖像的邊緣信息。圖像梯度信息可以有效地表現(xiàn)圖像邊緣的強(qiáng)度和方向,,故采用Sobel模板作為導(dǎo)數(shù)算子,,計(jì)算圖像灰度沿著水平和垂直兩個(gè)方向的偏導(dǎo)數(shù),進(jìn)而計(jì)算出梯度的大小和方向,。步驟如下:
?。?)用一個(gè)高斯濾波器平滑輸入圖像。高斯函數(shù)定義為:
設(shè)輸入圖像為f(x,,y),,平滑后的圖像為fs(x,y),,公式為:
fs(x,,y)=G(x,y)*f(x,,y)(5)
?。?)邊緣提取。選擇Sobel模板計(jì)算梯度的大小,。gx代表橫向檢測(cè)的圖像灰度值,,gy為縱向邊緣檢測(cè)的圖像灰度值。其具體公式如下:
梯度的幅值為:
|g|=|gx|+|gy|(7)
那么公式(3)的顯著值定義更改為:
2.2 基于中心優(yōu)先規(guī)則的局部處理
一般來(lái)說(shuō),,圖像像素的中心分布常被用于顯著區(qū)域定位和估計(jì),,這是因?yàn)槿藗兣恼諘r(shí)往往把感興趣的目標(biāo)定位在圖像的中心位置。結(jié)果表明每個(gè)像素到圖像中心的距離能夠較好地預(yù)測(cè)顯著目標(biāo),。根據(jù)格式塔法則,,視覺(jué)形式可能具有一個(gè)或幾個(gè)中心的圖形。這表明接近注意焦點(diǎn)的部分被認(rèn)為顯著,,遠(yuǎn)離注意焦點(diǎn)的部分被認(rèn)為是背景,。故本文提出中心優(yōu)先[7]的概念,這能使顯著的邊緣更加顯著,,有效地去除背景中的小補(bǔ)丁,,更好地評(píng)估顯著圖的性能。
使用一個(gè)二維的高斯函數(shù)確定圖像的中心,,定義圖像的高度為H,,寬度為W,高斯函數(shù)在二維空間定義為:
圖像中任意像素點(diǎn)(x,,y)的最終顯著值為:
S(x,,y)=S′FT(x,,y)G(x,y)(10)
其中G(x,,y)為像素點(diǎn)(x,,y)在中心優(yōu)先圖中的像素值。
3 仿真結(jié)果分析
本實(shí)驗(yàn)是在MATLAB 2012a平臺(tái)中實(shí)現(xiàn)上述算法,,采用的圖像來(lái)自MSRA-1000數(shù)據(jù)庫(kù),,本數(shù)據(jù)庫(kù)包含1 000幅自然圖像和所對(duì)應(yīng)的人工分割圖。FT算法和改進(jìn)的FT算法的顯著圖如圖3所示,。
從顯著圖的對(duì)比結(jié)果看出,,改進(jìn)的FT算法提取的顯著圖邊界信息豐富,,顯著區(qū)域亮度提高,,顯著區(qū)域中心對(duì)比度提高。該算法提取的效果更加符合生物的視覺(jué)感知,,比FT算法效果好,,準(zhǔn)確度較高,顯著性更明顯,。
4 結(jié)論
本文在視覺(jué)注意模型的基礎(chǔ)上,,對(duì)FT算法進(jìn)行了改進(jìn)。仿真結(jié)果表明該算法在自然圖像數(shù)據(jù)庫(kù)中能夠較好地檢測(cè)顯著目標(biāo),,此算法的原理是在特征提取階段,,加入了邊緣特征提取處理,使得邊緣細(xì)節(jié)更加豐富,,然后利用中心優(yōu)先線性處理顯著圖,,得到最終的顯著圖,提高了顯著區(qū)域和顯著區(qū)域中心像素的亮度,,顯著目標(biāo)得到了更好的檢測(cè),。改進(jìn)的算法簡(jiǎn)單、高效,,明顯優(yōu)于FT算法,。但該算法仍存在一些不足,例如顯著目標(biāo)內(nèi)部的細(xì)節(jié)不明顯,,仍需進(jìn)一步完善,。
參考文獻(xiàn)
[1] WANG Z, LI Q. Information content weighting for perceptual image quality assessment[J]. IEEE Trans. Image Process,, 2011,,20(5):1185-1198.
[2] LOPEZ M T, FERNANDEZ-CABALLERO A,, FERNANDEZ M A,, et al. Visual surveillance by dynamic visual attention method[J]. Pattern Recognition,, 2006, 39 (11):2194-2211.
[3] ITTI L,, KOCH C,, NIEBUR E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998,, 20(11):1254-1259.
[4] HAREL J,, KOCH C, PERONA P. Graph-based visual saliency[J]. Neural Information Processing Systems,, 2007,, 19(1): 545–552.
[5] Hou Xiaodi, Zhang Liqing. Saliency detection: a spectral residual approach[C]. IEEE Conference on Computer Vision and Pattern Recognition,, Shanghai,, 2007:2280-2287.
[6] RADHAKRISHNA A, SHEILA H,, FRANCISCO E,, et al. Frequency-tuned salient region detection[C]. Los Alamitos: IEEE Computer Society Press, 2009: 1597-1604.
[7] GOFERMAN S,, ZELNIK-MANOR L,, TAL A. Context-aware saliency detection[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, San Francisco: IEEE Computer Society Press,, 2012: 2376-2383.