《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 顯示光電 > 設(shè)計(jì)應(yīng)用 > 基于Tri-training的圖像多特征融合目標(biāo)分類(lèi)
基于Tri-training的圖像多特征融合目標(biāo)分類(lèi)
2015年微型機(jī)與應(yīng)用第19期
劉朝強(qiáng),,秦麗娟,,班允強(qiáng)
(沈陽(yáng)理工大學(xué) 信息科學(xué)與工程學(xué)院,,遼寧 沈陽(yáng) 110159)
摘要: 在對(duì)目標(biāo)進(jìn)行分類(lèi)識(shí)別過(guò)程中,,對(duì)其特征的有效提取直接影響最后分類(lèi)的精度,。針對(duì)此類(lèi)問(wèn)題,,提出了基于Tri-training算法對(duì)圖像進(jìn)行多特征融合分類(lèi),,通過(guò)利用Principal Component Analysis(PCA)主成分分析法,,并結(jié)合目前比較實(shí)用的半監(jiān)督學(xué)習(xí)Tri-training算法對(duì)圖像顯著目標(biāo)進(jìn)行分類(lèi),其中Tri-training算法是以Support Vector Machine(SVM),、Na?觙ve Bayes(NB),、Back Propagation(BP)為基分類(lèi)器,將圖像的多特征數(shù)據(jù)值作為圖像在Tri-training分類(lèi)器的輸入對(duì)分類(lèi)器進(jìn)行訓(xùn)練和測(cè)試,。實(shí)驗(yàn)表明,,在進(jìn)行了有效的預(yù)處理之后,再對(duì)樣本進(jìn)行多特征融合在一定程度上明顯提高了分類(lèi)精度,。
Abstract:
Key words :

  摘  要: 在對(duì)目標(biāo)進(jìn)行分類(lèi)識(shí)別過(guò)程中,,對(duì)其特征的有效提取直接影響最后分類(lèi)的精度。針對(duì)此類(lèi)問(wèn)題,,提出了基于Tri-training算法對(duì)圖像進(jìn)行多特征融合分類(lèi),,通過(guò)利用Principal Component Analysis(PCA)主成分分析法,并結(jié)合目前比較實(shí)用的半監(jiān)督學(xué)習(xí)Tri-training算法對(duì)圖像顯著目標(biāo)進(jìn)行分類(lèi),,其中Tri-training算法是以Support Vector Machine(SVM),、Na?觙ve Bayes(NB)、Back Propagation(BP)為基分類(lèi)器,,將圖像的多特征數(shù)據(jù)值作為圖像在Tri-training分類(lèi)器的輸入對(duì)分類(lèi)器進(jìn)行訓(xùn)練和測(cè)試,。實(shí)驗(yàn)表明,在進(jìn)行了有效的預(yù)處理之后,,再對(duì)樣本進(jìn)行多特征融合在一定程度上明顯提高了分類(lèi)精度,。

  關(guān)鍵詞: 分類(lèi)器;多特征融合,;半監(jiān)督,;顯著目標(biāo)

0 引言

  半監(jiān)督學(xué)習(xí)是近年來(lái)提出的一種新的學(xué)習(xí)策略,,它不僅有效結(jié)合了監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的優(yōu)點(diǎn),而且完善了它們的不足,。它通過(guò)同時(shí)使用標(biāo)記樣本和未標(biāo)記樣本的數(shù)據(jù),,然后利用未標(biāo)記樣本的信息數(shù)據(jù)來(lái)幫助其建立學(xué)習(xí)模型,使其可以獲得很好的學(xué)習(xí)泛化性能和學(xué)習(xí)效果,。所以在近年來(lái)該理論及其算法得到快速的發(fā)展和應(yīng)用,,Blum和Mitchell提出的Co-training算法[1],通過(guò)使用兩個(gè)不同的分類(lèi)器來(lái)實(shí)行協(xié)同訓(xùn)練,,然后再將單個(gè)分類(lèi)器所產(chǎn)生的新標(biāo)記數(shù)據(jù)加入到另一個(gè)分類(lèi)器中,,通過(guò)迭代的方法,不停地?cái)U(kuò)充有標(biāo)記樣本集并反復(fù)訓(xùn)練,。但是該算法不僅要求其數(shù)據(jù)屬性可以分為兩個(gè)不同的子集,,而且要求其中每個(gè)子集能獨(dú)立訓(xùn)練產(chǎn)生出分類(lèi)器,所以在實(shí)際應(yīng)用中很難得到滿足,。Zhou等人提出的Tri-training算法[1],,它沒(méi)有充分冗余視圖的局限,同時(shí)也不需要采用不同的分類(lèi)方法,,其實(shí)用性更廣,。將Co-training算法和Tri-Training算法結(jié)合的SVM分類(lèi)方法,也可以獲得很好的分類(lèi)精度,。

  為了提高對(duì)圖像中顯著目標(biāo)的分類(lèi)精度,,本文提出了基于Tri-training算法對(duì)目標(biāo)進(jìn)行多特征融合分類(lèi)的方法,首先對(duì)圖像中的目標(biāo)進(jìn)行預(yù)處理,,消除圖像中的噪聲干擾,,同時(shí)有效克服其強(qiáng)度敏感性。然后在此基礎(chǔ)上分別提取中心矩特征,,仿射不變矩特征以及其灰度共生矩特征,,然后再利用PCA方法將以上特征融合,最后基于Tri-training算法進(jìn)行分類(lèi),。

1 特征提取

  1.1 數(shù)據(jù)預(yù)處理

  在對(duì)圖像數(shù)據(jù)實(shí)行有效的預(yù)處理過(guò)程中,,一般主要對(duì)其實(shí)行去噪處理。本文主要利用小波方法對(duì)圖像實(shí)行有效的降噪處理,。小波變換降噪方法通過(guò)將數(shù)據(jù)變換到其小波域中,,然后再利用小波分解獲得的高頻系數(shù)將其去除,最后再對(duì)圖像信號(hào)進(jìn)行小波反變換來(lái)達(dá)到降噪目的,。其公式如下:

  g(x,,y)=f(x,y)+n(x,,y)(1)

  其中g(shù)(x,,y)為要得到的理想圖像,,f(x,y)為輸入圖像,,n(x,,y)為噪聲,通過(guò)頻域變化將噪聲去除就得到了想要的理想圖像,。

  1.2 圖像中心矩特征提取

  假設(shè)x={x(i),,i=0,1,,2,…,,I-1}表示距離像幅度,,其中x(i)為第i+1個(gè)距離單元的回波幅度,I為距離單元的個(gè)數(shù),,然后對(duì)其歸一化處理可得:

  23.jpg

  f=[f(1),,f(2),…,,f(J-1)]T=[W2,,W3,…,,WJ]T(4)

  其中中心矩WJ的幅度與階數(shù)關(guān)系為遞增關(guān)系,,為了能夠有效地抑制指數(shù)增長(zhǎng)造成的影響,一般通過(guò)對(duì)中心矩作極差變換來(lái)達(dá)到消除數(shù)量級(jí)造成干擾的目的,。在對(duì)中心矩特征作向量極差變換時(shí),,實(shí)質(zhì)上是做了歸一化處理,從而有效地解決了特征不在同一個(gè)數(shù)量級(jí)的問(wèn)題,。所以可得其中心矩特征為f=[f(1),,f(2),…,,f(J-1)],,其中J表示中心矩的最高階數(shù)。

  1.3 圖像灰度共生矩陣特征提取

  灰度共生矩陣一般定義為從灰度級(jí)為i的點(diǎn)離開(kāi)某個(gè)固定位置關(guān)系d=(Dx,,Dy)達(dá)到灰度為j的概率,。這里用Pd=(i,j)(i,,j=0,,1,2,,…,,L-1)來(lái)表示灰度共生矩陣,。其中L指圖像的灰度級(jí),i,,j分別表示像素的灰度,。圖像中像素間的距離和方向由d的值決定。?茲為灰度共生矩陣的生成方向,,通常取0°,,45°,90°和135°四個(gè)方向,?;叶裙采仃嚨南袼貙?duì)如圖1所示。

001.jpg

  當(dāng)選定像素間位置關(guān)系d后,,就能基于關(guān)系d生成灰度共生矩陣[2],。

  Pd= Pd(0,0)    Pd(0,,1)   … Pd(0,,j)  … Pd(0,L-1) Pd(1,,0)    Pd(1,,1)   …  Pd(1,j)  … Pd(1,,L-1)   …            …       …     …     …      … Pd(i,,0)    Pd(i,1)    …  Pd(i,,j)  …  Pd(i,,L-1)   …            …       …     …     …      …Pd(L-1,0) Pd(L-1,,1) … Pd(L-1,,j)… Pd(L-1,L-1)(5)

  1.4 圖像仿射不變特矩特征提取

  一般二維仿射線性變換的數(shù)學(xué)變換模型可表示為:

  x′y′=Axy+b(6)

  假設(shè)p是坐標(biāo)平面上任一點(diǎn),,p′點(diǎn)是其仿射線性變換對(duì)應(yīng)點(diǎn),,變換后坐標(biāo)系下的兩點(diǎn)坐標(biāo)可表示

  7.jpg

  如果通過(guò)歸一化中心矩來(lái)獲得仿射不變矩,只需要合適的扭曲不變性和拉伸不變性就可以實(shí)現(xiàn)仿射變換的不變性,。通過(guò)利用構(gòu)造的中心矩多項(xiàng)式方法,,可達(dá)到消除仿射變換矩A的目的,這樣就能實(shí)現(xiàn)一般情況下的仿射不變性,。這里是利用Jan Flusser等人構(gòu)造的六個(gè)仿射不變矩變量來(lái)作為目標(biāo)圖像的特征不變量[3],。

 810.png

  1113.png

2 特征融合

  PCA的基本思想是用一組維數(shù)最少的特征以最精確的方式描述原始樣本特征[4-5]。仿真實(shí)驗(yàn)中從圖像中提取三種有效特征,然后使用主成分分析法再將三種特征融合成一種綜合特征對(duì)目標(biāo)進(jìn)行分類(lèi),。實(shí)驗(yàn)取每類(lèi)樣本100張圖片,,一共兩類(lèi)樣本數(shù)據(jù),其中每一組樣本數(shù)據(jù)中包含7維中心矩特征,、6維仿射不變矩特征以及3維灰度共生矩特征,。將上述三種特征生成一個(gè)16維的特征向量為x=(?準(zhǔn)1,?準(zhǔn)2,,…,,?準(zhǔn)16)T,那么由200個(gè)特征向量構(gòu)成的特征矩陣為X=(x1,,x2,,…,x200),,其中向量xk表示第k張樣本圖像的中心矩特征,,仿射不變矩特征及灰度共生矩特征組成列向量。實(shí)驗(yàn)仿真中先將三種特征數(shù)據(jù)進(jìn)行串聯(lián),,然后通過(guò)PCA來(lái)將串聯(lián)后的數(shù)據(jù)進(jìn)行有效的融合。目的有兩方面:一是將三種特征數(shù)據(jù)中的相關(guān)性消除,;二是將三種特征數(shù)據(jù)從高維矢量降為低維矢量,。

3 基于Tri-training的圖像目標(biāo)分類(lèi)

002.jpg

  基于Tri-training算法的多特征融合圖像分類(lèi)流程圖如圖2所示。將圖像數(shù)據(jù)轉(zhuǎn)換成算法程序能夠處理的數(shù)據(jù)格式(xls文件)并輸入到Tri-training算法的MATLAB程序中,,由算法進(jìn)行樣本集的劃分,。當(dāng)完成初始的三種基分類(lèi)器之后,按百分比輸入已標(biāo)記樣本,,然后通過(guò)三個(gè)基分類(lèi)器對(duì)未標(biāo)記樣本進(jìn)行相互標(biāo)記以獲得置信度高的樣本,,再加入到已標(biāo)記樣本中進(jìn)行模型的訓(xùn)練。以此迭代直至結(jié)束,,最后獲得由三個(gè)基分類(lèi)器組成的集成分類(lèi)器,。在測(cè)試階段,通過(guò)三個(gè)分類(lèi)器分別對(duì)測(cè)試樣本集進(jìn)行有效的分類(lèi),,使用多數(shù)投票法來(lái)獲得最后的分類(lèi)結(jié)果,。

003.jpg

  Tri-training分類(lèi)算法流程圖如圖3所示。Tri-training[4]算法采用三個(gè)基分類(lèi)器,,再通過(guò)隨機(jī)采樣算法bootstrap來(lái)獲得存在差異的訓(xùn)練數(shù)據(jù)子集,,從而能夠有效地保證基分類(lèi)器之間的差異性。在Tri-training訓(xùn)練結(jié)束后,,采用多數(shù)投票法對(duì)三個(gè)分類(lèi)器進(jìn)行集成,,得到最終的分類(lèi)器進(jìn)行分類(lèi)。

4 實(shí)驗(yàn)結(jié)果與分析

  本文中選取飛機(jī)和越野車(chē)各100張照片作為實(shí)驗(yàn)數(shù)據(jù),首先提取圖像的中心矩特征,、放射不變矩特征和灰度共生矩特征,再將這些數(shù)據(jù)融合得到一個(gè)多特征數(shù)據(jù)來(lái)作為T(mén)ri-training分類(lèi)器的輸入數(shù)據(jù),,實(shí)驗(yàn)中基于MATLAB 7.0平臺(tái)進(jìn)行仿真,。部分樣本如圖4所示,。

004.jpg

  4.1 樣本分配

  選用25%的特征數(shù)據(jù)作為測(cè)試樣本集,剩余的75%作為訓(xùn)練樣本集,。在訓(xùn)練樣本集中,,未標(biāo)記樣本的比例依次選用80%,,60%,,40%和20%進(jìn)行測(cè)試和比較,。Tri-training算法中采用了SVM,,NB,BP作為分類(lèi)器,。

  4.2 算法的性能評(píng)價(jià)標(biāo)準(zhǔn)

  采用算法對(duì)于測(cè)試集的分類(lèi)錯(cuò)誤率作為分類(lèi)器的評(píng)價(jià)指標(biāo),。

  14.png

  其中,E是算法分類(lèi)錯(cuò)誤率,,Ncorrect是分類(lèi)正確的樣本數(shù)目,,N是總樣本數(shù)。

  4.3 實(shí)驗(yàn)結(jié)果

005.jpg

006.jpg

007.jpg

  實(shí)驗(yàn)中對(duì)未標(biāo)記樣本的比例依次選用80%,,60%,,40%和20%進(jìn)行測(cè)試和比較,結(jié)果如圖5~圖12所示,。以下各圖中,,(a)為PCA融合得到的方差圖,,(b)為訓(xùn)練之后與最優(yōu)線的比較,(c)是最后分類(lèi)的精度,。008.jpg

  表1是在4種不同百分比下未標(biāo)記樣本的半監(jiān)督學(xué)習(xí)(PCA+Tri-training)與對(duì)應(yīng)的PCA特征融合分類(lèi)錯(cuò)誤率的比較,。

  從表1中可以看出,,當(dāng)標(biāo)記的樣本比較多時(shí),PCA多特征融合法與基于Tri-training算法的PCA多特征融合法的分類(lèi)精度差不多,,但是當(dāng)樣本開(kāi)始減少時(shí),,就能看出兩種方法的差異性,所以在少數(shù)樣本情況下第二種方法更實(shí)用,,分類(lèi)精度更高,,操作性很強(qiáng),。

5 結(jié)束語(yǔ)

  本文主要是將機(jī)器學(xué)習(xí)領(lǐng)域的Tri-training半監(jiān)督學(xué)習(xí)方法應(yīng)用在圖像的顯著目標(biāo)分類(lèi),,并基于Tri-training算法提出了與多特征融合相結(jié)合的圖像分類(lèi)方法,,通過(guò)有效地將圖像的中心矩特征,、仿射不變矩特征和灰度共生矩特征進(jìn)行融合,,利用SVM,NB,,BP三個(gè)基分類(lèi)器進(jìn)行協(xié)同訓(xùn)練,達(dá)到了很好的分類(lèi)效果,。仿真結(jié)果表明其在小樣本分類(lèi)中具有很好的分類(lèi)效果。

參考文獻(xiàn)

  [1] 周志華.機(jī)器學(xué)習(xí)及其應(yīng)用2007[M].北京:清華大學(xué)出版社,,2007.

  [2] 陸麗珍,劉仁義,,劉南.一種融合顏色和紋理特征的遙感圖像檢索方法[J].中國(guó)圖象圖形學(xué)報(bào),,2004,9(3):328-332.

  [3] 楚稼,,張桂林.基于顏色和邊緣信息融合的背景建模方法[J].計(jì)算機(jī)工程,2008,,34(4):42-45.

  [4] LOWE D G. Distinctive image features from scale invariant key points[J]. In Journal of Computer Vision,, 2004,60(2): 91-110.

  [5] 謝輝,,陸月明,,孫松林.基于半監(jiān)督學(xué)習(xí)的一種圖像檢索方法[J].計(jì)算機(jī)應(yīng)用研究,,2013,,30(7):2210-2212.


此內(nèi)容為AET網(wǎng)站原創(chuàng),,未經(jīng)授權(quán)禁止轉(zhuǎn)載。