《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 業(yè)界動態(tài) > 視頻圖像的人臉檢測方法

視頻圖像的人臉檢測方法

2008-03-31
作者:苗毓虹,,姜 軍,張桂林,,熊

  摘 要: 根據(jù)視頻序列圖像的運(yùn)動連續(xù)性特點(diǎn),,初步對人臉" title="人臉">人臉所在區(qū)域進(jìn)行定位,針對人臉檢測" title="人臉檢測">人臉檢測系統(tǒng)實(shí)時性的需要,,改進(jìn)了Adaboost學(xué)習(xí)算法,。提出一種新的視頻環(huán)境下人臉檢測方法。實(shí)驗(yàn)證明該方法能夠精確定位人臉,,有較強(qiáng)的實(shí)用性,。
  關(guān)鍵詞: 人臉檢測 變化檢測" title="變化檢測">變化檢測 Adaboost 膚色模型


  隨著智能化技術(shù)和監(jiān)控技術(shù)在各個領(lǐng)域的廣泛應(yīng)用,人臉檢測作為自動人臉識別的關(guān)鍵環(huán)節(jié)受到越來越多的重視,。人臉檢測是指在圖片中確定人臉位置的過程,,其定位的準(zhǔn)確性將直接影響到人臉識別的結(jié)果。目前人臉檢測有三種類型[1]:膚色區(qū)域分割,、基于啟發(fā)式模型和基于統(tǒng)計模型的方法,。膚色分割的局限性在于受復(fù)雜背景和光照的影響較大?;趩l(fā)式模型的方法首先抽取特征,,然后檢驗(yàn)是否符合人臉的先驗(yàn)知識。統(tǒng)計模型是把人臉看作一類模式構(gòu)造分類器" title="分類器">分類器,,通過判別圖像中區(qū)域可能屬于哪類模式的方法實(shí)現(xiàn)人臉的檢測,。
  針對攝像機(jī)固定的監(jiān)視應(yīng)用提出了一種在視頻環(huán)境下檢測人臉的方法。從結(jié)果分析,,本文基于視頻圖像" title="視頻圖像">視頻圖像的人臉檢測方法在檢測率和速度上均滿足系統(tǒng)要求,。
1 人臉檢測系統(tǒng)框架
  人臉檢測系統(tǒng)以攝像機(jī)采集到的圖像為輸入得到人臉的位置信息。視頻圖像人臉檢測算法流程如圖1所示,。


2 人臉區(qū)域檢測
2.1 基于變化檢測的目標(biāo)定位
  人臉圖像采集系統(tǒng)的采像環(huán)境和位置是固定的,,因此采用背景差分的方法,。首先選取n幅圖像目標(biāo)進(jìn)入視場的背景圖像f(x,y,,ti),,i=1,2,,…,,n,運(yùn)用時間中值濾波或均值濾波的方法得到模型的背景圖像,,記為B(x,,y)。將當(dāng)前圖像與這個建立的背景圖像做差分來找到運(yùn)動物體,,記為變化檢測后的D(x,,y,ti),。
  由D(x,,y,ti)=|f(x,,y,,ti)-B(x,y)|,,i=1…,,n???????????????????? (1)
  得到當(dāng)前時刻的運(yùn)動區(qū)域。變化檢測示意圖如圖2所示,。圖2(a)為當(dāng)前圖片,,圖2(b)是變化檢測后的結(jié)果。對變化的區(qū)域做后續(xù)處理工作,,去除小的變化區(qū)域,,找到圖像中最大的連通區(qū)域并進(jìn)行標(biāo)記。


  由于圖像分割和背景更新等問題不是本文重點(diǎn),,故此處省略,。
2.2 改進(jìn)的Adaboost人臉檢測算法
  Adaboost算法是Freund等人[2]提出的一種Boost算法。它是自動地從弱分類器空間中挑選出若干個弱分類器整合成一個強(qiáng)分類器,。在訓(xùn)練過程中調(diào)整樣本的權(quán)重,,使得Adaboost能夠“聚焦于”那些比較困難的樣本。該算法主要有訓(xùn)練和檢測兩個部分,,用其進(jìn)行人臉檢測,,速度快且定位準(zhǔn)確。本文針對視頻應(yīng)用環(huán)境對算法做了改進(jìn),,提高了檢測速度,。
  (1)訓(xùn)練和檢測算法
  首先選取合適的樣本,,取矩形特征作為訓(xùn)練中的弱分類器。為了顯著地提高人臉檢測的速度,,將復(fù)雜分類器的問題拆分成若干弱分類器,,對這些弱分類器進(jìn)行篩選,得到一系列強(qiáng)分類器,,再將這些強(qiáng)分類器層疊相連[3],。特征fj對應(yīng)的弱分類器表述為hj(x)。
  

  其中,,θj是在訓(xùn)練樣本上最小錯誤分類的閾值,,pj是表示不等式的方向。由一系列弱分類器得到強(qiáng)分類器Hi(x),。
  
  其中x為待檢測窗口,hj(x)為構(gòu)成該強(qiáng)分類器的第j個弱分類器,,θi為該強(qiáng)分類器的閾值,。Hi(x)的判斷結(jié)果為1或0。1表示接受,,0表示拒絕,。當(dāng)一系列強(qiáng)分類器層層相連時,就構(gòu)成一個層疊分類器[4],。訓(xùn)練的過程即為構(gòu)造級聯(lián)分類器,。當(dāng)某一層訓(xùn)練的過程中,錯誤報警率超標(biāo),,則從樣本中繼續(xù)學(xué)習(xí),,增加新的特征以滿足結(jié)果需要。
  檢測過程同訓(xùn)練過程類似,,將輸入圖像以訓(xùn)練樣本的大小為基準(zhǔn),,依次乘以相應(yīng)的步長,得到一系列子圖像,。計算積分圖像以后,,通過訓(xùn)練好的層疊分類器得到檢測結(jié)果。最后進(jìn)行區(qū)域合并得到人臉位置信息,。
  (2)Adaboost中的改進(jìn)工作
  首先,,在訓(xùn)練過程中引入45°旋轉(zhuǎn)矩形特征。由于要檢測的不僅是正面人臉圖像,,因此訓(xùn)練樣本中加入了一些平面內(nèi)和平面外的旋轉(zhuǎn)樣本圖像,。選取的特征也由viola的傳統(tǒng)四類矩形特征擴(kuò)展到加入45°旋轉(zhuǎn)特征。擴(kuò)展的矩形特征圖如圖3所示,。


  其次,,對圖像進(jìn)行降分辨率搜索,。為了更清晰地表述圖像,視頻圖像通常采用的圖像分辨率比較大,,如1024×768等,,將分辨率降為512×384不會影響檢測的結(jié)果,但是搜索的時間明顯減少,。為適應(yīng)系統(tǒng)實(shí)時性的需求,,針對人臉圖像在視場中的比例,將檢測部分的搜索步長改為1.2,。opencv中的推薦步長是1.1,,本文針對人臉圖像在視場中的比例,在視頻圖像實(shí)驗(yàn)中發(fā)現(xiàn),,如果將原有步長1.1加大到1.2,,不會影響檢測率,但減少了計算量,。以320×320圖像為例比較,,訓(xùn)練圖像的大小是24×24。當(dāng)檢測步長從1.1增加到1.2時,,需要檢測的子圖像個數(shù)由3 302 348降至1 769 115,。需要說明的是,在viola的方法中,,最后實(shí)驗(yàn)結(jié)果在384×288的圖像上進(jìn)行檢測耗時0.067s(實(shí)驗(yàn)機(jī)器配置為 PentiumⅢ,,700MHz),檢測窗口縮放參數(shù)起始1.25,,步長1.5,,但是由于視頻序列圖像中圖像質(zhì)量較差,若此參數(shù)偏高,,檢測率不能滿足要求,。本文中檢測窗口的縮放參數(shù)為起始1.0,步長1.2,。步長的選取實(shí)際是對檢測率與錯誤報警率之間的一個折中,。本文的候選驗(yàn)證方法能有效地排除錯誤報警,檢測的主要目的是減少漏檢人臉圖像,,保證較高的檢測率,。這也是步長選取為1.2的原因。
3 人臉候選區(qū)域驗(yàn)證
  從前兩步得到了一系列的人臉候選區(qū)域,,處理得到人臉感興趣區(qū)域,。膚色分割的局限性在于受復(fù)雜背景的影響較大,但是人臉候選區(qū)域的圖像背景通常不復(fù)雜,將其運(yùn)用于人臉候選驗(yàn)證效果很好,。凡是能通過膚色模型[5]被認(rèn)為是人臉的區(qū)域,,稱為“類膚色區(qū)域”。在人臉候選區(qū)域驗(yàn)證中,,人臉先進(jìn)入第一層分類——膚色模型,,再進(jìn)入第二層分類——圖像的方差,拋掉“類膚色區(qū)域”中的非人臉,。經(jīng)過兩層分類后,,絕大部分錯誤報警被排除。最終同時通過兩層的人臉候選區(qū)域被確定為人臉,。后驗(yàn)證方法的流程如圖4所示,。


3.1 基于膚色分割的候選區(qū)域驗(yàn)證
  統(tǒng)計一定數(shù)量的膚色區(qū)域,由于在RGB顏色空間分布沒有明顯的規(guī)律性,,因而將其轉(zhuǎn)化到HSI空間發(fā)現(xiàn)了膚色的集中分布區(qū)域,。實(shí)驗(yàn)中有一些背景像素值轉(zhuǎn)化到HSI空間時,對應(yīng)的色調(diào)值S相差不大,,僅僅依靠傳統(tǒng)用色調(diào)來區(qū)分膚色的非膚色區(qū)域的方法不再適用,。在本系統(tǒng)的膚色分割中同時使用了H、I的值進(jìn)行限制,,從大量的結(jié)果統(tǒng)計得到適用范圍。利用此特征對人臉候選區(qū)域進(jìn)行第一次分類,,去除一部分錯誤報警,。候選區(qū)域驗(yàn)證結(jié)果如圖5所示。其中,,圖5(1)中的a列為歸一化后的人臉候選區(qū)域,,b為膚色變換以后的結(jié)果,得到第二層的圖像c,。
3.2 基于圖像方差的候選區(qū)域驗(yàn)證
  該層剔除的目標(biāo)主要是“類膚色區(qū)域”中的非人臉,。對于人臉膚色區(qū)域和非人臉膚色區(qū)域,方差分布有著明顯的差別,。圖5(2)中得到的就是去除非人臉膚色區(qū)域之后的結(jié)果,。


4 實(shí)驗(yàn)結(jié)果及分析
  分別進(jìn)行兩組不同類型的實(shí)驗(yàn),以證明該方法定位人臉的準(zhǔn)確性和實(shí)用性,。


  實(shí)驗(yàn)1:如圖6所示,。圖6(a)為多人臉圖像中的人臉定位,圖6(b)為當(dāng)人臉旋轉(zhuǎn)的角度小于30°時,,人臉在發(fā)生平面內(nèi)和平面外的旋轉(zhuǎn)時仍能準(zhǔn)確定位的圖片,。在圖像大小為320×240時,整個檢測和候選驗(yàn)證時間88ms(機(jī)器配置為PentiumⅣ,2.4GHz),,基本上達(dá)到了實(shí)時的要求,。
  實(shí)驗(yàn)2:研究視頻環(huán)境下的人臉檢測。由于光線的影響和視頻圖像具有運(yùn)動模糊的特點(diǎn),,因而錯誤報警率比通用的測試集高,。表1特別對候選驗(yàn)證前后的錯誤報警進(jìn)行了比較。本文對檢測率(DR)和虛警率(FR)定義如下:
  
  其中N為測試集中人眼能夠確認(rèn)的人臉總數(shù),,n為正確檢測到的人臉個數(shù),,m為被檢測方法確定為人臉的非人臉模式,即錯誤檢測樣本個數(shù),。本文的測試集是在視頻環(huán)境下實(shí)驗(yàn)室同學(xué)的樣本,,每個樣本為單幅人臉圖像,樣本數(shù)目和人眼能夠確認(rèn)的人臉總數(shù)是一致的,。檢測率和虛警率統(tǒng)計結(jié)果如表1所示,。


  從實(shí)驗(yàn)結(jié)果分析,對應(yīng)檢測率較低的幾組樣本,,漏檢的情況通常發(fā)生在人臉偏轉(zhuǎn)角度過大,,導(dǎo)致人臉器官信息不明顯的情況下。而2,,5,,7組候選驗(yàn)證前的錯誤檢測樣本個數(shù)較大,與光照環(huán)境密切相關(guān),。候選驗(yàn)證算法將其中的絕大部分去除,。
  本文介紹了一種基于視頻序列圖像的人臉檢測方法?;谝曨l序列圖像的人臉檢測方法包括變化檢測,、改進(jìn)的Adaboost學(xué)習(xí)算法和層疊式后驗(yàn)證等方法。實(shí)驗(yàn)結(jié)果表明,,本文提出的方法在視頻環(huán)境下可以有效運(yùn)用于多人臉,、不同尺寸、表情姿態(tài)和復(fù)雜背景的情況,,同時使檢測率達(dá)到95.34%,,錯誤報警率降至0.0011,系統(tǒng)運(yùn)行時間為88ms, 可近乎實(shí)時地進(jìn)行人臉檢測,。
  在實(shí)驗(yàn)過程中,,不均勻光照對檢測有一定影響。從實(shí)驗(yàn)結(jié)果分析,,人臉發(fā)生漏檢的情況通常出現(xiàn)在人臉進(jìn)行大角度旋轉(zhuǎn)的樣本中,??梢夾daboost算法對于大角度的旋轉(zhuǎn)有一定的局限性,這也是以后需要改進(jìn)的地方,。
參考文獻(xiàn)
1 梁路宏,,艾海舟,徐光佑.人臉檢測研究綜述.計算機(jī)學(xué)報,,2002,;25(5):449~458
2 Freund Y,Schapire R E.Experiments with a new boosting algorithm.In:Proc the 13th conf on machine learning,,San Frarrcisco,,Morgan Kaufmann,1996
3 Viola P,,Jones M.Rapid object detection using a boosted cascade of simple features.IEEE conf on computer vision and pattern recognition,,Kauai,Hawaii,,USA,,2001
4 Papageorgiou C P,Oren M,,Poggio T.A general framework for object detection.In:Proceeding of imternational conference on computer vision,,Bombay,India,,1998
5 Bertran A,,Yu H Z,Sacchetto P.Face Detection Project Report.Computer Project for Digital Image Processing,,EE368 Spring 2001

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。