《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 業(yè)界動(dòng)態(tài) > 一種復(fù)雜背景下的快速人臉檢測(cè)算法

一種復(fù)雜背景下的快速人臉檢測(cè)算法

2008-03-13
作者:王金庭1,,王 虹1,,楊 敏2

  摘 要: 提出了一個(gè)由粗到細(xì)的多階段人臉" title="人臉">人臉檢測(cè)算法,,介紹了檢測(cè)工作的三個(gè)部分:膚色區(qū)域分割預(yù)處理,、應(yīng)用人臉基本特征檢測(cè)和定位的人臉細(xì)檢、平均臉模板匹配的人臉驗(yàn)證,。實(shí)驗(yàn)證明該算法能有效檢測(cè)出復(fù)雜環(huán)境中的人臉,。該算法對(duì)于人臉的平移、縮放,、適度旋轉(zhuǎn)都能很好地適應(yīng),。
  關(guān)鍵詞: 人臉檢測(cè)" title="人臉檢測(cè)">人臉檢測(cè) 彩色空間? 膚色模型" title="膚色模型">膚色模型? 圖像分割? 模板匹配

?

  人臉檢測(cè)是指在輸入圖像中確定人臉(如果存在)的位置、大小等信息,。
  在人臉檢測(cè)定位方面,,以前已經(jīng)有人提出了一些解決方案。但在定位方法的簡(jiǎn)便性,、算法的穩(wěn)定性,、定位結(jié)果的準(zhǔn)確性以及適用條件等方面依然存在局限。例如參考文獻(xiàn)[1]提出的人臉檢測(cè)算法,,雖然可以在復(fù)雜背景下實(shí)現(xiàn)人臉檢測(cè),,但其只能檢測(cè)單人臉,而且人臉的姿態(tài)又不能任意,。又如參考文獻(xiàn)[2]提出的復(fù)雜背景下的人臉檢測(cè)與定位算法,,雖可以檢測(cè)背景復(fù)雜、姿態(tài)各異的多人臉,,但對(duì)所檢人臉尺寸,、比例及灰度都有一定要求,而且限制了所能檢測(cè)的人臉的種類(lèi),。
  筆者在人臉檢測(cè)定位方面做了一些有意義的探索和研究,。筆者認(rèn)為,,對(duì)于復(fù)雜背景中的人臉檢測(cè),應(yīng)針對(duì)背景采用分階段的檢測(cè)定位算法,,即先減小背景的復(fù)雜度,,在簡(jiǎn)單背景中檢測(cè)定位人臉,然后進(jìn)一步由粗到細(xì)地檢測(cè)定位人臉,。這種檢測(cè)定位算法的整個(gè)檢測(cè)定位過(guò)程分三個(gè)階段進(jìn)行:①預(yù)處理:膚色區(qū)域分割,;②粗檢:膚色區(qū)域的篩選,;③細(xì)檢:候選人臉的特征檢測(cè)和定位,。
1 預(yù)處理——膚色區(qū)域分割
  已有研究[3-4]表明,人的皮膚顏色具有以下兩個(gè)重要的特征:(1)人的皮膚顏色分布在顏色空間中很小的一個(gè)范圍內(nèi),;(2)人的皮膚顏色的不同主要是由顏色的強(qiáng)度引起,。即膚色具有聚類(lèi)" title="聚類(lèi)">聚類(lèi)性,膚色的這種聚類(lèi)性可以用來(lái)從背景中分割出人臉,。
  通過(guò)對(duì)不同顏色空間的分析發(fā)現(xiàn),,YCbCr空間具有將色度與亮度分離的特點(diǎn),在YCrCb色彩空間中膚色的聚類(lèi)特性比較好,,受亮度變化的影響較小,而且是兩維獨(dú)立分布,,能較好地限制膚色分布區(qū)域[5],并且受人種的影響不大,。因此本研究選擇YCrCb色彩空間模式進(jìn)行膚色區(qū)域分割,。
1.1 膚色模型的建立
  膚色模型是根據(jù)大量樣本的統(tǒng)計(jì)數(shù)據(jù)建立的。針對(duì)不同膚色的人:亞洲人,、高加索人和非洲人,,本文選擇在一般室內(nèi)外照明背景下的人臉圖片,以便所建立的膚色模型具有一般性,。建立膚色模型的步驟如下:
  (1)手工剪裁出大量膚色區(qū)域,。在本文中首先手工裁減了1000個(gè)各色人種的膚色區(qū)域,分別選自不同的性別,、不同的身體區(qū)域(包括臉部,、手臂、四肢和軀干部分),。
  (2)將皮膚區(qū)域中每個(gè)像素點(diǎn)的R,、G、B轉(zhuǎn)換成Y,,Cb,、Cr表示,得到每個(gè)像素點(diǎn)的色度值(Cb,,Cr),。轉(zhuǎn)換公式如下:
  
  (3)對(duì)剪裁出的膚色區(qū)域圖像使用低通濾波器減小樣本的噪聲,,這個(gè)低通濾波器的脈沖響應(yīng)如下:
  
  (4)統(tǒng)計(jì)色度為(Cb,Cr)的像素點(diǎn)數(shù),,得到色度分布圖,,如圖1所示。


  從色度分布圖可以看到膚色聚類(lèi)在色度空間中的一個(gè)很小的范圍內(nèi),。
  (5)歸一化色度分布圖,,膚色分布可以用高斯模型N(m,C)表示,。其中,,m是均值,C是協(xié)方差陣,,可表示如下:
    m=E{x},, x=(Cr?? Cb)T
    C=E{(x-m)(x-m)T}
1.2 膚色區(qū)域的提取
  通過(guò)前面所建立的膚色高斯分布,可以得到某幅彩色圖像" title="彩色圖像">彩色圖像中任意一個(gè)像素點(diǎn)屬于皮膚的概率,。對(duì)于某像素點(diǎn)s,,從R、G,、B空間轉(zhuǎn)換到Y(jié),、Cb、Cr彩色空間,,可以得到色度值(Cr,,Cb),則這個(gè)像素的膚色概率密度(即膚色似然度)可以通過(guò)下面的式子計(jì)算得到:
  

  計(jì)算被檢測(cè)的彩色圖像各像素點(diǎn)的膚色似然度,,并得到整幅圖像的最大膚色似然度,。每一點(diǎn)像素的膚色似然度除以最大膚色似然度所得到的值,作為該像素點(diǎn)的灰度值(表征這個(gè)像素點(diǎn)屬于皮膚的概率),,從而得到膚色似然圖像,,如圖2所示。


  隨著閾值的下降,,直覺(jué)上將會(huì)導(dǎo)致分割區(qū)域的增加,。然而試驗(yàn)結(jié)果表明,當(dāng)閾值處于某一范圍中時(shí),,隨著閾值的降低分割區(qū)域并不會(huì)明顯增加(這是因?yàn)檫@個(gè)階段的膚色像素已經(jīng)被完全檢測(cè)出來(lái),,而非膚色像素還沒(méi)有被認(rèn)為是膚色像素)。如果閾值繼續(xù)降低到某一個(gè)特定值后,,隨著非膚色區(qū)域被錯(cuò)認(rèn)為是膚色區(qū)域,,則會(huì)出現(xiàn)分割區(qū)域面積大幅度增加的情形。故最優(yōu)閾值應(yīng)該是在隨著閾值增長(zhǎng)而類(lèi)膚色區(qū)域面積增長(zhǎng)最小的范圍之內(nèi),。本文中采用的方法是,,讓閾值從0.65開(kāi)始減少,,每次減少0.1,直到0.15為止,,并找出膚色分割區(qū)域面積增加最小的一段,,從而得到優(yōu)化后的閾值。其試驗(yàn)結(jié)果如圖3所示,。


2 粗檢——膚色區(qū)域的篩選
2.1 膚色區(qū)域的提取
  通過(guò)形態(tài)學(xué)處理不但可以過(guò)濾由于噪音或者其他原因引起的一些較小的不可能為人臉的類(lèi)膚色區(qū)域,,減少候選區(qū)域和提高檢測(cè)速度,而且可以填補(bǔ)膚色區(qū)域內(nèi)的較小空洞,,防止這些空洞被誤認(rèn)為是人臉器官所造成的,,為后續(xù)檢測(cè)區(qū)域內(nèi)(歐拉數(shù)判斷是否為候選區(qū)域)降低了誤判的可能性。
  在本文中,,考慮到干擾造成的小的虛假膚色區(qū)域,,使用5×5的結(jié)構(gòu)元素進(jìn)行開(kāi)運(yùn)算消除較小物體(假設(shè)人臉區(qū)域應(yīng)該有足夠大),減小后面分割區(qū)域編碼的工作量,;同時(shí),考慮到一部分分割區(qū)域內(nèi)部有較小的空洞存在,,使用3×3的結(jié)構(gòu)元素對(duì)其進(jìn)行閉運(yùn)算,,消除分割區(qū)域中的較小的空洞,以利于后面計(jì)算歐拉數(shù)時(shí)可以減少干擾,,其效果如圖4所示,。


2.2 人臉幾何特征分析
  (1)有效面積。在目標(biāo)圖像中,,存在著一些由某些原因引起的噪聲,,這些噪聲的區(qū)域面積不大,因此可用面積參數(shù)先過(guò)濾掉這些噪聲,。
  Ai>A
  式中,,Ai代表第i個(gè)目標(biāo)區(qū)的面積;A(=10)為一事先確定的面積閾值,。符合上式的區(qū)域可進(jìn)一步進(jìn)行檢測(cè),,否則被認(rèn)為是噪聲濾除掉。
  (2)圓度,。人臉在不同的視角中,,都有類(lèi)似橢圓的性質(zhì)。在人臉區(qū)域的檢測(cè)中,,區(qū)域的圓度可以作為一項(xiàng)基于形狀檢測(cè)的參數(shù):
  
  式中,,Ai為第i個(gè)區(qū)域的面積;Pi為第i個(gè)區(qū)域的周長(zhǎng),,Ci為第i個(gè)目標(biāo)區(qū)的圓度,;C(=0.05)是預(yù)定的圓度閾值,。符合此式的區(qū)域才能成為下一步的候選區(qū)域。
  (3)長(zhǎng)寬比例,。人臉區(qū)域的長(zhǎng)寬比應(yīng)該符合一個(gè)約束范圍,,在目標(biāo)二值圖像中利用該約束范圍可快速排除那些太過(guò)狹長(zhǎng)或橫軸長(zhǎng)度明顯超標(biāo)的區(qū)域。區(qū)域的長(zhǎng)寬比例同樣是一項(xiàng)基于形狀檢測(cè)的參數(shù):
  Ri=Hi/Wi?????? Ri∈RR
  式中,,Hi是第i個(gè)區(qū)域的高度,,Wi為第i個(gè)區(qū)域的寬度,Ri等于該區(qū)域的長(zhǎng)寬比例,;RR(=[0.8 2.2])為設(shè)定的人臉區(qū)域長(zhǎng)寬比例約束范圍,。不符合該式的區(qū)域被認(rèn)為是非人臉區(qū)域舍棄掉。
  (4)歐拉數(shù),。歐拉數(shù)可以表示一個(gè)封閉區(qū)間中的空洞數(shù)量的情況,,其定義如下:
  E=C-H
  式中,E為連通區(qū)域的歐拉數(shù),;C為連通區(qū)域的數(shù)目,,這里應(yīng)為1;H為連通區(qū)域內(nèi)部的空洞數(shù),。在正常情況下,,人臉圖像中一定包括眼睛、眉毛等非膚色區(qū)域,,所以真正的人臉區(qū)域須包括一個(gè)或多個(gè)小孔,。故若歐拉數(shù)大于0,則該連通區(qū)域不會(huì)是人臉待選區(qū)域,。但是如果歐拉數(shù)太小,,也不應(yīng)該是人臉,人臉中由于嘴,、眼等區(qū)域形成的空洞數(shù)不會(huì)太多,,在本文中,如果計(jì)算出來(lái)的歐拉數(shù)小于-10,,也不認(rèn)為其是人臉待選區(qū)域,。
  (5)質(zhì)心。對(duì)于一塊人臉圖像區(qū)域,,應(yīng)該是或基本上是一個(gè)凸多邊形,,也就是說(shuō)其質(zhì)心應(yīng)該在多邊形區(qū)域內(nèi),質(zhì)心計(jì)算公式如下:
  

  式中,,A為該區(qū)域的像素?cái)?shù)量,;i和j分別是水平和垂直坐標(biāo);B是區(qū)域經(jīng)過(guò)計(jì)算得到的相似矩陣;B[i,,j]=1表示該點(diǎn)為膚色區(qū)域,。
  在實(shí)驗(yàn)中發(fā)現(xiàn),只需使用以上兩種計(jì)算進(jìn)行篩選就能夠過(guò)濾掉大部分的非人臉區(qū)域,。
3 細(xì)檢——候選人臉的特征檢測(cè)和定位
  在粗檢檢測(cè)結(jié)果的基礎(chǔ)上,,利用平均臉模板匹配的方法對(duì)候選隊(duì)列中的圖像進(jìn)行是否是人臉的檢測(cè)[6-7]。
  本文中所用的模板是對(duì)多個(gè)人臉樣本取平均構(gòu)造出來(lái)的,。具體構(gòu)造過(guò)程如下:
  (1)在選取的樣本圖像中用矩形框手工裁剪出人臉的區(qū)域作為人臉樣本,,裁剪出100幅圖像,組成一組樣本圖像集,。并將所選人臉樣本轉(zhuǎn)換成灰度圖像,,將其尺度標(biāo)準(zhǔn)化到80×80[8]
  (2)將所選人臉樣本進(jìn)行灰度分布標(biāo)準(zhǔn)化,。
  (3)將所有樣本取灰度平均得到平均人臉圖像,,并對(duì)平均人臉圖像進(jìn)行灰度分布標(biāo)準(zhǔn)化,得到初步的人臉模板,。如圖5所示,。


  根據(jù)待選人臉區(qū)域的高度h、寬度w和傾斜角θ對(duì)原始人臉模板圖像T(x,,y)拉伸高寬比t(t=h/w),、旋轉(zhuǎn)θ變換為T(mén)′(x′,y′):
  
  然后使用新的人臉模板對(duì)待選人臉圖像窗口進(jìn)行匹配,。算法使用以下系數(shù)作為匹配準(zhǔn)則。假設(shè)人臉模板的灰度矩陣為T(mén)[M][N],,灰度均值與方差分別為μT和σT,,待選人臉圖像區(qū)域的灰度矩陣為S[M][N],灰度均值與方差分別為μR和σR,,則它們之間的相關(guān)系數(shù)r(T,,S)為:
  

  使用人臉模板進(jìn)行匹配時(shí),若相關(guān)系數(shù)r(T,,R)超過(guò)門(mén)限值t(t=0.6),,則認(rèn)為通過(guò)了平均臉匹配篩選,被認(rèn)為是人臉,。
  將檢測(cè)到的人臉窗口存放在一個(gè)備選人臉列表中,,在輸入的原彩色圖像上根據(jù)備選人臉列表中記錄的每個(gè)人臉框的位置和大小將其框出,結(jié)果如圖6所示,。


  本算法改變了傳統(tǒng)的模板匹配方法中逐點(diǎn)匹配的方式,,通過(guò)對(duì)分割后的膚色區(qū)域的統(tǒng)計(jì)分析,進(jìn)一步減小搜索區(qū)域,大大加快了檢測(cè)速度,。具有計(jì)算量小,、速度快、易于實(shí)現(xiàn)實(shí)時(shí)處理,、不受臉部表情變化的影響,、抗噪聲能力強(qiáng)、魯棒性好等優(yōu)點(diǎn),。
參考文獻(xiàn)
[1] YUILLE A,,HALLINAN P,COHEN D.Feature extraction from faces using deformable templates[J].International Jour-nal of computer vision,,1992,,8(2):99-111.
[2] TURK M,PENTLAND A.Eigenface for recognition[J].J Cog Neurosci,,1991,,23(3):71-86.
[3] YANG J,WAIBEL A.Shin-color modeling and adaptation[C].Proceedings of ACCV′98,,1998:687-694.
[4] PGRAF H,,COSATTO E,GIBBON D et al.Multimodel sys-tem for the location heads and faces.proceedings of the Second IEEE International Conference on Automatic Face and Gesture Recognition,,1996:88-93
[5] GONG Y,,SAKAUCHI M.Detection of regions matching specifiedchromatic features[J].Computer Vision and Image Understanding,1995,,61(2):263-269.
[6] MOGHADDAM B,,PENTLAND A.Probabilistic visual learn-ing for object representation.IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,,19(7):696-710.
[7] MOGHADDAM B,,PENTLAND A.Beyond linear eigenspaces Bayesian matching for face recognition.WECHSLER H,PHILLIPS,,P J,,Bruce V,et al.Face Recognition from Theory to Applications.New York:Springer-Verlag,,1997,,230-243.

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話(huà):010-82306118,;郵箱:[email protected]