摘 要: 提出了一種基于灰度圖像極小值區(qū)域的快速魯棒的人眼自動(dòng)定位方法。首先,利用極小值區(qū)域進(jìn)行眼睛粗定位,,得到一組候選眼睛位置;再利用眼睛對(duì)的幾個(gè)自然約束條件進(jìn)行粗篩選;最后利用PCA方法驗(yàn)證眼睛對(duì),,得到唯一的候選眼睛對(duì)。對(duì)BioID圖像集進(jìn)行測(cè)試,結(jié)果表明,,利用該算法進(jìn)行眼睛定位的成功率和定位精度較高,。
關(guān)鍵詞: 眼睛定位; 極小值區(qū)域,; 主成分分析
人眼定位已成為計(jì)算機(jī)視覺(jué)及相關(guān)領(lǐng)域中的關(guān)鍵技術(shù),,在自動(dòng)控制、安全保障,、交通安全,、醫(yī)療、刑偵等領(lǐng)域具有廣泛的應(yīng)用前景和潛在的經(jīng)濟(jì)價(jià)值,。人眼定位作為人臉識(shí)別技術(shù)的基礎(chǔ)以及其廣泛的應(yīng)用前景,,其研究?jī)r(jià)值顯而易見(jiàn)。近年來(lái),,國(guó)內(nèi)外學(xué)者提出了許多人眼定位方法,,如基于主動(dòng)紅外光的方法[1]、基于灰度投影的方法[2],、廣義對(duì)稱法[3],、幾何特征模板匹配法[4]和基于色彩信息的方法[5]。然而,,與其他人臉?lè)治黾夹g(shù)(人臉檢測(cè),、人臉識(shí)別)類似,人眼定位需要最大限度地適應(yīng)人臉的各種變化,,以提高算法的魯棒性,。這些變化包括:各種膚色和種族差異,各個(gè)方向上的轉(zhuǎn)動(dòng),,尺寸,、表情和光照條件上的變化,遮擋,某些特征(如眉毛,、眼鏡等)的出現(xiàn)或缺失等。此外,,算法的計(jì)算量大小也是一個(gè)重要的評(píng)價(jià)標(biāo)準(zhǔn),,它影響算法的可應(yīng)用范圍。
本文重點(diǎn)探討了一種具有較快運(yùn)行速度,,能在不同人種和膚色,、有大幅度轉(zhuǎn)動(dòng)或側(cè)像、有表情變化,、有部分遮擋,、圖像質(zhì)量差等各種人臉中保持穩(wěn)定的人眼定位算法。在分析,、消化現(xiàn)有的人眼定位研究成果的基礎(chǔ)上,,提出了一種基于極小值區(qū)域的人眼定位算法。該算法既降低了計(jì)算復(fù)雜度,,又能夠有效地定位眼睛,,而且還可以在一定程度上適應(yīng)圖像的尺度、光照和旋轉(zhuǎn)角度變化,,排除眼鏡的干擾,。本算法首先利用極小值區(qū)域進(jìn)行眼睛粗定位,得到一組候選眼睛位置,,再利用眼睛對(duì)的幾個(gè)自然約束條件進(jìn)行粗篩選,,最后利用PCA驗(yàn)證眼睛對(duì),得到唯一的候選眼睛對(duì),。該眼睛定位算法的工作流程圖如圖1所示,。
1 基于極小值區(qū)域的人眼粗定位
在人臉灰度圖像中,眼睛最顯著的特點(diǎn)是眼球的灰度值比周圍區(qū)域低很多,,極小值區(qū)域正反映了單只眼睛局部圖像的這個(gè)特點(diǎn),,因此本文參考了最穩(wěn)定極值區(qū)域MSER[6],提出了極小值區(qū)域MER(Minimum External Region)方法,,并將這一方法應(yīng)用到人眼定位中,。
1.1 極小值區(qū)域的定義
定義1(區(qū)域的定義) 區(qū)域Q是圖像I的一個(gè)連續(xù)的子集,并且Q的像素之間滿足鄰域關(guān)系(如4鄰域關(guān)系,、8鄰域關(guān)系等),,該鄰域關(guān)系滿足可傳遞性。
定義2(區(qū)域外邊界的定義)區(qū)域Q外邊界是滿足如下條件的點(diǎn)的集合,,這些點(diǎn)不屬于區(qū)域Q,,但是和區(qū)域Q中至少1個(gè)像素滿足非傳遞的鄰域關(guān)系。
定義3(極小值區(qū)域的定義)極小值區(qū)域Q指的是區(qū)域中所有像素的灰度值均小于它的外邊界的所有像素的灰度值。如果區(qū)域Q中所有像素的灰度值均小于或等于G,,則G被稱為是極小值區(qū)域Q的一個(gè)臨界值,,記為MER(G)。
假設(shè)圖像I中的每個(gè)像素點(diǎn)灰度值都在區(qū)間[0,,255]內(nèi),,由定義可知,臨界值為0的MER就是像素值為0的黑點(diǎn)(或其連通域),,臨界值為255的MER就是圖像本身,,即MER(255)=I。另外,,對(duì)于G<255,,MER(G)總被某個(gè)MER(G+1)包含,如果把這種包含關(guān)系定位為父子關(guān)系,,則圖像I的所有MER根據(jù)包含關(guān)系可以構(gòu)成一棵多叉樹,,記為MER-T。因?yàn)樗邢袼攸c(diǎn)灰度值都在區(qū)間[0,255]內(nèi),,所以MER-T的最大高度為256,。
1.2 極小值區(qū)域算法實(shí)現(xiàn)
要想利用極小值區(qū)域進(jìn)行眼睛粗定位,首先要建立輸入圖像的MER-T,。它的基本思想是:假設(shè)一幅圖像I,,像素點(diǎn)集組成集合∧={x1,x2,…,xN},首先,,把所有像素按照像素的灰度值從低到高排序,,即I(x1)≤I(x2)≤…≤I(xN);然后,從前往后(像素值從低到高)遍歷像素,,先找出中間圖像It(∧t={x1,x2,…,xt}?奐∧,t=1,2,…,N,It=I/∧t稱為中間圖像)的所有極小值區(qū)域,,直到IN=I,這樣I的所有極小值區(qū)域便找到了,。由分析可知,,并查集[7]適合描述這一問(wèn)題,MER-T建立的詳細(xì)算法見(jiàn)參考文獻(xiàn)[7],。
1.3 極小值區(qū)域橢圓擬合并提取候選眼睛區(qū)域
由于眼睛區(qū)域的形狀類似橢圓,,因此,在研究極小值區(qū)域的幾何性質(zhì)時(shí),,重點(diǎn)研究其橢圓性質(zhì),,根據(jù)橢圓的二階矩(比較容易測(cè)量的條件)計(jì)算出橢圓的長(zhǎng)短軸的長(zhǎng)度和方向角(不易測(cè)量的參數(shù))。
在上述輸入圖像MER-T的基礎(chǔ)上,,根據(jù)眼睛本身的自然約束條件,,可以比較容易確定候選眼睛。眼睛本身有許多自然約束條件,這里選用下述3個(gè)約束條件:
(1) 尺寸約束:每只眼睛的尺寸應(yīng)該在一定范圍內(nèi)(與人臉區(qū)域大小滿足一定比例),;
(2) 位置約束:每只眼睛的水平坐標(biāo)應(yīng)該在一定范圍內(nèi),;
(3) 形狀約束:每只眼睛的擬合橢圓應(yīng)該是橫向的,即橢圓的長(zhǎng)軸在x方向上,。
根據(jù)以上約束條件,,在MER-T的所有節(jié)點(diǎn)中篩掉不合適的候選極小值區(qū)域,在剩下的所有MERs里,,如果有直接或者傳遞的父子關(guān)系,則去除父MER保留子MER,,最后剩下的就是眼睛粗定位的結(jié)果,,即候選眼睛。圖2給出了一個(gè)MERs篩選過(guò)程的示意圖,。
2 對(duì)粗定位結(jié)果進(jìn)行篩選
2.1基于自然約束條件的候選眼睛對(duì)提取算法
要提取所有可能的候選眼睛對(duì),,首先要將前面算法得到的單只眼睛區(qū)域組合成為眼睛對(duì)區(qū)域。
要排除錯(cuò)誤眼睛對(duì)的干擾,,一個(gè)簡(jiǎn)單的方法是利用眼睛對(duì)的自然約束條件,。下面列出3個(gè)簡(jiǎn)單有效的約束。
(1)雙眼間距約束,。這里考慮的是水平間距和垂直間距,。這兩種間距的絕對(duì)值應(yīng)該被約束在一定范圍內(nèi)。
(2)雙眼位置約束,。因?yàn)閱为?dú)考慮了間距約束,,所以這里的位置約束可以只考慮雙眼中心點(diǎn)(位于鼻梁附近)的位置。顯然,,這個(gè)中心點(diǎn)應(yīng)該大體在人臉圖像垂直的對(duì)稱軸上,,而且不能太偏下,因?yàn)樘乱馕吨信d趣區(qū)域(即以雙眼的兩個(gè)中心點(diǎn)和嘴部中心點(diǎn)為特征點(diǎn)確定的矩形區(qū)域)很可能不完整,,影響人臉識(shí)別后序工作的準(zhǔn)確性,。
(3)雙眼灰度差約束。瞳孔灰度值低,,且灰度差在一定范圍內(nèi),。
根據(jù)上述約束條件,為每一個(gè)候選眼睛對(duì)計(jì)算可信度,。首先從候選眼睛對(duì)區(qū)域的質(zhì)心坐標(biāo)(xl,yl)和(xr,yr)中提取5維特征Fi:
其中,,d=5,Σ是特征Fi的協(xié)方差矩陣,,μ是特征Fi的均值,。將所有候選眼睛對(duì)按照可信度Ci降序排列,尋找正整數(shù)t,使得前t個(gè)候選眼睛對(duì)的可信度之和大于所有眼睛對(duì)的可信度之和的95%。這樣,,前t個(gè)候選眼睛對(duì)被篩選出來(lái)進(jìn)入下一層的篩選,。
2.2 PCA驗(yàn)證
經(jīng)過(guò)篩選,許多錯(cuò)誤的候選眼睛對(duì)已被排除了,,但是眉毛,、眼鏡框、鼻孔等干擾仍存在,,經(jīng)PCA[8]驗(yàn)證得到的重建信噪比最大的候選眼睛對(duì)作為最終的定位結(jié)果,。
3 實(shí)驗(yàn)結(jié)果分析
3.1 度量標(biāo)準(zhǔn)
通常,用于評(píng)價(jià)眼睛定位的指標(biāo)有定位成功率和定位精度兩個(gè)。在描述定位精度時(shí),, JESORSKY O等[9]建議利用式來(lái)計(jì)算眼睛定位的下稱定位誤差,,并把err<0.25作為眼睛定位成功的標(biāo)準(zhǔn)。由于兩眼之間的距離約等于一只眼睛的寬度的兩倍,,因此,,該標(biāo)準(zhǔn)相對(duì)于雙眼的定位偏差均必須小于一只眼睛寬度的一半。顯然,,這個(gè)標(biāo)準(zhǔn)非常寬松,,按此標(biāo)準(zhǔn)得到的眼睛位置也不適合于人臉圖像的幾何歸一化。由于虹膜的半徑r約等于眼睛寬度的1/4,,因此將該標(biāo)準(zhǔn)提高一倍,,即將err<0.125作為衡量眼睛定位成功與否的標(biāo)準(zhǔn)。顯然,,該標(biāo)準(zhǔn)實(shí)際上又相當(dāng)于:若雙眼都定位在各自的虹膜上,,則對(duì)于一幅人臉圖像而言,本次眼睛定位就算成功,。
3.2 測(cè)試結(jié)果
為了檢驗(yàn)本文提出算法的有效性,采用BioID人臉庫(kù)[10]進(jìn)行實(shí)驗(yàn),。
實(shí)驗(yàn)1 檢驗(yàn)所節(jié)提出的基于極小區(qū)域的眼睛粗定位算法的有效性。實(shí)驗(yàn)用1 439個(gè)樣本作為輸入(數(shù)據(jù)庫(kù)原有1 521張圖像,圖像分辨率為384×286,剔除AdaBoost人臉檢測(cè)算法檢測(cè)不出來(lái)的82張人臉樣本),,對(duì)該算法進(jìn)行測(cè)試,,以err<0.125作為正確定位門限,實(shí)驗(yàn)結(jié)果正確率為95.34%,。
圖3給出了用極小值區(qū)域成功粗提取單只眼睛的BioID圖像示例,。從圖可以看出,在各種光照,、姿態(tài)和表情條件下,,而且在閉眼、佩戴眼鏡(眼鏡反光,、佩戴眼鏡后,,瞳孔等區(qū)域會(huì)變得不清晰)等情況下,,本文提出的極小值區(qū)域檢測(cè)算法都能很好地提取出眼睛區(qū)域。
實(shí)驗(yàn)2 對(duì)本文提出的人眼定位算法總體進(jìn)行檢驗(yàn),,正確率為86.59%,。圖4給出了BioID圖像集中用本算法實(shí)現(xiàn)雙眼定位的圖像示例。從圖4中可以看出,,對(duì)于光照情況復(fù)雜,、佩戴飾物等情況,本文算法都能夠獲得非常高的雙眼定位成功率和定位精度,。
本文所提出的眼睛定位算法的復(fù)雜度低,,運(yùn)行效率高。表1給出了本算法在3.4 GHz CPU的PC機(jī)上用Matlab7.1和Visual C++混合編程[11]實(shí)現(xiàn),,完成BioID人臉數(shù)據(jù)庫(kù)(圖像分辨率為384×286)中眼睛定位所需的平均時(shí)間,。從表1可以看出,其眼睛定位平均時(shí)間約為0.1 s。
眼睛定位是建立人臉自動(dòng)分析系統(tǒng)的一個(gè)非常關(guān)鍵的步驟,,而人臉圖像質(zhì)量的多變性,使得它成為一個(gè)具有挑戰(zhàn)性的技術(shù)難題,。針對(duì)灰度圖像的眼睛定位問(wèn)題,,本文提出了一種基于極小值區(qū)域的快速眼睛定位算法。該算法首先利用灰度極小值區(qū)域和先驗(yàn)知識(shí)取出眼睛候選區(qū)域,,然后利用自然約束條件從中選出可能的眼睛對(duì),,最后利用PCA算法挑選出一對(duì)人眼,完成人眼驗(yàn)證。對(duì)BioID圖像集進(jìn)行測(cè)試,結(jié)果表明,本文所提出的方法既降低了計(jì)算復(fù)雜度,又能夠有效地定位眼睛,,而且還可以在一定程度上適應(yīng)圖像的尺度,、光照和旋轉(zhuǎn)角度的變化,排除眼鏡的干擾,,具有良好的魯棒性,。
參考文獻(xiàn)
[1] ZHU Z, FUJIMURA K, JI Q. Real-time eye detection and tracking under various light conditions[C]. In Proceedings of ETRA: Eye Tracking Research & Applications Symposium, 2002:139-144.
[2] ZHOU Z,GENG X.Projection functions for eye detection[J]. Pattern Recognition, 2004,37(5):1049-1056.
[3] REISFELD D, YESHURUN Y. Robust detection of facial features by generalized symmetry[C]. Proceedings of the International Conference on Pattern Recognition, 1992:117-120.
[4] YUILLE A L, COHEN D .S, HALLIMAN P W. Feature extraction from faces using deformable templates[C].Proceedings of Computer Vision and Pattern Recognition, 1989:104-109.
[5] HSU R L, ABDEL-MOTTALEB M,JAIN A K.Face detection in color images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002,24(5):696-706.
[6] MATAS J, CHUN O, URBAN M, et al. Robust widebaseline stereo from maximally stable extremal regions[J].Image and Vision Computing, 2004,22(10):761-767.
[7] 傅清祥,王曉東.算法與數(shù)據(jù)結(jié)構(gòu)[M].北京:電子工業(yè)出 版社, 1998.
[8] YANG J, ZHANG D, FRANGI A F, et al. Two-dimensional PCA: a new approach to appearance-based face representation and recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence. 2004,26(1):131-137.
[9] JESORSKY O, KIRCHBERG K J, FRISCHHOLZ R W. Robust face detection using the Hausdorff distance[C]. Proceedings of the Third International Conference on Audioand Video Based Biometric Person Authentication, 2001:90-95.
[10] The BioID Database.[2011-08-20].http://www.bioid.com/downloads/facedb/index.php.
[11] 董維國(guó). 深入淺出MATLAB7.X混合編程[M]. 北京:機(jī) 械工業(yè)出版社,2006.