摘 要: 提出一種人體行為識別模型和前景提取方法。針對人體運(yùn)動過程中產(chǎn)生新的行為問題,,該模型用分層Dirichlet過程聚類人體特征數(shù)據(jù)來判斷人體運(yùn)動過程中是否有未知的人體行為模式,;用無限隱Markov模型對含有未知行為模式的特征向量進(jìn)行行為模式的有監(jiān)督的學(xué)習(xí),由管理者將其添加到規(guī)則與知識庫中,。當(dāng)知識庫的行為模式達(dá)到一定規(guī)模時(shí),,系統(tǒng)便可以無監(jiān)督地對人體行為進(jìn)行分析,其分析采用Markov模型中高效的Viterbi解碼算法來完成,。對于前景的提取,,提出了基于背景邊緣模型與背景模型相結(jié)合的前景檢測方法,此方法能夠有效避免光照,、陰影等外部因素的影響,。仿真實(shí)驗(yàn)證明,本文提出的方法在實(shí)時(shí)視頻監(jiān)控中的人體行為識別方面有獨(dú)特的優(yōu)勢,。
關(guān)鍵詞: 行為模式,;嵌套的狄利克雷過程;無限隱Markov模型,;行為識別
人的行為理解與描述是近年來被廣泛關(guān)注的研究熱點(diǎn),,它是指對人的運(yùn)動模式進(jìn)行分析和識別,并用自然語言等加以描述,。行為理解可以簡單地被認(rèn)為是時(shí)變數(shù)據(jù)的分類問題,,即將測試序列與預(yù)先標(biāo)定的代表典型行為的參考序列進(jìn)行匹配。對于人的行為識別,,參考文獻(xiàn)[1]概括為以下兩種方法:
(1)模板匹配方法,。參考文獻(xiàn)[2-5]都采用模板匹配技術(shù)的行為識別方法。首先將圖像序列轉(zhuǎn)換為一組靜態(tài)形狀模式,,然后在識別過程中和預(yù)先存儲的行為標(biāo)本來解釋圖像序列中人的運(yùn)動,。
(2)空間方法?;跔顟B(tài)空間模型的方法定義每個(gè)靜態(tài)姿勢作為一個(gè)狀態(tài),,這些狀態(tài)之間通過某種概率聯(lián)系起來。目前,,狀態(tài)空間模型已經(jīng)被廣泛地應(yīng)用于時(shí)間序列的預(yù)測,、估計(jì)和檢測,最有代表性的是HMMs。每個(gè)狀態(tài)中可用于識別的特征包括點(diǎn),、線或二維小區(qū)域,。
本文從兩個(gè)方面來闡述視頻監(jiān)控系統(tǒng)中的人體行為識別:(1)行為描述,即在視頻幀中提取人體特征,,并對人體行為進(jìn)行描述,;(2)行為識別,通過基于數(shù)理統(tǒng)計(jì)的Markov模型訓(xùn)練得到的行為檢測器來實(shí)現(xiàn),。針對行為描述,,本文采用背景邊緣法來提取視頻前景,通過背景邊緣法來獲取人體的邊界輪廓,,背景法可獲取前景人體區(qū)域,。由于背景法受光照影響較大,通過這種方法提取的人體區(qū)域不夠完整,,但通過人體邊界和人體區(qū)域相加,,再進(jìn)行形態(tài)學(xué)的閉運(yùn)算,就能得到較完整的前景目標(biāo),。對于行為識別,,首先利用HDP-iHMM進(jìn)行人體行為狀態(tài)的確定,即確定是否有新的人體行為模式產(chǎn)生,,如果有新的行為狀態(tài),,則進(jìn)行iHMM的行為模式的學(xué)習(xí);如果沒有新的行為狀態(tài),,則用已訓(xùn)練的HMM進(jìn)行行為檢測,。
本文的創(chuàng)新點(diǎn)是在人體前景獲取的過程中利用了兩種背景模型的結(jié)合。在行為檢測方面,,應(yīng)用HDP-iHMM確定是否有未知人體行為,,利用HMM來進(jìn)行行為的檢測,這樣能使檢測系統(tǒng)不斷地學(xué)習(xí),,當(dāng)知識庫的行為模式達(dá)到一定規(guī)模時(shí),,系統(tǒng)便可以無監(jiān)督地對人體行為進(jìn)行檢測。
1 人體行為描述
參考文獻(xiàn)[2],、[6]為了理解人體行為,采用最常用的背景減除法來提取運(yùn)動的人體,,利用當(dāng)前圖像與背景圖像的差分來檢測出前景運(yùn)動區(qū)域的一種技術(shù),,但這種方法對光照和外來無關(guān)事件的干擾等特別敏感。為了解決這個(gè)問題,,本文采用背景邊界模型和背景模型的結(jié)合來檢測前景,,通過這兩種模型的結(jié)合,再應(yīng)用形態(tài)學(xué)運(yùn)算,就能獲得一個(gè)相對較完整的人體前景,。
1.1 人體前景提取
背景邊緣模型通過統(tǒng)計(jì)視頻圖像中每個(gè)位置在連續(xù)時(shí)間內(nèi)出現(xiàn)邊緣的概率計(jì)算得到:
(3)通過一些數(shù)學(xué)運(yùn)算結(jié)合兩種模型獲取f(x,,y),然后對f(x,,y)進(jìn)行形態(tài)學(xué)運(yùn)算,,來填充前景孔洞,為特征計(jì)算奠定基礎(chǔ),。
1.2 特征計(jì)算
在提取了前景后,,為了分析人的活動和行為模式,進(jìn)一步提取和計(jì)算一些人體特征數(shù),,本文的研究著重于以下圖像特征值:
(1)長寬比(A):A=L/W,,A值包含了行為模式識別的重要信息。這一特征可以識別人體是站立或是別的姿勢,。
(2)矩形度(R):R=A0/AR,,其中A0是人體的面積,AR是最小封閉矩形的面積,。矩形擬合因子的值限定在0和1之間,。
(3)協(xié)方差矩陣(C):
2 行為的識別模型
對未知行為的學(xué)習(xí)過程如圖1所示。當(dāng)HDP聚類過程中發(fā)現(xiàn)有新行為產(chǎn)生時(shí),,則用iHMM的Beam抽樣算法學(xué)習(xí)未知行為模式,,將定性的行為模式添加到規(guī)則和知識庫。
該多層模型的對應(yīng)圖形化表示如圖2所示,。在本文中,,βk′為轉(zhuǎn)移到狀態(tài)k′的轉(zhuǎn)換概率的先驗(yàn)均值,α為控制針對先驗(yàn)均值的可變性,。如果固定β=(1/k,,…,1/k,,0,,0…),本文K個(gè)條目的值為l/k,,而其余為0,;當(dāng)且僅當(dāng)k′∈{1,…,,K}時(shí),,達(dá)到狀態(tài)k′的轉(zhuǎn)換概率為非零。
3 系統(tǒng)仿真實(shí)驗(yàn)
3.1 未知行為模式的定性
(1)設(shè)初始行為狀態(tài)為4個(gè),,然后進(jìn)行抽樣獲取訓(xùn)練HDP-iHMM模型的樣本,,對模型進(jìn)行訓(xùn)練,,同時(shí)對樣本進(jìn)行聚類,可得到如圖3(a)的聚類圖,,模型狀態(tài)轉(zhuǎn)移矩陣如圖4(a)所示,,模型觀察值轉(zhuǎn)移矩陣如圖4(d)。
(2)獲取一個(gè)檢測樣本,,通過已經(jīng)訓(xùn)練好的模型來驗(yàn)證模型的有效性,。將包含5個(gè)狀態(tài)的樣本進(jìn)行檢測,會發(fā)現(xiàn)有一種新的行為,,系統(tǒng)提示需要進(jìn)行知識庫更新,。將這種新產(chǎn)生的行為進(jìn)行定義后添加到知識庫中,并用這個(gè)樣本作為訓(xùn)練樣本來訓(xùn)練一個(gè)與此行為相對應(yīng)的模型,,將訓(xùn)練結(jié)果保存到知識庫中,,同時(shí)對樣本進(jìn)行聚類,可得到如圖3(b)所示的聚類圖,,模型狀態(tài)裝轉(zhuǎn)移矩陣如圖4(b),,模型觀察值轉(zhuǎn)移矩陣如圖4(e)。由圖可看出,,行為狀態(tài)增加了1個(gè),,由4個(gè)變成5個(gè)。最后,,用包含狀態(tài)5和狀態(tài)6的樣本進(jìn)行檢測,,同樣,系統(tǒng)就會有新的行為的提示信息,。重復(fù)上述過程,,可得到如圖3(c)所示的聚類圖,模型狀態(tài)轉(zhuǎn)移矩陣如圖4(c)所示,,模型觀察值轉(zhuǎn)移矩陣如圖4(f)所示,。由圖4可看出,狀態(tài)又增加了1個(gè),,由5個(gè)變成6個(gè),。
通過聚類圖可看出,能將代表新的人體行為特征向量聚為一類,,圖3中的虛線橢圓表示一個(gè)新的聚類,,從最初的4類到新增一類后的5類和新增兩類后的6類。
以上描述了HDP-iHMM在識別未知行為方面的有效性,,通過iHMM可以對未知行為進(jìn)行確定和描述,,為行為檢測和預(yù)測做好準(zhǔn)備。在本仿真統(tǒng)中,,本文用HDP-iHMM確定未知行為,,在事件數(shù)目確定后,用HMM實(shí)現(xiàn)行為的識別,。通過iHMM和HMM的結(jié)合,,增加了行為識別的主動性和智能性。
3.2 行為識別
3.2.1 前景獲取
背景邊緣模型是記錄背景模型的邊緣像素位置信息,,通過背景邊緣圖與當(dāng)前視頻幀的邊緣圖像在相同位置像素的比較來判斷該位置的像素點(diǎn)是否為前景目標(biāo)像素點(diǎn),。通過與背景檢測的比較,驗(yàn)證本文方法的優(yōu)點(diǎn),,這種前景幀判斷方法相對于其他常見的前景判斷方法不但簡單而且魯棒性好,,圖5給出了兩種方法的比較實(shí)例。從圖中可以看出,,由于受光照和陰影等因素的影響,,背景法因?yàn)楣庹盏耐蛔兪沟脵z測結(jié)果為整個(gè)畫面,不太理想,。而本文的方法則受光線的變化影響較小,。由此可見,對于前景檢測,,本方法能夠很好地避免光照和人體陰影的影響,,能夠較好地檢測前景目標(biāo)。
3.2.2 模型的學(xué)習(xí)和行為識別
對系統(tǒng)行為識別能力的實(shí)驗(yàn)以視頻監(jiān)控中人體行為的識別為例,。首先通過iHMM對未知行為模式進(jìn)行定性和描述,。表1為系統(tǒng)已經(jīng)能識別的行為描述,讓人體特征數(shù)據(jù)通過本文的識別系統(tǒng),,識別系統(tǒng)將會返回一個(gè)行為標(biāo)識,,通過行為標(biāo)識索取行為描述。
對于本文仿真實(shí)驗(yàn),,采用的訓(xùn)練樣本就是獲取的人體特征向量,。以“站立”、“側(cè)身走動”和“蹲下”所對應(yīng)的特征向量為訓(xùn)練樣本,,分別用S1,、S2、S3表示來說明模型的訓(xùn)練過程,。訓(xùn)練的收斂誤差用聯(lián)合相關(guān)性的穩(wěn)定性來衡量,,收斂誤差根據(jù)收斂的精確度而定。訓(xùn)練過程中隨著迭代次數(shù)的增加,,最大似然估計(jì)值的對數(shù)值也在不斷地增加,,直到達(dá)到收斂誤差為止。由于訓(xùn)練樣本的差異,,聯(lián)合相關(guān)性穩(wěn)定在不同的迭代次數(shù)之后,。但從圖6中可以看出,,每個(gè)訓(xùn)練樣本都達(dá)到了收斂。
模型對視頻監(jiān)控中人體行為的識別能力,,HMM通過搜索最佳狀態(tài)序列,,以最大后驗(yàn)概率為準(zhǔn)則來找到識別結(jié)果。在本系統(tǒng)中采用25幀/s的視頻輸入,,來分析視頻序列中人體的行為,,同時(shí)驗(yàn)證本文識別系統(tǒng)的識別準(zhǔn)確率。圖7為對人體“站立”行為的識別,,圖8為對人體“蹲下”行為的識別,。從圖中可以看出,采用的基于統(tǒng)計(jì)學(xué)的行為識別模型能夠很好地識別不同時(shí)刻人的同一行為,。
在整個(gè)小男孩的行為識別過程中,,由于存在許多相關(guān)因素的影響,會出現(xiàn)識別錯(cuò)誤的情況,。本文在整個(gè)跟蹤過程中統(tǒng)計(jì)了跟識別錯(cuò)誤率,,其結(jié)果如圖9所示。從圖9可以看出,,隨著跟蹤處理幀數(shù)的增加,,跟蹤錯(cuò)誤率總圍繞某一值上下波動,本文統(tǒng)計(jì)跟蹤錯(cuò)誤率大約是18%,。
從時(shí)間復(fù)雜度方面考慮,,整個(gè)系統(tǒng)包括兩個(gè)部分:(1)離線的未知行為確定和行為模式學(xué)習(xí)系統(tǒng);(2)在線的行為識別系統(tǒng),。對于在線系統(tǒng),,其行為識別算法采用應(yīng)用比較廣泛的Viterbi算法。因?yàn)槔萌怕使诫m然可以計(jì)算系統(tǒng)的輸出概率,,但無法找到一條最佳的狀態(tài)轉(zhuǎn)移路徑,。而Viterbi算法,不僅可找到一條足夠好的轉(zhuǎn)移路徑,,而且可得到該路徑對應(yīng)的輸出概率,。同時(shí),Viterbi算法計(jì)算輸出概率所需要的計(jì)算量要比全概率公式的計(jì)算量小很多,。這些可以說明本文的行為識別系統(tǒng)實(shí)時(shí)性較好,,識別算法時(shí)間復(fù)雜度小。對于離線系統(tǒng),,仿真試驗(yàn)已經(jīng)驗(yàn)證了對未知行為的確定能力和行為模式的學(xué)習(xí)能力,,而且離線系統(tǒng)對實(shí)時(shí)性要求較低。
本文的重點(diǎn)是對視頻流中人體行為識別的研究,,這是計(jì)算機(jī)視覺中一個(gè)重要的研究領(lǐng)域之一,。仿真實(shí)驗(yàn)演示了視頻監(jiān)控中人體行為識別的全過程,,提出了用背景邊緣模型來提取前景圖像,從仿真實(shí)驗(yàn)可看出此方法有較好的提取效果,,而且能夠有效避免光照和陰影等外部因素的影響,。此外,在行為識別方面,,應(yīng)用NDP_iHMM來確定行為狀態(tài)數(shù),在狀態(tài)數(shù)確定以后將無限iHMM變成有限HMM,,這樣提高了系統(tǒng)的普適性,,通過iHMM與HMM結(jié)合,解決了在系統(tǒng)行為狀態(tài)可變情況下的人體行為識別問題,。
參考文獻(xiàn)
[1] 王亮,,胡衛(wèi)明,譚鐵牛.人運(yùn)動的視覺分析綜述[J].計(jì)算機(jī)學(xué)報(bào),,2005,,25(3).
[2] CUI Y, WENG J. Hand segmentation using learning-based prediction and verification for hand sign recognition[C]. Proceedinys of IEEE Conference on Computer Vision and Pattern Recognition,, Puerto Rico,, 1997: 88-93.
[3] POLANA R, NELSON R. Low level recognition of human motion[C]. Proceedinys of IEEE Workshop on Motion of Non-Rigid and Articulated Objects,, Austin,, TX, 1994: 77-82.
[4] BOBICK A,, DAVIS J. Real-time recognition of activity using temporal templates[C]. Proceedinys of IEEE Workshop on Applications of Computer Vision, Sarasota,, Florida,, 1996: 39-42.
[5] DAVIS J, BOBICK A. The representation and recognition of action using temporal templates[R]. MIT Media Lab,, Perceptual Computing Group, Technical report: 1997: 402.
[6] XIANG Tao,, GONG Shao Gang . Video behavior profiling for anomaly detection[J]. IEEE Transactions On Pattern Analysis and Machine Intelligence, 2008,, 30(5):893-908.