郭俊,,王平
?。ㄎ魅A大學(xué) 電氣與電子信息學(xué)院,四川 成都610039)
摘要:提出了一種改進(jìn)的混合高斯背景模型方法,,克服了傳統(tǒng)混合高斯背景建模方法計(jì)算時(shí)間長的缺點(diǎn),。通過對視頻圖像中運(yùn)動(dòng)目標(biāo)區(qū)域進(jìn)行背景建模,減小了每一幀的背景建模區(qū)域,,同時(shí)在提取運(yùn)動(dòng)目標(biāo)區(qū)域前先對初提取的前景目標(biāo)進(jìn)行中值濾波,,減小運(yùn)動(dòng)目標(biāo)區(qū)域的范圍,進(jìn)一步壓縮了背景建模的時(shí)間,。最后通過與時(shí)間平均背景建模和傳統(tǒng)混合高斯背景建模方法進(jìn)行比較,,驗(yàn)證了本文算法的高效性,。
關(guān)鍵詞:運(yùn)動(dòng)目標(biāo)檢測;運(yùn)動(dòng)目標(biāo)區(qū)域,;背景減除法,;混合高斯背景模型
0引言
視頻圖像運(yùn)動(dòng)目標(biāo)檢測就是將運(yùn)動(dòng)目標(biāo)從視頻序列圖像背景中分離出來,是運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤的基礎(chǔ)[12],。其中圖像序列中有運(yùn)動(dòng)目標(biāo)經(jīng)過的區(qū)域稱為前景,,其余部分為背景。高效而準(zhǔn)確地檢測并提取前景目標(biāo)是視頻圖像運(yùn)動(dòng)目標(biāo)分析技術(shù)的核心部分之一,,也是計(jì)算機(jī)視覺和圖像理解的熱點(diǎn)和難點(diǎn)之一,。
目前常用的檢測算法有三種:幀差分法[3]、光流法[4]以及背景減除法[5],。幀差分法比較適用于分析簡單場景,,并且提取到的目標(biāo)不完整,一般用來進(jìn)行初提取工作,;而光流法往往采用迭代法進(jìn)行計(jì)算,,且對光照、陰影等比較敏感,,使用范圍比較?。欢尘皽p除法操作簡單,,建模方式多種多樣,,所以使用最為廣泛。背景減除法將新一幀圖像與所建立的背景模型進(jìn)行比較,,若相同位置的像素灰度值的差大于提前設(shè)置的閾值,,則認(rèn)為這個(gè)像素點(diǎn)來自于前景,否則是背景,。而一幅圖片中所有來自前景的坐標(biāo)就構(gòu)成了前景區(qū)域,。背景減除法的核心技術(shù)在于背景模型的建立和更新,不同的背景建模方式產(chǎn)生的處理時(shí)間和處理效果各不相同,。STAUFFER C等人提出的混合高斯背景建模方法[67]是目前較為成功的方法之一,。它的理論依據(jù)在于不同的圖片中相同坐標(biāo)處的像素值必然服從于一個(gè)或者多個(gè)高斯分布,通過對每個(gè)坐標(biāo)處建立幾個(gè)高斯函數(shù),,能有效地建立一個(gè)具有很高魯棒性的背景模型,。當(dāng)然由此也造成了該方法計(jì)算的復(fù)雜性。
本文通過減小背景建模區(qū)域來達(dá)到縮短檢測時(shí)間的目的,,通過幀差分法對運(yùn)動(dòng)前景區(qū)域進(jìn)行初提取,,通過膨脹和腐蝕等形態(tài)學(xué)操作[8]使離散的前景像素點(diǎn)合并為一塊或者幾塊區(qū)域,然后對這些區(qū)域進(jìn)行混合高斯背景建模,,能較好地減小算法的計(jì)算量,,同時(shí)也能達(dá)到同樣的檢測效果,。
1傳統(tǒng)混合高斯背景建模理論
參考文獻(xiàn)[2]中使用M個(gè)高斯函數(shù)構(gòu)成的混合高斯背景模型來表示一個(gè)坐標(biāo)處像素在時(shí)間域上的概率分布,記t時(shí)刻坐標(biāo)(x,y)處像素灰度值為ft(x,y),,則坐標(biāo)(x,y)處像素灰度值為ft(x,y)的概率P(ft)用式(1)表示:
式中M是高斯模型的個(gè)數(shù),,ωl為第l個(gè)高斯分布的權(quán)重,ηl(ft,μl,t,σl,t)是第l個(gè)高斯密度函數(shù),,用式(2)表示:
式中μl,t是該高斯分布的均值,σl,t是方差,。
判定原則如下:對于待檢測圖片中的ft(x,y),,求出能代表其背景分布的M個(gè)高斯函數(shù),將這些函數(shù)按ω/σ值的大小排序,,取比值大的前B個(gè)高斯函數(shù)組成該點(diǎn)背景的混合高斯模型,,如果ft(x,y)與其該背景模型中的第k(k≤B)個(gè)高斯分布匹配,則認(rèn)為該點(diǎn)是背景,,否則為前景,。匹配準(zhǔn)則如下:
式中λ來自于經(jīng)驗(yàn)。
背景更新:新一幀圖像檢測完成后,,若ft(x,y)被認(rèn)為來自于前景,,也就是說該點(diǎn)對應(yīng)模型的前B個(gè)高斯分布中沒有一個(gè)與之匹配,則用一個(gè)新的高斯分布來替換ω/σ值最小的那個(gè)分布,,其均值為ft(x,y),,并賦予一個(gè)較大的方差和較小的權(quán)重。
參數(shù)更新:
與ft(x,y)匹配的高斯函數(shù)按下式更新:
圖3對視頻ccbr.avi進(jìn)行的算法仿真結(jié)果圖不能與ft(x,y)匹配的高斯函數(shù)按下式更新:
ω′l(x,y)=(1-α)ωl(x,y)(7)
然后歸一化權(quán)值,。式中α,、ρ為學(xué)習(xí)速度,來自于經(jīng)驗(yàn),。
2改進(jìn)的混合高斯背景建模
需要檢測的視頻里面每一幀圖像只有部分區(qū)域中存在運(yùn)動(dòng)目標(biāo),,常用的混合高斯背景模型都是對整幅圖像進(jìn)行背景建模,其中很大一部分是沒有必要的,,本文則是提前將視頻圖像中有運(yùn)動(dòng)前景的區(qū)域提取出來并通過膨脹和腐蝕操作確保提取的前景區(qū)域一定包括了運(yùn)動(dòng)前景,,然后對運(yùn)動(dòng)前景區(qū)域進(jìn)行混合高斯背景建模,進(jìn)而提取出運(yùn)動(dòng)前景,。
提取運(yùn)動(dòng)前景區(qū)域采用幀差法,,其包括兩幀幀差法和三幀幀差法,其中三幀幀差法提取到的只有運(yùn)動(dòng)前景的一部分,,比較之下,,本文采用兩幀幀差法提取,并通過形態(tài)學(xué)操作,,得到運(yùn)動(dòng)前景區(qū)域,,通過C4模塊進(jìn)行存儲(chǔ),,然后利用混合高斯背景建模模塊,只對提取出的前景區(qū)域進(jìn)行處理,,得到運(yùn)動(dòng)前景,。改進(jìn)的基于混合高斯背景建模的運(yùn)動(dòng)目標(biāo)檢測的設(shè)計(jì)流程圖如圖1所示。
首先記t時(shí)刻和t+1時(shí)刻輸入的連續(xù)兩幀圖像分別為x和y,,灰度化處理分別記為m和n,,然后將m和n數(shù)據(jù)類型轉(zhuǎn)化為雙精度型,并存儲(chǔ)到q和w中,,記c(i,j)=|q(i,j)-w(i,j)|,根據(jù)c(i,j)與設(shè)置的閾值th比較分析,,判斷該像素點(diǎn)是前景還是背景。整幅圖片處理完成后即得到初提取的前景二值圖像C,,對圖像C采用3×3中值濾波[6]處理,,然后進(jìn)行膨脹和閉運(yùn)算操作,得到初提取的前景區(qū)域C3,,并最終將前景區(qū)域信息存儲(chǔ)到文件C4中,,即完成了對運(yùn)動(dòng)目標(biāo)區(qū)域的提取操作。然后混合高斯背景建模模塊對原始視頻的C4前景區(qū)域進(jìn)行背景建模,,最終完成對前景圖像的準(zhǔn)確提取,。
3結(jié)果分析
本實(shí)驗(yàn)采用MATLAB 2014a進(jìn)行編程,并在Inter 3.4 GHz處理器,、4 GB內(nèi)存的PC上進(jìn)行仿真,,使用的視頻速率為20幀/s,原始經(jīng)典混合高斯背景建模和改進(jìn)后的混合高斯背景建模所選高斯函數(shù)均為4個(gè),,初始標(biāo)準(zhǔn)差為6,,前景閾值th=λσk,λ=2.5,,學(xué)習(xí)率α=0.01,,方差學(xué)習(xí)率ρ=0.03。視頻首先經(jīng)過C4區(qū)域提取模塊,,提取出運(yùn)動(dòng)目標(biāo)區(qū)域,,然后背景建模模塊通過對C4區(qū)域進(jìn)行前景提取,最后檢測出運(yùn)動(dòng)前景二值圖像[9],,并將結(jié)果由四個(gè)輸出視頻(原始視頻,、灰度處理視頻、前景區(qū)域視頻和前景二值圖像視頻)顯示出來,。本文實(shí)驗(yàn)共采用了三種方法進(jìn)行仿真模擬:時(shí)間平均模型法[1],、混合高斯模型法以及本文所介紹方法,對復(fù)雜背景視頻Traffic.avi和簡單背景視頻ccbr.avi進(jìn)行了處理,,圖2和圖3分別是選擇Traffic.avi的第175幀圖像和ccbr.avi的第50幀進(jìn)行算法仿真的結(jié)果從圖中可以看出,,本實(shí)驗(yàn)完全能達(dá)到混合高斯模型的效果,,而從表1的分析數(shù)據(jù)可以看出,本實(shí)驗(yàn)所用時(shí)間遠(yuǎn)遠(yuǎn)小于傳統(tǒng)的混合高斯背景建模法,。
從實(shí)驗(yàn)數(shù)據(jù)可以看出,,通過對運(yùn)動(dòng)物體運(yùn)動(dòng)區(qū)域的提取來進(jìn)行混合高斯背景建模可以有效縮短前景提取時(shí)間,,而且越是簡單的背景,,節(jié)約的處理時(shí)間越明顯。
4結(jié)論
本文為了克服傳統(tǒng)混合高斯模型方法計(jì)算量大的缺點(diǎn),,提出了對運(yùn)動(dòng)目標(biāo)所在區(qū)域建立背景模型的方法,,通過與時(shí)間平均模型和混合高斯模型進(jìn)行實(shí)驗(yàn)仿真對比,結(jié)果證明了本文所用方法的有效性,。
參考文獻(xiàn)
[1] 趙春暉,潘泉,梁彥,等.視頻圖像運(yùn)動(dòng)目標(biāo)分析[M]. 北京:國防工業(yè)出版社, 2011.
?。?] 杜文略,劉建梁,沈三民,,等.基于FPGA的運(yùn)動(dòng)目標(biāo)檢測系統(tǒng)設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2014,40(11):3638,42.
[3] LIPON A, FUJIYOSHI H,,PATIL R. Moving target classification and tracking from real time video [C].Proceedings of IEEE Workshop Applications of Computer Vision,,Los Alamitos,CA,,1998:814.
?。?] BROX T, BRUHN A, PAPENBERG N, et al. High accuracy optical flow estimation based on a theory for warping[C]. Proceedings of 8th European Conference on Computer Vision, 2004:2536.