文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2015)05-0159-04
0 引言
早期交通視頻的分類(lèi)方法[1]是使用車(chē)輛分割或目標(biāo)跟蹤技術(shù)的方法進(jìn)行判別分類(lèi),但是由于這種方法計(jì)算量較為復(fù)雜且對(duì)視頻分辨率有較高的要求,,所以不適合多目標(biāo)情況下的分類(lèi)應(yīng)用,。Saisan等人提出一種基于動(dòng)態(tài)紋理模型參數(shù)間距離的識(shí)別方法,,這種方法不需要提取局部特征,,而是將圖像序列看作是一個(gè)二階平穩(wěn)隨機(jī)過(guò)程,。基于此,,Antoni在文獻(xiàn)[2]中提出了基于動(dòng)態(tài)紋理模型的交通視頻分類(lèi)方法,,對(duì)已知的交通圖像序列進(jìn)行模型參數(shù)化,根據(jù)模型參數(shù)計(jì)算各模型間Martin距離[3]實(shí)現(xiàn)對(duì)交通視頻的檢索和分類(lèi),。然而,,由于視頻數(shù)據(jù)的動(dòng)態(tài)短暫性,使得對(duì)傳統(tǒng)采樣方法的采樣率的要求隨之變高,,且采樣獲得的視頻數(shù)據(jù)量大,,不便于儲(chǔ)存。近年來(lái),,高速發(fā)展的壓縮技術(shù)很好地解決了這一問(wèn)題,。壓縮感知[4]是美國(guó)科研學(xué)者Donoho提出的一種新的采樣方法,即當(dāng)信號(hào)為稀疏或可稀疏信號(hào)時(shí),,能夠通過(guò)獲得的隨機(jī)采樣少量數(shù)據(jù)實(shí)現(xiàn)對(duì)原始信號(hào)的精確重構(gòu),。該文方法在視頻傳統(tǒng)分類(lèi)方法的基礎(chǔ)上結(jié)合了壓縮采樣技術(shù),首先,,對(duì)每幀圖像用統(tǒng)一壓縮測(cè)量矩陣進(jìn)行觀(guān)測(cè),,利用得到的測(cè)量數(shù)據(jù)通過(guò)奇異值分解的方法估計(jì)出模型的動(dòng)態(tài)參數(shù);其次,,使用一個(gè)時(shí)變的測(cè)量矩陣對(duì)每幀圖像進(jìn)行測(cè)量,,由于得到測(cè)量數(shù)據(jù)之間的不相關(guān)性質(zhì),結(jié)合已估計(jì)得到的模型動(dòng)態(tài)參數(shù),,通過(guò)求解一個(gè)凸優(yōu)化問(wèn)題估計(jì)出系統(tǒng)模型的靜態(tài)參數(shù),;最后,通過(guò)壓縮測(cè)量數(shù)據(jù)直接得到的模型參數(shù)進(jìn)行模式判別,,從而實(shí)現(xiàn)低采樣率下的交通視頻分類(lèi),。
1 動(dòng)態(tài)紋理模型與距離度量
1.1 線(xiàn)性動(dòng)態(tài)系統(tǒng)
線(xiàn)性動(dòng)態(tài)系統(tǒng)(LDS)模型是Soatto等人[5]提出的用來(lái)描述動(dòng)態(tài)紋理變化特征的模型,其主要目的是通過(guò)建立一個(gè)數(shù)學(xué)模型來(lái)描述一個(gè)物理系統(tǒng)的動(dòng)態(tài)特征,,圖像序列的動(dòng)態(tài)紋理模型可定義如下:
1.2 Martin距離
將動(dòng)態(tài)紋理的模型參數(shù)A,、C組成一個(gè)新的變量M=(A,C),,并生成一個(gè)拓展的觀(guān)測(cè)矩陣,,如下所示:
其中θi表示拓展觀(guān)測(cè)矩陣On(M1)和On(M2)之間的第i個(gè)主角。馬氏距離的大小代表了兩個(gè)紋理模型之間的相似程度,,通過(guò)計(jì)算馬氏距離能夠?qū)煌ㄒ曨l進(jìn)行分類(lèi),,其分類(lèi)框架如圖1所示。
2 視頻壓縮感知與模型參數(shù)估計(jì)
2.1 視頻壓縮感知
其中zt,、Φt,、yt分別表示t時(shí)刻的壓縮測(cè)量值,、測(cè)量矩陣以及原始視頻幀。式(9)是一個(gè)凸優(yōu)化規(guī)劃問(wèn)題,,當(dāng)yt為稀疏信號(hào)時(shí),,使用L1-Minimization算法求其最優(yōu)解就能夠精確恢復(fù)原始視頻幀,即少量的隨機(jī)采樣數(shù)據(jù)已經(jīng)包含了原始視頻幀的足夠信息,?;诖耍疚慕Y(jié)合視頻壓縮感知技術(shù),,對(duì)交通視頻信號(hào)進(jìn)行壓縮采樣,,從少量采樣數(shù)據(jù)中直接估計(jì)模型參數(shù),實(shí)現(xiàn)交通視頻的分類(lèi)(2.2節(jié)將作詳細(xì)討論),,降低了硬件系統(tǒng)編碼端的結(jié)構(gòu)復(fù)雜度,。其分類(lèi)框架如圖2所示。
2.2 模型參數(shù)估計(jì)
2.2.1 狀態(tài)轉(zhuǎn)移矩陣的估計(jì)
3 實(shí)驗(yàn)結(jié)果與分析
本文從網(wǎng)站[8]下載得到交通視頻樣本數(shù)據(jù)庫(kù),,數(shù)據(jù)庫(kù)是由西雅圖高速公路上固定相機(jī)拍攝的254個(gè)視頻數(shù)據(jù)組成,,數(shù)據(jù)庫(kù)中考慮了多種天氣條件(下雨、晴天,、陰天)下的交通視頻數(shù)據(jù),為了更方便有效地進(jìn)行實(shí)驗(yàn)測(cè)試,,本文將下載得到視頻數(shù)據(jù)庫(kù)中的視頻數(shù)據(jù)進(jìn)行像素修剪,將每個(gè)視頻數(shù)據(jù)體素變?yōu)?4×64×40的灰度數(shù)據(jù),。為了證明本文方法能夠有效估計(jì)出交通視頻信號(hào)的動(dòng)態(tài)紋理模型參數(shù),,本文選取編號(hào)為“cctv052x2004080516x01638”的交通視頻序列作為實(shí)驗(yàn)樣本,通過(guò)本文提出的方法對(duì)視頻序列進(jìn)行參數(shù)估計(jì),,其中本文方法參數(shù)設(shè)置如下:d=10,,comp=5,稀疏基選擇為小波基,,其中comp表示壓縮采樣比,,仿真得到如圖5的實(shí)驗(yàn)結(jié)果圖,其中圖(a)為原始交通視頻序列,,圖(b)為根據(jù)本文方法(CS-DTC)估計(jì)得到模型參數(shù)恢復(fù)的交通視頻序列,。
通過(guò)上面的實(shí)驗(yàn)結(jié)果可知,本方法能有效估計(jì)出交通視頻序列的模型參數(shù)A,、C,。為了更為直觀(guān)看出本文方法對(duì)交通視頻有較好的分類(lèi)效果,對(duì)通過(guò)下載得到的254個(gè)視頻樣本進(jìn)行分類(lèi)測(cè)試,,視頻庫(kù)已經(jīng)通過(guò)人工標(biāo)記,,其中包含44個(gè)重度(heavy)交通視頻(車(chē)流量較大,車(chē)流速度緩慢或停止)、45個(gè)中度(medium)交通視頻(車(chē)流量一般,,車(chē)流程減速運(yùn)動(dòng)),、165個(gè)輕度(light)交通視頻樣本(車(chē)輛量較少,車(chē)流程勻速運(yùn)動(dòng)),。本文將75%的數(shù)據(jù)作為實(shí)驗(yàn)的訓(xùn)練樣本,,25%的數(shù)據(jù)作為測(cè)試視頻樣本,,本文方法設(shè)置參數(shù):采樣壓縮比comp分別取2,、5、10,,繪制多條曲線(xiàn),,并通過(guò)本文方法計(jì)算得到模型參數(shù),采用馬氏距離為度量對(duì)測(cè)試樣本進(jìn)行分類(lèi),,仿真結(jié)果見(jiàn)圖6,,其中橫坐標(biāo)為拓展觀(guān)測(cè)矩陣On(M)的參數(shù)n, 縱坐標(biāo)表示分類(lèi)正確率,。從圖6中可以看出,,當(dāng)壓縮比comp小于5時(shí),本文方法在降低采樣率的同時(shí)不會(huì)明顯影響交通視頻的識(shí)別率,,而隨著壓縮比的繼續(xù)增大,,由于大幅降低了圖像序列的采樣率數(shù)目,本文方法在識(shí)別率上整體低于傳統(tǒng)全采樣方法,。
本文通過(guò)更改狀態(tài)向量維數(shù)d的大小,,比較傳統(tǒng)方法和本文方法對(duì)交通視頻數(shù)據(jù)的識(shí)別正確率,其中本文方法的參數(shù)設(shè)置為:仿真結(jié)果比較如表1所示,。從表1中可以看出,,狀態(tài)向量的維數(shù)大小也會(huì)影響分類(lèi)的正確性,狀態(tài)向量維數(shù)過(guò)小,,其攜帶的信息量也少,,會(huì)影響分類(lèi)的正確率;反之狀態(tài)向量維數(shù)過(guò)大,,在攜帶不必要信息的同時(shí)也會(huì)增大計(jì)算的復(fù)雜度,,所以在實(shí)際應(yīng)用過(guò)程中應(yīng)該合適地選擇狀態(tài)向量維數(shù)d的值,以獲得更好的分類(lèi)效果,。
為了直觀(guān)有效地看出本文方法能夠有效降低采樣率,,并且不明顯影響分類(lèi)效果,本文選擇合適的仿真參數(shù):通過(guò)調(diào)整不同采樣壓縮比comp下估計(jì)出模型參數(shù)分別進(jìn)行試驗(yàn)比較,,試驗(yàn)結(jié)果如表2所示,。從試驗(yàn)結(jié)果可以看出,本文方法在較低的采樣率下依然能夠有不錯(cuò)的分類(lèi)效果,。
4 結(jié)論
該文根據(jù)交通視頻信號(hào)的紋理模型特性,,在估計(jì)模型參數(shù)的過(guò)程中引入了壓縮感知技術(shù),,通過(guò)壓縮采樣得到少量的測(cè)量值,由少量的測(cè)量值直接估計(jì)出紋理模型參數(shù),,根據(jù)模型參數(shù)對(duì)交通視頻數(shù)據(jù)進(jìn)行計(jì)算分類(lèi),。實(shí)驗(yàn)結(jié)果表明,相比于傳統(tǒng)方法,,本文方法不僅能夠在非常低的采樣率下較為準(zhǔn)確地估計(jì)出模型參數(shù),,且整個(gè)識(shí)別過(guò)程都不需要對(duì)視頻信號(hào)進(jìn)行重構(gòu),為預(yù)報(bào)和緩解交通擁堵現(xiàn)象提供了有利的條件,,本文方法在視頻紋理識(shí)別的其他領(lǐng)域也有著非常廣泛的應(yīng)用前景,。
參考文獻(xiàn)
[1] JUNG Y K,LEE K W,,HO Y S.Content-based event retrieval using semantic scene interpretation for automated traffic surveillance[J].IEEE Transactions on Intelligent Transportation Systems,,2001,2(3):151-163.
[2] CHAN A B,,VASCONCELOS N.Classification and retrieval of traffic video using auto-regressive stochastic processes[C].Intelligent Vehicles Symposium.Proceedings.IEEE,,2005:771-776.
[3] MARTIN R J.A metric for ARMA processes[J].IEEE Transactions on Signal Processing,2000,,48(4):1164-1170.
[4] QAISAR S,,BILAL R M,IQBAL W,,et al.Compressive sensing:From theory to applications,,a survey[J].Communications and Networks,Journal of,,2013,,15(5):443-456.
[5] SOATTO S,DORETTO G,,WU Y N.Dynamic textures[C].Proceedings of IEEE International Conference on Computer Vision.Vancouver,,IEEE Press,British Columbia,,Canada:2001,,2:439-446.
[6] DE COCK K,DE MOOR B L R.Subspace angles between linear stochastic models[C].IEEE Conference on Decision and Control.Sydney,,NSW.2000,,2:1561-1566.
[7] STANKOVIC V,STANKOVIC L,,CHENG S.(2009) Compressive video sampling[C].Proceedings of the 16th IEEE International Conference on Image Processing.IEEE,,2009:3001-3004.
[8] VISAL.Highway traffic dataset[DB/OL].http://visal.cs.cityu.edu.hk/downloads.
[9] SANKARANARAYANAN A C,TURAGA P K,CHELLAPPA R,,et al.Compressive acquisition of linear dynamical systems[J].SIAM Journal on Imaging Sciences,,2013,6(4):2109-2133.