文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.190356
中文引用格式: 張?zhí)祜w,,龍海燕,丁嬌,,等. 基于目標多區(qū)域分割的抗干擾跟蹤算法研究[J].電子技術應用,,2019,45(10):37-39,,44.
英文引用格式: Zhang Tianfei,,Long Haiyan,Ding Jiao,,et al. Research on anti-jamming tracking algorithm based on multi-region segmentation of target[J]. Application of Electronic Technique,,2019,45(10):37-39,,44.
0 引言
隨著計算機技術及數(shù)字圖像處理技術的快速發(fā)展,,基于視頻序列的運動目標檢測與跟蹤是計算機視覺的一個重要的研究方向,目前已被廣泛的應用于各個領域,,如智能交通,、視頻監(jiān)控、無人機跟蹤,、人機交互等,,實現(xiàn)了用計算機代替人眼對外界物體的運動進行智能分析,為人們的生活和工作提供了很大的便利[1-2]。近年來各種目標檢測與目標跟蹤的技術已日趨成熟,,有基于顏色信息進行跟蹤的方法,,如Mean Shift算法[3-5]、模糊C均值聚類[6-9],;有基于紋理的方法,,如核相關濾波算法(Kernerlized Correlation Filter,KCF)[10-14],、尺度空間判別跟蹤算法(Discriminative Scale Space Tracking,,DSST)[15]。目前很多跟蹤方法也將深度學習的思路融入其中[16-18],,并且取得了長足的進步,。
視頻序列中目標跟蹤的難點在于目標移動過程中可能出現(xiàn)被其他物體遮擋、目標形狀發(fā)生變化以及目標發(fā)生旋轉等情況,,從而造成跟蹤失敗,。本文通過對目標分割成多個區(qū)域分別跟蹤以及采用多個區(qū)域的模板分別更新這兩個策略以期望算法能夠在一定程度上容忍目標在移動過程中出現(xiàn)的形變和部分遮擋情況。實驗結果證明所采用的方法達到了預期,。
接下來,,本文將分別介紹算法的模板更新策略以及定位策略。
1 目標多區(qū)域分割跟蹤方法
在實際場景中,,經常會遇到目標在移動過程中由于視角的變化等原因導致目標形態(tài)發(fā)生變化,,以及由于目標在移動過程中被其他物體遮擋等原因導致目標只有部分區(qū)域出現(xiàn)在圖像中,這些都會導致跟蹤算法性能降低,。針對此種情況,,本文提出了一種新的搜索定位方法,,即對目標中的多個區(qū)域進行跟蹤,,此方法可以在一定程度上解決由于目標部分遮擋以及形變等原因造成跟蹤算法性能下降的問題。
1.1 模板選擇策略
目前將目標分割為多個區(qū)域主要有兩種劃分方法,,分別是劃分為相互重疊的區(qū)域以及劃分為相互不重疊的區(qū)域,。將目標劃分為相互不重疊的區(qū)域,可以簡化計算,;將目標劃分為相互重疊的區(qū)域,,可以增加目標可用區(qū)域,使得選取的目標區(qū)域位置更加合理,。本文選擇對目標劃分為部分相互重疊的區(qū)域,,其中重疊率為50%,如圖1所示,,其中,,陰影部分為相鄰模塊的重疊區(qū)域。
在得到目標的多個區(qū)域位置后,對目標區(qū)域進行篩選,。首先利用式(1)計算目標區(qū)域特征,,篩選的準則是特征穩(wěn)定且特征盡可能大的區(qū)域。
其中,,fbi表示第i個區(qū)域的特征值,;ω表示區(qū)域距離中心的權重信息,距離中心越遠權重越小,,反之越大,;fi表示目標的紋理特征值(由n個子特征值組成,第k的子特征值為xk),,特征值越大表示是目標的可能性就越大,,跟蹤過程中此特征就越穩(wěn)定。將式(1)計算得到的多個區(qū)域值按fbi特征值由大到小進行排序,,然后選擇其中3個區(qū)域作為定位區(qū)域,,另外將目標中心區(qū)域一同作為定位區(qū)域使用,這樣最終獲得了4個定位區(qū)域,??紤]到所選區(qū)域的多樣性,在進行區(qū)域選擇時,,盡量不要選擇距離很近的兩個區(qū)域作為定位區(qū)域,。
1.2 搜索定位策略
接下來的問題是如何找到兩個目標的相似性。計算目標相似性本文使用的是相關濾波的方法,,見式(2),,值越小表示相似度越高。
算法中為了增加抗干擾性能,,使用了多個區(qū)域對目標進行定位,,通過式(3)計算整個目標區(qū)域的相關性。
式中,,λbi表示第i個區(qū)域對整個結果的重要性,,可以用高斯濾波表示。為了使得計算結果更加穩(wěn)定且準確,,在確定λbi值時需要注意:目標中心區(qū)域中的λbi所占的比重會比周圍的區(qū)域大,,另外區(qū)域特征值越大,給出的λbi也會越大,。
1.3 模板更新策略
模板是直接影響下一幀搜索結果的一個很重要的因素,,若模板選擇不合理,將會導致跟蹤結果出現(xiàn)偏差,,甚至跟蹤到完全錯誤的物體上,。根據實驗可知,,如果模板每幀都在更新,若出現(xiàn)遮擋等情況時,,就會造成模板被污染,,導致跟蹤失敗。本文中,,模版更新采用不同的目標區(qū)域,,其更新的權重不同,這樣可以使得模板更新相對精確,,從而避免由于遮擋等原因造成誤更新問題,。模板更新公式如下:
2 實驗結果分析
KCF是目前跟蹤算法相對比較出色的一種相關濾波算法,采用脊回歸以及循環(huán)卷積等方法取得了較好的跟蹤效果,。下述實驗將KCF與本文提出的方法進行對比分析,,如圖2所示。
圖2中,,虛線框代表KCF跟蹤效果,,實線框代表本文算法,在跟蹤過程未遇到障礙物之前KCF方法與本文算法跟蹤效果類似,,都能相對準確地跟蹤到目標,;當障礙物剛開始遮擋目標時,KCF方法也可以跟蹤到目標,,但是偏差會越來越大,,本文方法可以相對準確地跟蹤部分遮擋的目標;當目標從障礙物的另一個方向出現(xiàn)時,,KCF并沒有及時地跟蹤到目標,,但是本文方法能夠跟蹤到目標,這主要得益于本文方法使用的多區(qū)域跟蹤以及多幀更新模板的策略,。
由上述實驗結果可以看出,,本文對于跟蹤目標的形變以及遮擋等情況有一定的抗干擾能力。
3 結論
目標跟蹤過程中,,本文使用的多區(qū)域目標跟蹤策略以及不同權重的多幀更新模板策略在一定程度上可以減少由于目標形變以及障礙物遮擋造成的跟蹤丟失的情況,,即具有一定的魯棒性,能夠較好地實現(xiàn)目標的實時跟蹤,。
參考文獻
[1] 袁寶紅.基于視頻的運動目標檢測與跟蹤研究[D].合肥:安徽大學,2014.
[2] 祁淑霞.基于形狀上下文和粒子濾波的多目標跟蹤[J].電子技術應用,,2015,,41(1):156-160.
[3] VOJIR T,NOSKOVA J,,MATAS J.Robust scale-adaptive mean-shift for tracking[C].SCIA,,2013:652-663.
[4] 李紅波,,曾德龍,吳渝.基于Mean-Shift和粒子濾波的兩步多目標跟蹤方法[J].重慶郵電大學學報(自然科學版),,2010(1):112-117,,121.
[5] 周楊,胡桂明,,黃東芳.基于邊緣自適應的Mean Shift目標跟蹤方法[J].電子技術應用,,2017(5):138-142.
[6] 王小鵬,張永芳,,王偉,,等.基于自適應濾波的快速廣義模糊C均值聚類圖像分割[J].模式識別與人工智能,2018,,31(11):1040-1046.
[7] 郝慧娟,,許繼勇,劉廣起.基于自適應分塊的視頻目標跟蹤方法研究[J].計算機應用研究,,2010,,27(9):3579-3580,3590.
[8] 許辰銘.視頻圖像中的運動目標檢測與跟蹤[D].南京:南京郵電大學,,2012.
[9] HENRIQUES J F,,CASEIRO R,MARTINS P,,et al.High-speed tracking with kernelized correlation filters[J].TPAMI,,2015,37(3):583-596.
[10] HENRIQUES J F,,CASEIRO R,,MARTINS P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C].ECCV,,2012.
[11] 劉延飛,,何燕輝,張薇,,等.基于異常值檢測的KCF目標丟失預警方法研究[J].計算機工程與應用,,2018,54(22):216-222.
[12] DANELLJAN M,,H?魧GER G,,KHAN F S,et al.Accurate scale estimation for robust visual tracking[C].Proceedings of the British Machine Vision Conference(BMVC),,2014.
[13] DANELLJAN M,,H?魧GER G,KHAN F S,,et al.Michael felsberg. discriminative scale space tracking[J].TPAMI,,2017,,39(8):1561-1575.
[14] 馬曉虹,尹向雷.基于相關濾波器的目標跟蹤方法綜述[J].電子技術應用,,2018,,44(6):3-7,14.
[15] NAM H,,HAN B.Learning multi-domain convolutional neural networks for visual tracking[C].CVPR,,2016.
[16] BERTINETTO L,VALMADRE J,,HENRIQUES J F,,et al.Fully-convolutional siamese networks for object tracking[C].ECCV,2016.
[17] HELD D,,THRUN S,,SAVARESE S.Learning to track at 100 fps with deep regression networks[C].ECCV,2016.
[18] 黃睿,,陸許明,,鄔依林.基于TensorFlow深度學習手寫體數(shù)字識別及應用[J].電子技術應用,2018,,44(10):6-10.
作者信息:
張?zhí)祜w,,龍海燕,丁 嬌,,張 磊
(安徽信息工程學院,,安徽 蕪湖241000)