《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究
基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究
2019年電子技術(shù)應(yīng)用第10期
張?zhí)祜w,,龍海燕,,丁 嬌,張 磊
安徽信息工程學(xué)院,,安徽 蕪湖241000
摘要: 針對(duì)視頻序列中運(yùn)動(dòng)目標(biāo)跟蹤過(guò)程中可能出現(xiàn)的目標(biāo)旋轉(zhuǎn),、遮擋,、形變等原因造成的跟蹤失敗問(wèn)題,提出了一種基于目標(biāo)多區(qū)域分割的跟蹤方法,。主要通過(guò)將目標(biāo)劃分為多個(gè)部分相互重疊的區(qū)域,,然后選擇跟蹤過(guò)程中相對(duì)穩(wěn)定的多個(gè)區(qū)域進(jìn)行定位,進(jìn)而對(duì)跟蹤的目標(biāo)采用不同目標(biāo)區(qū)域權(quán)重更新不同的模板更新策略,這樣選擇主要可以增加算法的抗遮擋,、抗旋轉(zhuǎn)能力,。實(shí)驗(yàn)結(jié)果表明,該方法對(duì)目標(biāo)遮擋,、旋轉(zhuǎn)等具有一定的適應(yīng)能力,。
中圖分類號(hào): TP391.41
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.190356
中文引用格式: 張?zhí)祜w,龍海燕,,丁嬌,,等. 基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究[J].電子技術(shù)應(yīng)用,2019,,45(10):37-39,,44.
英文引用格式: Zhang Tianfei,,Long Haiyan,,Ding Jiao,et al. Research on anti-jamming tracking algorithm based on multi-region segmentation of target[J]. Application of Electronic Technique,,2019,,45(10):37-39,44.
Research on anti-jamming tracking algorithm based on multi-region segmentation of target
Zhang Tianfei,,Long Haiyan,,Ding Jiao,Zhang Lei
Anhui Institute of Information Technology,,Wuhu 241000,,China
Abstract: Aiming at the problem of tracking failure caused by rotation, occlusion and deformation of moving target in video sequence, a tracking method based on multi-region segmentation of target was proposed. The target is divided into multiple overlapping regions, and then multiple regions that are relatively stable in the tracking process are selected for positioning, and then different target region weights are used to update different template updating strategies for the tracked target. In this way, the anti-blocking and anti-rotation ability of the algorithm can be increased. Experimental results show that the proposed method is adaptive to occlusion and rotation.
Key words : computer vision;target tracking,;multi-region segmentation,;search location;template update

0 引言

    隨著計(jì)算機(jī)技術(shù)及數(shù)字圖像處理技術(shù)的快速發(fā)展,,基于視頻序列的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤是計(jì)算機(jī)視覺(jué)的一個(gè)重要的研究方向,,目前已被廣泛的應(yīng)用于各個(gè)領(lǐng)域,如智能交通,、視頻監(jiān)控,、無(wú)人機(jī)跟蹤、人機(jī)交互等,,實(shí)現(xiàn)了用計(jì)算機(jī)代替人眼對(duì)外界物體的運(yùn)動(dòng)進(jìn)行智能分析,,為人們的生活和工作提供了很大的便利[1-2]。近年來(lái)各種目標(biāo)檢測(cè)與目標(biāo)跟蹤的技術(shù)已日趨成熟,,有基于顏色信息進(jìn)行跟蹤的方法,,如Mean Shift算法[3-5]、模糊C均值聚類[6-9];有基于紋理的方法,,如核相關(guān)濾波算法(Kernerlized Correlation Filter,,KCF)[10-14]、尺度空間判別跟蹤算法(Discriminative Scale Space Tracking,,DSST)[15],。目前很多跟蹤方法也將深度學(xué)習(xí)的思路融入其中[16-18],并且取得了長(zhǎng)足的進(jìn)步,。

    視頻序列中目標(biāo)跟蹤的難點(diǎn)在于目標(biāo)移動(dòng)過(guò)程中可能出現(xiàn)被其他物體遮擋,、目標(biāo)形狀發(fā)生變化以及目標(biāo)發(fā)生旋轉(zhuǎn)等情況,從而造成跟蹤失敗,。本文通過(guò)對(duì)目標(biāo)分割成多個(gè)區(qū)域分別跟蹤以及采用多個(gè)區(qū)域的模板分別更新這兩個(gè)策略以期望算法能夠在一定程度上容忍目標(biāo)在移動(dòng)過(guò)程中出現(xiàn)的形變和部分遮擋情況,。實(shí)驗(yàn)結(jié)果證明所采用的方法達(dá)到了預(yù)期。

    接下來(lái),,本文將分別介紹算法的模板更新策略以及定位策略,。

1 目標(biāo)多區(qū)域分割跟蹤方法

    在實(shí)際場(chǎng)景中,經(jīng)常會(huì)遇到目標(biāo)在移動(dòng)過(guò)程中由于視角的變化等原因?qū)е履繕?biāo)形態(tài)發(fā)生變化,,以及由于目標(biāo)在移動(dòng)過(guò)程中被其他物體遮擋等原因?qū)е履繕?biāo)只有部分區(qū)域出現(xiàn)在圖像中,,這些都會(huì)導(dǎo)致跟蹤算法性能降低。針對(duì)此種情況,,本文提出了一種新的搜索定位方法,,即對(duì)目標(biāo)中的多個(gè)區(qū)域進(jìn)行跟蹤,此方法可以在一定程度上解決由于目標(biāo)部分遮擋以及形變等原因造成跟蹤算法性能下降的問(wèn)題,。

1.1 模板選擇策略

    目前將目標(biāo)分割為多個(gè)區(qū)域主要有兩種劃分方法,,分別是劃分為相互重疊的區(qū)域以及劃分為相互不重疊的區(qū)域。將目標(biāo)劃分為相互不重疊的區(qū)域,,可以簡(jiǎn)化計(jì)算,;將目標(biāo)劃分為相互重疊的區(qū)域,可以增加目標(biāo)可用區(qū)域,,使得選取的目標(biāo)區(qū)域位置更加合理,。本文選擇對(duì)目標(biāo)劃分為部分相互重疊的區(qū)域,其中重疊率為50%,,如圖1所示,,其中,陰影部分為相鄰模塊的重疊區(qū)域,。

rgzn3-t1.gif

    在得到目標(biāo)的多個(gè)區(qū)域位置后,,對(duì)目標(biāo)區(qū)域進(jìn)行篩選。首先利用式(1)計(jì)算目標(biāo)區(qū)域特征,,篩選的準(zhǔn)則是特征穩(wěn)定且特征盡可能大的區(qū)域,。

    rgzn3-gs1.gif

其中,,fbi表示第i個(gè)區(qū)域的特征值;ω表示區(qū)域距離中心的權(quán)重信息,,距離中心越遠(yuǎn)權(quán)重越小,,反之越大;fi表示目標(biāo)的紋理特征值(由n個(gè)子特征值組成,,第k的子特征值為xk),,特征值越大表示是目標(biāo)的可能性就越大,跟蹤過(guò)程中此特征就越穩(wěn)定,。將式(1)計(jì)算得到的多個(gè)區(qū)域值按fbi特征值由大到小進(jìn)行排序,,然后選擇其中3個(gè)區(qū)域作為定位區(qū)域,另外將目標(biāo)中心區(qū)域一同作為定位區(qū)域使用,,這樣最終獲得了4個(gè)定位區(qū)域,。考慮到所選區(qū)域的多樣性,,在進(jìn)行區(qū)域選擇時(shí),,盡量不要選擇距離很近的兩個(gè)區(qū)域作為定位區(qū)域。

1.2 搜索定位策略

    接下來(lái)的問(wèn)題是如何找到兩個(gè)目標(biāo)的相似性,。計(jì)算目標(biāo)相似性本文使用的是相關(guān)濾波的方法,,見(jiàn)式(2),值越小表示相似度越高,。

rgzn3-gs2.gif

    算法中為了增加抗干擾性能,使用了多個(gè)區(qū)域?qū)δ繕?biāo)進(jìn)行定位,,通過(guò)式(3)計(jì)算整個(gè)目標(biāo)區(qū)域的相關(guān)性,。

    rgzn3-gs3.gif

式中,λbi表示第i個(gè)區(qū)域?qū)φ麄€(gè)結(jié)果的重要性,,可以用高斯濾波表示,。為了使得計(jì)算結(jié)果更加穩(wěn)定且準(zhǔn)確,在確定λbi值時(shí)需要注意:目標(biāo)中心區(qū)域中的λbi所占的比重會(huì)比周圍的區(qū)域大,,另外區(qū)域特征值越大,,給出的λbi也會(huì)越大。

1.3 模板更新策略

    模板是直接影響下一幀搜索結(jié)果的一個(gè)很重要的因素,,若模板選擇不合理,,將會(huì)導(dǎo)致跟蹤結(jié)果出現(xiàn)偏差,甚至跟蹤到完全錯(cuò)誤的物體上,。根據(jù)實(shí)驗(yàn)可知,,如果模板每幀都在更新,若出現(xiàn)遮擋等情況時(shí),,就會(huì)造成模板被污染,,導(dǎo)致跟蹤失敗,。本文中,模版更新采用不同的目標(biāo)區(qū)域,,其更新的權(quán)重不同,,這樣可以使得模板更新相對(duì)精確,從而避免由于遮擋等原因造成誤更新問(wèn)題,。模板更新公式如下:

rgzn3-gs4.gif

2 實(shí)驗(yàn)結(jié)果分析

    KCF是目前跟蹤算法相對(duì)比較出色的一種相關(guān)濾波算法,,采用脊回歸以及循環(huán)卷積等方法取得了較好的跟蹤效果。下述實(shí)驗(yàn)將KCF與本文提出的方法進(jìn)行對(duì)比分析,,如圖2所示,。

rgzn3-t2.gif

    圖2中,虛線框代表KCF跟蹤效果,,實(shí)線框代表本文算法,,在跟蹤過(guò)程未遇到障礙物之前KCF方法與本文算法跟蹤效果類似,都能相對(duì)準(zhǔn)確地跟蹤到目標(biāo),;當(dāng)障礙物剛開(kāi)始遮擋目標(biāo)時(shí),,KCF方法也可以跟蹤到目標(biāo),但是偏差會(huì)越來(lái)越大,,本文方法可以相對(duì)準(zhǔn)確地跟蹤部分遮擋的目標(biāo),;當(dāng)目標(biāo)從障礙物的另一個(gè)方向出現(xiàn)時(shí),KCF并沒(méi)有及時(shí)地跟蹤到目標(biāo),,但是本文方法能夠跟蹤到目標(biāo),,這主要得益于本文方法使用的多區(qū)域跟蹤以及多幀更新模板的策略。

    由上述實(shí)驗(yàn)結(jié)果可以看出,,本文對(duì)于跟蹤目標(biāo)的形變以及遮擋等情況有一定的抗干擾能力,。

3 結(jié)論

    目標(biāo)跟蹤過(guò)程中,本文使用的多區(qū)域目標(biāo)跟蹤策略以及不同權(quán)重的多幀更新模板策略在一定程度上可以減少由于目標(biāo)形變以及障礙物遮擋造成的跟蹤丟失的情況,,即具有一定的魯棒性,,能夠較好地實(shí)現(xiàn)目標(biāo)的實(shí)時(shí)跟蹤。

參考文獻(xiàn)

[1] 袁寶紅.基于視頻的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤研究[D].合肥:安徽大學(xué),,2014.

[2] 祁淑霞.基于形狀上下文和粒子濾波的多目標(biāo)跟蹤[J].電子技術(shù)應(yīng)用,,2015,41(1):156-160.

[3] VOJIR T,,NOSKOVA J,,MATAS J.Robust scale-adaptive mean-shift for tracking[C].SCIA,2013:652-663.

[4] 李紅波,,曾德龍,,吳渝.基于Mean-Shift和粒子濾波的兩步多目標(biāo)跟蹤方法[J].重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2010(1):112-117,,121.

[5] 周楊,,胡桂明,,黃東芳.基于邊緣自適應(yīng)的Mean Shift目標(biāo)跟蹤方法[J].電子技術(shù)應(yīng)用,2017(5):138-142.

[6] 王小鵬,,張永芳,,王偉,等.基于自適應(yīng)濾波的快速?gòu)V義模糊C均值聚類圖像分割[J].模式識(shí)別與人工智能,,2018,,31(11):1040-1046.

[7] 郝慧娟,許繼勇,,劉廣起.基于自適應(yīng)分塊的視頻目標(biāo)跟蹤方法研究[J].計(jì)算機(jī)應(yīng)用研究,,2010,27(9):3579-3580,,3590.

[8] 許辰銘.視頻圖像中的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[D].南京:南京郵電大學(xué),,2012.

[9] HENRIQUES J F,CASEIRO R,,MARTINS P,,et al.High-speed tracking with kernelized correlation filters[J].TPAMI,2015,,37(3):583-596.

[10] HENRIQUES J F,,CASEIRO R,MARTINS P,,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C].ECCV,,2012.

[11] 劉延飛,何燕輝,,張薇,,等.基于異常值檢測(cè)的KCF目標(biāo)丟失預(yù)警方法研究[J].計(jì)算機(jī)工程與應(yīng)用,2018,,54(22):216-222.

[12] DANELLJAN M,H?魧GER G,,KHAN F S,,et al.Accurate scale estimation for robust visual tracking[C].Proceedings of the British Machine Vision Conference(BMVC),2014.

[13] DANELLJAN M,,H?魧GER G,,KHAN F S,et al.Michael felsberg. discriminative scale space tracking[J].TPAMI,,2017,,39(8):1561-1575.

[14] 馬曉虹,尹向雷.基于相關(guān)濾波器的目標(biāo)跟蹤方法綜述[J].電子技術(shù)應(yīng)用,,2018,,44(6):3-7,,14.

[15] NAM H,HAN B.Learning multi-domain convolutional neural networks for visual tracking[C].CVPR,,2016.

[16] BERTINETTO L,,VALMADRE J,HENRIQUES J F,,et al.Fully-convolutional siamese networks for object tracking[C].ECCV,,2016.

[17] HELD D,THRUN S,,SAVARESE S.Learning to track at 100 fps with deep regression networks[C].ECCV,,2016.

[18] 黃睿,陸許明,,鄔依林.基于TensorFlow深度學(xué)習(xí)手寫(xiě)體數(shù)字識(shí)別及應(yīng)用[J].電子技術(shù)應(yīng)用,,2018,44(10):6-10.



作者信息:

張?zhí)祜w,,龍海燕,,丁  嬌,張  磊

(安徽信息工程學(xué)院,,安徽 蕪湖241000)

此內(nèi)容為AET網(wǎng)站原創(chuàng),,未經(jīng)授權(quán)禁止轉(zhuǎn)載。