文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2020.06.002
引用格式: 林通,,陳新,,唐曉,等. 基于雙流卷積神經(jīng)網(wǎng)絡(luò)和生成式對(duì)抗網(wǎng)絡(luò)的行人重識(shí)別算法[J].信息技術(shù)與網(wǎng)絡(luò)安全,,2020,,39(6):7-12.
行人重識(shí)別(ReID)的目的是利用計(jì)算機(jī)視覺(jué)技術(shù)判斷圖像或者視頻序列中是否存在特定行人的技術(shù)。由于其在安全和監(jiān)控方面的重要應(yīng)用,,受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,。這一任務(wù)極具挑戰(zhàn)性,因?yàn)椴煌鄼C(jī)拍攝的圖像往往包含由背景,、視角,、人體姿勢(shì)等變化引起的顯著變化。
在過(guò)去的幾十年中,,大多數(shù)現(xiàn)有的研究都集中在度量學(xué)習(xí)和特征學(xué)習(xí)上,,設(shè)計(jì)盡可能抵消類(lèi)內(nèi)變化的算法已經(jīng)成為了行人重識(shí)別的主要目標(biāo)之一,。起初,行人重識(shí)別的研究主要是基于全局特征,,即基于全局圖像獲得特征向量,。為獲得更好的效果,開(kāi)始引入局部特征,,常用的局部特征提取方法包括圖像分割,、骨架關(guān)鍵點(diǎn)定位和姿態(tài)校正。行人重識(shí)別任務(wù)還面臨一個(gè)非常大的問(wèn)題,,即很難獲得數(shù)據(jù),。到目前為止,最大的數(shù)據(jù)集只有幾千個(gè)目標(biāo)和上萬(wàn)張圖片,。隨著生成性對(duì)抗網(wǎng)絡(luò)(GAN)技術(shù)的發(fā)展,,越來(lái)越多的學(xué)者試圖利用這種方法來(lái)擴(kuò)展數(shù)據(jù)集。然而,,大多數(shù)現(xiàn)有的針對(duì)行人重識(shí)別的算法需要大量標(biāo)記數(shù)據(jù),,這限制了它在實(shí)際應(yīng)用場(chǎng)景中的魯棒性和可用性,因?yàn)槭謩?dòng)標(biāo)記一個(gè)大型數(shù)據(jù)集是昂貴和困難的,。最近的一些文獻(xiàn)在使用無(wú)監(jiān)督學(xué)習(xí)來(lái)解決此問(wèn)題,,改進(jìn)人工標(biāo)注的特征。由于不同數(shù)據(jù)集之間的圖像有明顯差異,,在提取圖片特征問(wèn)題上效果仍不理想,。本文方法的貢獻(xiàn)主要有兩個(gè)方面。一方面,,采用均衡采樣策略和姿勢(shì)遷移方法對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充有效地緩解了行人姿勢(shì)各異造成的干擾,。另一方面,利用兩種不同的網(wǎng)絡(luò)結(jié)構(gòu)從圖像的不同方面提取特征,,使模型能學(xué)習(xí)到更為豐富全面的信息,。實(shí)驗(yàn)結(jié)果表明,該方法具有較高的精度,。例如,,在Market-1501數(shù)據(jù)集上,這一模型Rank-1準(zhǔn)確度達(dá)到了96.0%,,mAP達(dá)到了90.1%,與現(xiàn)有算法相比,,性能有較大提升,。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://forexkbc.com/resource/share/2000003145
作者信息:
林 通,陳 新,,唐 曉,,賀 玲,,李 浩
(中國(guó)人民解放軍空軍預(yù)警學(xué)院,湖北 武漢430019)