引用格式:田佳鷺,,鄧立國.基于改進(jìn)VGG16的猴子圖像分類方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,,2020,39(5):6-11.
隨著深度學(xué)習(xí)技術(shù)的不斷進(jìn)步,對(duì)于通用對(duì)象的類別分析,,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)達(dá)到了很高的水平,,但對(duì)于細(xì)粒度圖像分類的穩(wěn)定性目前還有待提升。所謂細(xì)粒度圖像分類,,通常用于描述對(duì)同一類事物進(jìn)行細(xì)致的劃分,,所以待分類圖像的區(qū)別要更加精準(zhǔn),類內(nèi)區(qū)別大而類間區(qū)別小,,粒度則更為精細(xì),。本文方法基于改進(jìn)的VGG16深度卷積神經(jīng)網(wǎng)絡(luò)。盡管原始的VGG16模型已經(jīng)擁有了良好的普適性和實(shí)用價(jià)值,,并且在各種圖像分類和目標(biāo)檢測任務(wù)中都體現(xiàn)了極佳的效果,,通過遷移學(xué)習(xí)改進(jìn)的VGG16模型,,能夠?qū)⒁蚜?xí)得的特征和性能應(yīng)用到待解決的問題中,極大地節(jié)省了訓(xùn)練時(shí)間,。此外在硬件上選取GPU進(jìn)行訓(xùn)練,,使得速度得到進(jìn)一步提升。為了改善原始的交叉熵?fù)p失函數(shù)無法保證提取的特征具有識(shí)別度的缺點(diǎn),,在VGG16模型中引入將center loss損失函數(shù)與交叉熵?fù)p失函數(shù)相結(jié)合的辦法。此外還運(yùn)用了新型的Swish激活函數(shù),,以及擁有自適應(yīng)學(xué)習(xí)率的Adam優(yōu)化器,。最后利用不同種類的猴子訓(xùn)練集對(duì)改進(jìn)的模型重新訓(xùn)練,以獲得少量微調(diào)的參數(shù)信息,。經(jīng)驗(yàn)證該方法對(duì)猴子圖像識(shí)別的精準(zhǔn)度可提升到98.875%,,而原始的VGG16模型在該數(shù)據(jù)集上的分類僅能達(dá)到90.210%的準(zhǔn)確率,可以證明改進(jìn)后的模型具有更好的識(shí)別效果,。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://forexkbc.com/resource/share/2000003088
作者信息:田佳鷺,,鄧立國(沈陽師范大學(xué) 數(shù)學(xué)與系統(tǒng)科學(xué)學(xué)院,遼寧 沈陽 110034)