文獻(xiàn)標(biāo)識碼: A
DOI: 10.19358/j.issn.2096-5133.2021.06.002
引用格式: 葉啟松,,戴旭初. 一種利用類別顯著性映射生成對抗樣本的方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,,2021,40(6):9-14.
0 引言
深度學(xué)習(xí)技術(shù)在計算機視覺,、語音識別、自然語言處理等各個領(lǐng)域有著廣泛的應(yīng)用,,然而有研究表明,,深度神經(jīng)網(wǎng)絡(luò)具有一定的脆弱性[1],該脆弱性使得深度神經(jīng)網(wǎng)絡(luò)容易受到攻擊,,這一問題引起了廣泛的重視,。對抗樣本攻擊是攻擊深度神經(jīng)網(wǎng)絡(luò)的主要方法,,該方法通過對原樣本添加微小的、不可察覺的擾動生成對抗樣本,,使得深度神經(jīng)網(wǎng)絡(luò)對該樣本做出錯誤的預(yù)測,。
對抗樣本的遷移性指針對結(jié)構(gòu)已知的深度神經(jīng)網(wǎng)絡(luò)模型生成的對抗樣本,能使得結(jié)構(gòu)未知的深度神經(jīng)網(wǎng)絡(luò)模型對該樣本做出錯誤預(yù)測,。如果對抗樣本有更好的遷移性,,其就能更好地攻擊結(jié)構(gòu)和參數(shù)未知的模型,這也是利用對抗樣本進(jìn)行攻擊的主要應(yīng)用場景,。攻擊者在擁有深度神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)和參數(shù)信息的前提下進(jìn)行的對抗樣本攻擊,,稱為在白盒條件下的對抗樣本攻擊。現(xiàn)有的白盒條件下的對抗樣本攻擊方法雖然有較高的攻擊成功率,,但是其生成的對抗樣本的遷移性較差,,在主要的應(yīng)用場景中并不適用。遷移性差的主要原因在于,,這類方法所生成的對抗樣本與模型的結(jié)構(gòu)和參數(shù)高度耦合,,其擾動難以對結(jié)構(gòu)和參數(shù)不同的其他模型進(jìn)行有效的干擾。遷移性差的這一缺點在目標(biāo)神經(jīng)網(wǎng)絡(luò)引入了防御方法時表現(xiàn)得更為明顯,。
本文詳細(xì)內(nèi)容請下載:http://forexkbc.com/resource/share/2000003593
作者信息:
葉啟松,,戴旭初
(中國科學(xué)技術(shù)大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,安徽 合肥230026)