文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2021.06.002
引用格式: 葉啟松,,戴旭初. 一種利用類別顯著性映射生成對抗樣本的方法[J].信息技術(shù)與網(wǎng)絡安全,2021,,40(6):9-14.
0 引言
深度學習技術(shù)在計算機視覺、語音識別、自然語言處理等各個領域有著廣泛的應用,,然而有研究表明,,深度神經(jīng)網(wǎng)絡具有一定的脆弱性[1],該脆弱性使得深度神經(jīng)網(wǎng)絡容易受到攻擊,,這一問題引起了廣泛的重視,。對抗樣本攻擊是攻擊深度神經(jīng)網(wǎng)絡的主要方法,該方法通過對原樣本添加微小的,、不可察覺的擾動生成對抗樣本,,使得深度神經(jīng)網(wǎng)絡對該樣本做出錯誤的預測。
對抗樣本的遷移性指針對結(jié)構(gòu)已知的深度神經(jīng)網(wǎng)絡模型生成的對抗樣本,,能使得結(jié)構(gòu)未知的深度神經(jīng)網(wǎng)絡模型對該樣本做出錯誤預測,。如果對抗樣本有更好的遷移性,其就能更好地攻擊結(jié)構(gòu)和參數(shù)未知的模型,,這也是利用對抗樣本進行攻擊的主要應用場景,。攻擊者在擁有深度神經(jīng)網(wǎng)絡模型的結(jié)構(gòu)和參數(shù)信息的前提下進行的對抗樣本攻擊,稱為在白盒條件下的對抗樣本攻擊?,F(xiàn)有的白盒條件下的對抗樣本攻擊方法雖然有較高的攻擊成功率,,但是其生成的對抗樣本的遷移性較差,在主要的應用場景中并不適用,。遷移性差的主要原因在于,,這類方法所生成的對抗樣本與模型的結(jié)構(gòu)和參數(shù)高度耦合,其擾動難以對結(jié)構(gòu)和參數(shù)不同的其他模型進行有效的干擾,。遷移性差的這一缺點在目標神經(jīng)網(wǎng)絡引入了防御方法時表現(xiàn)得更為明顯,。
本文詳細內(nèi)容請下載:http://forexkbc.com/resource/share/2000003593
作者信息:
葉啟松,戴旭初
(中國科學技術(shù)大學 網(wǎng)絡空間安全學院,,安徽 合肥230026)