《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 業(yè)界動態(tài) > 深度偽造對國家安全的挑戰(zhàn)及應(yīng)對

深度偽造對國家安全的挑戰(zhàn)及應(yīng)對

2021-10-28
來源:信息安全與通信保密雜志社
關(guān)鍵詞: 安全 人工智能

  深刻了解及應(yīng)對深度偽造對國家安全的挑戰(zhàn)

  人工智能的快速進(jìn)步給社會發(fā)展帶來諸多機(jī)遇,,但其被惡意使用的風(fēng)險也逐漸顯現(xiàn),。作為人工智能深度學(xué)習(xí)領(lǐng)域的一個分支,,深度偽造技術(shù)在近幾年迅速興起,,為國家間的政治抹黑、軍事欺騙,、經(jīng)濟(jì)犯罪甚至恐怖主義行動等提供了新工具,給政治安全、經(jīng)濟(jì)安全,、社會安全、國民安全等國家安全領(lǐng)域帶來了諸多風(fēng)險,。

  應(yīng)對深度偽造技術(shù)的濫用及其安全挑戰(zhàn),,需要加強(qiáng)研發(fā)預(yù)警檢測手段,推進(jìn)立法管制,,加強(qiáng)宣傳教育,,推進(jìn)國際安全合作治理。

  隨著計算能力大幅提升,、大數(shù)據(jù)爆炸式增長以及深度學(xué)習(xí)算法的創(chuàng)新突破,,人工智能正迎來第三次發(fā)展浪潮。人工智能既給社會發(fā)展帶來了巨大機(jī)遇,,同時也帶來了諸多風(fēng)險,,人工智能對國家安全的影響已成為世界各國的重要關(guān)切和研究議程。

  深度偽造(Deepfake)這一概念近年來也日益受到關(guān)注,。2019 年初,,臉譜網(wǎng)上流傳一則關(guān)于特朗普的假視頻,視頻中的“特朗普”批評了比利時在氣候變化問題上的立場,,而實(shí)際上這并非特朗普本人,。

  此前,德國研究團(tuán)隊也利用這一技術(shù)制作出了包括普京,、小布什等國家首腦的假視頻,。

  2019 年 1 月,卡耐基國際和平研究所發(fā)表《國家如何應(yīng)對深度偽造亂象》一文,,指出深度偽造技術(shù)正在給各國政府和企業(yè)帶來破壞性影響,。美國國會近來也專門就深度偽造技術(shù)的影響舉行聽證會,表明深度偽造技術(shù)在美國大選之年引發(fā)多方高度關(guān)注,。

  筆者注意到,,國內(nèi)對深度偽造技術(shù)的應(yīng)用及其影響給予的重視尚不夠,且缺乏較系統(tǒng)的研究,。

  本文擬介紹深度偽造技術(shù)興起的背景和特點(diǎn),,深入分析其對政治安全、經(jīng)濟(jì)安全,、社會安全,、國民安全等領(lǐng)域帶來的新挑戰(zhàn),,并給出相應(yīng)的治理對策,拋磚引玉,,以推動國內(nèi)對深度偽造技術(shù)發(fā)展應(yīng)用的進(jìn)一步研究討論,。

  深度偽造興起的背景與特點(diǎn)

  1.1深度偽造興起的背景

  深度偽造(Deepfake) 這一概念最早出現(xiàn)在 2017 年底,起初是一名為“deepfakes”的紅迪網(wǎng)(Reddit)用戶在網(wǎng)上發(fā)布了一段利用名人面孔合成的色情視頻,,引發(fā)各界關(guān)注,。深度偽造是深度學(xué)習(xí)(deep learning)與偽造(fake)二者的組合詞,一開始專指用基于人工智能尤其是深度學(xué)習(xí)的人像合成技術(shù),。

  隨著技術(shù)的進(jìn)步,,深度偽造技術(shù)已經(jīng)發(fā)展為包括視頻偽造、聲音偽造,、文本偽造和微表情合成等多模態(tài)視頻欺騙技術(shù)(見圖 1),。深度偽造背后的支撐技術(shù)是深度學(xué)習(xí),具體來說主要是“生成性對抗網(wǎng)絡(luò)”(Generative Adversarial Network,,GAN) 和卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeural Network,,CNN)。

  用于深度學(xué)習(xí)算法的真實(shí)數(shù)據(jù)或模擬數(shù)據(jù)越多,,合成的視,、音頻等深度偽造產(chǎn)品的逼真程度就越高,在這些假視頻和音頻中能夠讓人說現(xiàn)實(shí)中沒有說過的話,、做現(xiàn)實(shí)中沒有做過的事,,甚至達(dá)到以假亂真的程度,,沖擊著人們“眼見為實(shí)”的傳統(tǒng)認(rèn)知,。

  微信圖片_20211028185013.jpg

  圖 1 基于多模態(tài)的深度偽造技術(shù)

  1.2深度偽造的技術(shù)原理

  視頻偽造:人工智能換臉

  視頻偽造是深度偽造技術(shù)最為主要的代表,制作假視頻的技術(shù)也被業(yè)界稱為人工智能換臉技術(shù)(AI face swap),。其核心原理是利用生成對抗網(wǎng)絡(luò)或者卷積神經(jīng)網(wǎng)絡(luò)等算法將目標(biāo)對象的面部“嫁接”到被模仿對象上,。由于視頻是連續(xù)的圖片組成,因此只需要把每一張圖片中的臉替換,,就能得到變臉的新視頻,。

  具體而言,首先將模仿對象的視頻逐幀轉(zhuǎn)化成大量圖片,,然后將目標(biāo)模仿對象面部替換成目標(biāo)對象面部,。最后,將替換完成的圖片重新合成為假視頻,,而深度學(xué)習(xí)技術(shù)可以使這一過程實(shí)現(xiàn)自動化,。

  音頻偽造:語音合成

  深度偽造的另一大代表就是音頻偽造,目前實(shí)現(xiàn)音頻偽造最為常見的方法是“語音克隆”技術(shù),,該技術(shù)已廣泛應(yīng)用在蘋果 Siri 等個性化虛擬助手中,。具體而言,,實(shí)現(xiàn)語音克隆主要有兩種方法,一是說話者自適應(yīng)(speaker adaption),,二是說話者編碼(speaker encoding),。每個人的語速、語調(diào)等聲道信息都可以表示成一個聲音模型,。

  其中,,說話者編碼是根據(jù)說話人的少數(shù)聲音對標(biāo)準(zhǔn)聲道模型進(jìn)行微調(diào),以模擬出該說話人的聲音,。而說話者自適應(yīng)則根據(jù)說話人的少量音頻,,從一個多人語音模型中找出該講話人的聲音特征。

  其他偽造技術(shù)

  除了視頻和音頻偽造之外,,廣義的深度偽造還包括文本偽造和微表情偽造?,F(xiàn)階段,文本偽造的主要技術(shù)支撐是自然語言處理(Natural Language Processing,NLP),,先使用卷積神經(jīng)網(wǎng)絡(luò)從視頻中識別并提取字幕,,然后通過自然語言處理技術(shù)生成偽造文本。

  微表情偽造則主要利用圖像合成技術(shù),,先將大量面部表情數(shù)據(jù)手動注釋為相應(yīng)的情緒,,再根據(jù) 39 種面部微表情從基礎(chǔ)注釋中判斷出微表情特征組合所代表的情緒,進(jìn)而實(shí)現(xiàn)對微表情的偽造,。

  1.3深度偽造的特點(diǎn)

  算法自動生成,,制作成本和門檻較低

  事實(shí)上,偽造技術(shù)很早以前就已經(jīng)出現(xiàn),,以前的圖像處理技術(shù)(Photoshop)就能制作虛假的圖像,。此次深度偽造技術(shù)的特別之處在于,它背后的核心驅(qū)動力量是深度學(xué)習(xí)算法,,具有自動生成目標(biāo)圖形圖像的顯著特性,。由于這一技術(shù)主要是代碼組成的軟件,算法突破后本身的制作成本非常低,,且一旦做出來就可以幾乎以零成本進(jìn)行擴(kuò)散,。

  此外,隨著技術(shù)的擴(kuò)散和程序化,,制作深度偽造產(chǎn)品的門檻也在不斷降低,。例如,起初深度偽造視頻的技術(shù)僅僅以源代碼公布在社交編程及代碼托管(Github)網(wǎng)站上,,想實(shí)現(xiàn)假視頻偽造需要操作者有較高的技術(shù)水平,。

  但很快,網(wǎng)上就出現(xiàn)了可供下載的 FakeApp,、Faceswap,、DeepNude 等換臉軟件,,只需要按照軟件提示輸入幾張圖片就可以快速制造假視頻。換言之,,掌握了這些軟件和素材的人理論上可以制作出任何一個人說任何話,、做任何事的虛假視頻和音頻,且這個過程都是自動化的,。

  產(chǎn)品逼真而多元,,識別難度大

  深度偽造技術(shù)的產(chǎn)品涵蓋假視頻、音頻,、文本,、微表情等,十分多元,。深度偽造技術(shù)的擴(kuò)散可能導(dǎo)致世界上充斥各種各樣的偽造信息,,而且這種假信息正在變得越來越“真實(shí)”。深度學(xué)習(xí)的一大特性就是,,提供訓(xùn)練的樣本數(shù)據(jù)越多,,對目標(biāo)對象的模擬就會越準(zhǔn)確,偽造出來的假視頻和音頻等產(chǎn)品就會顯得越逼真,。

  目前,,流傳在網(wǎng)上的假視頻主要是關(guān)于明星、政客等公眾人物,,就是因為他們的照片和視頻在網(wǎng)上可以輕易獲取,,用作偽造視頻的原材料。

  起初,,深度偽造產(chǎn)品還可以通過五官,、眨眼頻率等特征分辨出來,隨著這類技術(shù)的算法會不斷演化,,從 2017 年深度偽造技術(shù)剛誕生時用的卷積神經(jīng)網(wǎng)絡(luò)到現(xiàn)在最新的生成對抗網(wǎng)絡(luò),,無論是實(shí)現(xiàn)智能“換臉”的計算能力還是逼真程度都有了很大提升,已經(jīng)讓大眾越來越難辨真假,。

  未來,基于眨眼頻率,、聲音,、微表情、文本等特征的多模態(tài)特征融合的假視頻制作技術(shù)將是一個可能的發(fā)展趨勢,,普通公眾識別深度偽造作品的難度也會越來越大,。

  與社交媒體結(jié)合,傳播速度快

  基于深度偽造技術(shù)制作的假視頻,、音頻等產(chǎn)品迎合了大眾的獵奇心理,,很容易借助臉譜網(wǎng),、推特、微信,、微博等社交媒體的效力,,在全世界快速傳播?;ヂ?lián)網(wǎng)將世界連為一體,,各類信息能夠在轉(zhuǎn)瞬之間傳遍全球,自然也包括假消息,。

  深度偽造產(chǎn)品借助網(wǎng)絡(luò)社交媒體的漣漪效應(yīng),,很可能會大規(guī)模擴(kuò)散。假消息越是搞怪,、離奇,、恐怖,就越能吸人眼球,,帶來的流量就越大,,社交媒體就會傳播得越快,以訛傳訛的效應(yīng)就會愈加明顯,,造成破壞性影響的速度也會越快,。在人們尚未來得及做出反應(yīng)的時候,破壞性后果可能就已經(jīng)造成,。

  目前,,Youtube 上已經(jīng)出現(xiàn)了大量關(guān)于特朗普、奧巴馬等政治人物的虛假視頻②,,Reddit,、Pornhub 等網(wǎng)站上也出現(xiàn)了大量好萊塢女明星換臉后的虛假成人電影等,且這些假視頻的點(diǎn)擊量十分驚人,。

  深度偽造給國家安全帶來的挑戰(zhàn)

  誠然,,深度偽造技術(shù)存在著一些正面使用的前景,例如為商業(yè)發(fā)展,、藝術(shù)創(chuàng)作,、醫(yī)療行業(yè)等領(lǐng)域提供了新的發(fā)展空間。

  但鑒于其以假亂真的技術(shù)本質(zhì)以及目前的發(fā)展趨勢,,這項技術(shù)對于國家安全可能帶來更多挑戰(zhàn),,如果被不法分子出于政治或惡意牟利動機(jī)使用,將給政治安全,、經(jīng)濟(jì)安全,、社會安全、國民安全等領(lǐng)域帶來諸多風(fēng)險和威脅,。

  2.1深度偽造給政治安全帶來的風(fēng)險

  深度偽造技術(shù)惡意使用的最大風(fēng)險可能發(fā)生在政治領(lǐng)域,。這一技術(shù)如果被外國競爭對手利用,,極有可能會用于抹黑國家領(lǐng)導(dǎo)人,煽動恐怖和暴力情緒,,破壞國家政治穩(wěn)定,。

  政治人物遭到深度偽造產(chǎn)品的抹黑是首當(dāng)其沖的挑戰(zhàn)

  深度偽造技術(shù)為抹黑政治人物提供了新的強(qiáng)大工具,利用深度偽造技術(shù)制作關(guān)于政治人物的虛假負(fù)面視頻無疑會破壞其在民眾中的形象,。

  由于政治人物需要經(jīng)常出現(xiàn)在公眾的視野,,其公開的照片和視頻很容易被獲取并用來制作假視頻。例如,,一段由特朗普總統(tǒng)在臉譜網(wǎng)上分享的關(guān)于美國眾議院議長南希,?佩洛西(Nancy Pelosi)的視頻就獲得了250 萬次點(diǎn)擊量。視頻中,,佩洛西如同喝醉了一般,,神志不清,說話磕巴,,舉止怪異,。此外,美國前總統(tǒng)奧巴馬的臉也被用來制作假視頻,,攻擊特朗普是個“十足的笨蛋”,。該視頻在網(wǎng)上已經(jīng)獲得了480萬次的瀏覽量。

  此外,,如前所述,,社交媒體上已經(jīng)流傳著大量關(guān)于特朗普、普京等國家領(lǐng)導(dǎo)人的假視頻,。盡管現(xiàn)在這些視頻還能夠辨別真假,,大家對此只是當(dāng)做娛樂一笑了之。

  但是,,隨著深度偽造技術(shù)的日益精進(jìn),,這些假視頻會變得越來越逼真,普通人通過肉眼想要區(qū)分真假將變得越來越困難,,那時候?qū)τ谡稳宋镄蜗蠛兔u(yù)的破壞將會愈加嚴(yán)重,。

  政治制度也容易受到深度偽造的嚴(yán)重沖擊

  近年來,社交媒體上流傳的假消息已經(jīng)引起了諸多政治爭議和風(fēng)波②,。如今,,深度偽造技術(shù)讓假消息以更加可信的方式呈現(xiàn)在社會公眾面前,就可能會進(jìn)一步引發(fā)公民對于政治系統(tǒng)的信任赤字,。

  例如,這類技術(shù)可以用在領(lǐng)導(dǎo)人選舉上,,一方候選人或敵對國家制作虛假視頻來對候選人進(jìn)行政治原則,、生活作風(fēng)等方面的抹黑,,無疑會破壞被選舉人形象和選舉制度的公正性,從而威脅國內(nèi)政治制度的合法性,。

  已有專家擔(dān)心,,深度偽造技術(shù)會對即將到來的 2020 年美國大選造成極大威脅,稱如果說 2016 年美國大選是俄羅斯操縱的“假新聞大選”,,那么 2020 年大選就可能成為被深度偽造操縱的“深度偽造大選”,。

  不難理解,關(guān)于總統(tǒng)候選人的假視頻通過社交軟件廣泛擴(kuò)散,,無疑對美國民主選舉制度造成極大破壞,。因為,民主制度的基礎(chǔ)在于選民的知情同意,,“通過公開,、理性的辯論,產(chǎn)生人民的集體智慧引領(lǐng)國家正確前進(jìn)”,,但在深度偽造技術(shù)驅(qū)動的假消息泛濫的情況下,,選民距離可觀察的實(shí)情和真相將會越來越遠(yuǎn),就可能會造成思維混亂,。

  在這種情況下,,政府的公信力將難以維持,民主制度的根基就會被動搖乃至瓦解,,美國等民主國家的政治系統(tǒng)就可能會因此陷入混亂,。

  正因如此,美國總統(tǒng)大選佛羅里達(dá)州候選人,、共和黨參議員盧比奧將這一技術(shù)的威力與核武器相提并論,,美國國會近期也表示,將在 2020 大選之前對深度偽造技術(shù)進(jìn)行調(diào)查,,并展開相關(guān)立法行動,。

  此外,利用深度偽造技術(shù)制作關(guān)于政府對公民施加殘暴行為的假視頻,,可能會激起民憤,,輕則引發(fā)集會、示威,、游行等行為,,重則激起暴力活動,造成社會動蕩,,威脅政治系統(tǒng)穩(wěn)定性,。

  深度偽造技術(shù)也可能被用來破壞國家間關(guān)系

  深度偽造技術(shù)可能會成為信息戰(zhàn)的強(qiáng)大武器,破壞國家間的正常關(guān)系。歷史上,,利用假消息煽動國家間的政治沖突這一現(xiàn)象并不鮮見,。

  早在 1898 年,美國緬因州號在哈瓦那港爆炸,,美國的一家小報就曾利用誤導(dǎo)性的事件來煽動公眾與西班牙開戰(zhàn),。如今,深度偽造技術(shù)為進(jìn)行這類操作提供了更加多樣化和逼真的新工具,。

  例如,,這類技術(shù)被第三方行為體用于制作國家首腦或代表人物的假視頻,宣布一些本不存在的外交政策,,就可能會破壞涉事國領(lǐng)導(dǎo)人之間的互信和兩國關(guān)系,。

  例如,如果一段有關(guān)伊朗官員策劃在伊拉克某省采取秘密行動殺害遜尼派領(lǐng)導(dǎo)人的音頻,,無疑會激化伊朗和伊拉克之間的矛盾,,或是一段顯示美國大兵在伊斯蘭國家焚燒古蘭經(jīng)的視頻在網(wǎng)上流傳,可能加劇信奉伊斯蘭教的國家對美國的怨恨,。

  再比如,,前文所提到的特朗普批評比利時政府在氣候變化問題上的立場這一假視頻,如果日后技術(shù)進(jìn)步到讓人難辨真假的話,,就會對美國和比利時的關(guān)系產(chǎn)生負(fù)面影響,。

  此外,深度偽造技術(shù)還可能為某些國家干涉他國內(nèi)政提供新的由頭,。曾經(jīng),,美國以“大規(guī)模殺傷性武器”為由,繞過聯(lián)合國安理會單方面對伊拉克進(jìn)行軍事打擊,,最后發(fā)現(xiàn)的卻是“洗衣粉”,。如今,有了這一技術(shù),,制造冠冕堂皇的理由和“證據(jù)”無疑將變得更加容易,。

  2.2深度偽造對經(jīng)濟(jì)安全帶來的風(fēng)險

  深度偽造技術(shù)為破壞企業(yè)形象提供了新工具

  企業(yè)是市場中的核心單元,而深度偽造對破壞企業(yè)形象可能帶來難以估量的負(fù)面影響,,如果深度偽造技術(shù)篡改企業(yè)高層的說話內(nèi)容,、散播虛假消息,或通過合成假視頻直接抹黑企業(yè)負(fù)責(zé)人,,無疑會破壞這家企業(yè)在公眾心中的形象,,進(jìn)而影響公司的名聲和經(jīng)濟(jì)利益。

  2019 年上半年爆出的新城控股董事長猥褻女童事件,,就嚴(yán)重破壞了這家企業(yè)的公眾形象,,使其深陷輿論漩渦,,資產(chǎn)迅速縮水,最后不得不大舉拋售項目,。

  而未來,,深度偽造技術(shù)可以制作關(guān)于企業(yè)高層負(fù)責(zé)人丑聞的假視頻,,作為證據(jù)起訴公司負(fù)責(zé)人或引發(fā)輿論關(guān)注,,就可能使當(dāng)事人百口難辯。

  深度偽造給金融市場穩(wěn)定性帶來了新的風(fēng)險

  深度偽造還可能為引發(fā)金融市場動蕩提供了新的不穩(wěn)定源,。例如,,一些人通過偽造多個知名經(jīng)濟(jì)學(xué)家同時唱衰經(jīng)濟(jì)的視頻,或者重要的銀行遭遇恐怖襲擊的假視頻,,并將之投放到網(wǎng)絡(luò)上,,就很有可能造成市場恐慌,使得投資者大量拋售手中的股票,,而肇事者就可以從中做空獲利,。

  危險在于,在這種情況下市場的反應(yīng)速度往往比當(dāng)事人澄清的速度更快,,這一點(diǎn)從幾年前的一個真實(shí)案例中可窺見一斑,。2013 年 4 月 23 日,美聯(lián)社推特賬號在被黑客攻擊后主動發(fā)布了一條假新聞,,稱“白宮發(fā)生兩次爆炸,,奧巴馬受傷”,導(dǎo)致道瓊斯指數(shù)暴跌 140 余點(diǎn),,

  瞬間蒸發(fā)掉了 1365 億美元,。直到新聞被證偽,市場才逐漸恢復(fù)正常,。

  由此可見,,一條策劃良好的假文本新聞就足以引起很大的金融震蕩。不難預(yù)見,,利用深度偽造技術(shù)制造更為逼真的假視頻和假音頻新聞會給金融穩(wěn)定和經(jīng)濟(jì)安全帶來更嚴(yán)峻的挑戰(zhàn),。

  2.3深度偽造給社會安全帶來的風(fēng)險

  假消息的泛濫可能會造成社會信任危機(jī)

  從本質(zhì)上來看,深度偽造技術(shù)惡意使用所帶來的最根本影響在于,,它會進(jìn)一步模糊真相與假象之間的界限,,使大家對一切事物都產(chǎn)生懷疑,從而可能造成全社會范圍內(nèi)的信任危機(jī),。

  千百年來,,人們在與世界交互中所形成的傳統(tǒng)觀念是“眼見為實(shí)”(Seeing is believing),但假如一切都可以被偽造,,而沒有足夠的技術(shù)手段進(jìn)行區(qū)分,,真相與假象之間的界限就會變得日益模糊,使得“眼見也不一定為實(shí)”。由于像FakeApp 換臉軟件和 Lyrebird 變聲軟件等應(yīng)用程序操作簡便,,十分容易擴(kuò)散,。

  因此,這種假視頻,、假音頻可以被普通人使用電腦或手機(jī)等大眾電子設(shè)備制作出來,,并通過社交媒體廣泛傳播,從而可能使全社會陷入一場真相與假象之間混雜不清的困境之中,,造成“真相的終結(jié)”,,推動人類社會真正進(jìn)入“后真相時代”。

  區(qū)分不清政治人物的真假消息,,選民就無法有效選舉,,民主制度就難以為繼;社會信用赤字,,借貸,、保險、投資等市場行為就將受到影響,,社會金融,、互助體系等都將受到嚴(yán)重沖擊,人的精神世界也可能會面臨一場深層次的危機(jī),。

  給現(xiàn)有法律體系帶來新挑戰(zhàn)

  深度偽造技術(shù)能夠自動生成高可信度的假視頻和假音頻,,如果被別有用心的人利用,將給現(xiàn)有法律體系尤其是取證領(lǐng)域帶來很大的挑戰(zhàn),。法律講究證據(jù),,而錄像和錄音材料常常作為重要的舉證支撐,法官要根據(jù)原告和被告的證詞以及相應(yīng)的舉證材料對案件進(jìn)行評判,。例如,,敘利亞戰(zhàn)爭中用視頻記錄下來的戰(zhàn)爭罪行就成為了定罪的重要依據(jù)。

  但在深度偽造技術(shù)迅速發(fā)展和應(yīng)用的情形下,,如果沒有足夠的技術(shù)手段來區(qū)分假視頻,、假音頻等深度偽造產(chǎn)品的真實(shí)性,就會對原有法律體系帶來很大挑戰(zhàn),。

  具體而言,,這類風(fēng)險主要有以下三方面:

  一是犯罪分子為了嫁禍他人利用深度偽造技術(shù)進(jìn)行誣陷,可能帶來冤假錯案,。

  二是犯罪分子為了逃避法律制裁,,堅稱原告提供的舉證材料是利用深度偽造技術(shù)制作的虛假材料,而如果沒有辦法證偽其觀點(diǎn),,可能會使犯罪分子逃脫法網(wǎng)制裁,。

  三是現(xiàn)有法律尚不能約束深度偽造產(chǎn)品在社交媒體上的廣泛傳播,,對于造成重大負(fù)面影響的匿名假視頻、假音頻制作者也無法進(jìn)行有效追責(zé),。

  尤其是當(dāng)人工智能技術(shù)越來越多地用于法院時,,如果正向的檢測技術(shù)跟不上深度偽造的技術(shù)步伐,而人眼又無法區(qū)分這些材料的真?zhèn)涡?,那么就可能造成案件的誤判,,嚴(yán)重影響司法公正和受害人利益。鑒于深度偽造的成本和門檻呈現(xiàn)出越來越低的趨勢,,日后的這類風(fēng)險值得警惕,。

  滋生“深度偽造恐怖主義”

  對于恐怖分子等非國家行為體而言,深度偽造技術(shù)無疑是一個強(qiáng)大,、低成本且易獲取的工具。一般而言,,恐怖分子的武裝力量,、資金和其他資源十分有限,其目標(biāo)往往不在于物理空間的攻城掠地,,而是試圖通過引發(fā)社會恐慌,,達(dá)到自身的政治或其他目的,而深度偽造技術(shù)與恐怖主義的這一特點(diǎn)和訴求有著天然的契合點(diǎn),。

  恐怖主義可能借著這一技術(shù)利器,,更方便快捷地開展恐怖行動,甚至“不戰(zhàn)而屈人之兵”,,不采取物理層面的恐怖措施就能達(dá)到預(yù)期的恐怖效果,。

  例如,“伊斯蘭國”(ISIS) 可以利用這一技術(shù)制作虛假視頻,,描繪美國士兵屠殺平民,、恐怖分子砍頭等血腥場景,并通過社交媒體迅速傳播,,以激起世界憤怒,、仇恨和恐慌,幫助其從全世界招募人員或其他地區(qū)作案,。

  筆者預(yù)測,,恐怖分子與深度偽造技術(shù)的聯(lián)姻,可能會帶來新一輪恐怖主義浪潮,,這種新型的恐怖形式可被稱為“網(wǎng)絡(luò)恐怖主義”的高級階段——“深度偽造恐怖主義”,,即利用深度偽造技術(shù)制作虛假的視頻、音頻等假消息,,并借助虛擬的網(wǎng)絡(luò)和社交媒體傳遍世界各地,,實(shí)現(xiàn)其恐怖目的,,這無疑會深刻威脅到社會安全。

  2.4深度偽造給國民安全帶來的風(fēng)險

  國民安全是國家安全的核心內(nèi)容,,維護(hù)國民的安全和利益是實(shí)現(xiàn)國家安全的根本所在,。一旦基于深度偽造技術(shù)制作的假視頻、假音頻等大規(guī)模傳開,,就可能會深刻威脅到國民在生命,、財產(chǎn)和名譽(yù)方面的安全。

  威脅國民生命安全

  深度偽造技術(shù)制造出的假消息可能會煽動暴力沖突,,從而深刻威脅公民的生命安全,。近年來,因假消息引發(fā)的暴力現(xiàn)象并不鮮見,。

  在2018 年,,印度就有 20 多人因為在 WhatsApp 社交平臺上被謠傳綁架小孩或涉及其他罪案而遭受暴力致死。

  在印度,,社交軟件 WhatsApp 幾乎成為了民主主義傳播謠言和煽動暴力的溫床,。

  類似的假消息還有印度總理莫迪被聯(lián)合國教科文組織評為世界最佳總統(tǒng)、巴基斯坦士兵將兩位印度俘虜斬首等,。

  現(xiàn)階段,,這類假消息的主要載體還只是文字,分辨的難度并不大,。但隨著深度偽造技術(shù)的不斷發(fā)展和應(yīng)用,,利用假視頻、假音頻等假消息載體煽動暴力引發(fā)事故的風(fēng)險將會越來越大,。

  造成國民財產(chǎn)損失

  深度偽造技術(shù)可能會被不法分子用于制作虛假視頻,,提供虛假證據(jù),進(jìn)行詐騙,、勒索等違法行為,,威脅公民的財產(chǎn)安全。例如,,語音克隆技術(shù)能夠在采集目標(biāo)人物幾句話的基礎(chǔ)上,,就通過算法生成這個人的全套語音,讓人難辨真假,。

  筆者曾經(jīng)也收到過利用語音合成技術(shù)偽造朋友的聲音對我進(jìn)行電話詐騙的情況,,聲音逼真得幾乎與真人無異。目前,,已經(jīng)出現(xiàn)利用假視頻,、假音頻進(jìn)行碰瓷、詐騙的現(xiàn)實(shí)案例,。

  不難預(yù)見,,隨著深度偽造技術(shù)的不斷發(fā)展和進(jìn)步,,這一現(xiàn)象將會有增無減。例如,,日后如果有人利用這一技術(shù)制作虛假綁票視頻,,逼迫受害人家屬支付高昂費(fèi)用,而當(dāng)事人的家屬或朋友無法區(qū)分真假,,無疑將對其造成很大的財產(chǎn)損失,。

  損害國民的名譽(yù)和心理

  深度偽造還容易對個人的名譽(yù)和精神造成很大損害。自深度偽造在近些年出現(xiàn)以來,,制作虛假的色情視頻成為這一技術(shù)最為常見的惡意應(yīng)用,,而這些假視頻已經(jīng)成為污名化女性和進(jìn)行“色情報復(fù)”的新武器。

  利用該技術(shù)能夠?qū)崿F(xiàn)“移花接木”,,將女性的臉轉(zhuǎn)移到色情明星的身體上,,偽造逼真的色情場景。

  目前,,已經(jīng)有很多女性成了這類假視頻的受害者,,導(dǎo)致受害人精神焦慮甚至自殺。例如,,今年 4 月,印度記者拉娜,?阿尤布(Rana Ayyub)因揭露印度古吉拉特暴亂中官員的黑幕和不作為,,就遭遇了利用這一技術(shù)進(jìn)行的“色情報復(fù)”和死亡威脅,使其遭受巨大的精神折磨,,最后不得不斷網(wǎng)乃至住院治療,。

  更為嚴(yán)重的是,這類操作的技術(shù)門檻正在變得越來越低,。今年上半年,,網(wǎng)上就流傳著一鍵生成裸照的軟件“深度裸露”(DeepNude),只要輸入一張完整的女性圖片就可自動生成相應(yīng)的裸照,,引起了軒然大波,。

  未來,一鍵生成假視頻的軟件也可能在網(wǎng)上擴(kuò)散,。如果不加管控,,越來越多的個人和家庭將會受到傷害。因為,,一個偽造的婚外情視頻在一些情況下就足以使當(dāng)事人名譽(yù)掃地,,家庭破裂。

  此外,,還有利用這一技術(shù)進(jìn)行游走在法律邊緣的惡搞行為,。目前,,網(wǎng)上已經(jīng)出現(xiàn)很多惡搞名人的假視頻。例如,,2019 年 7 月,,以色列一家公司利用人工智能換臉技術(shù)合成了一段扎克伯格關(guān)于臉書技術(shù)壟斷的虛假視頻并上傳到“照片墻”(Instagram),造成了極為惡劣的影響,。我國知名演員六小齡童先生也被惡搞,,在視頻中變成了時尚潮男。這些真實(shí)中不存在的荒謬場景在假視頻中卻幾乎無所不能,,無疑會給當(dāng)事人造成很大的精神困擾,。

  除了上述幾個領(lǐng)域的風(fēng)險之外,深度偽造對軍事安全,、網(wǎng)絡(luò)安全等其他國家安全領(lǐng)域也會帶來一定風(fēng)險,,例如,在軍事領(lǐng)域,,可以利用這一技術(shù)制作虛假的戰(zhàn)斗命令,,實(shí)現(xiàn)對敵方部隊的戰(zhàn)術(shù)欺騙,或生成敵方重要目標(biāo)的面容來解鎖重要設(shè)施的人臉識別系統(tǒng)等,。

  防范和應(yīng)對深度偽造的幾點(diǎn)思考

  綜上分析,,深度偽造給國家安全的各個領(lǐng)域都帶來了諸多風(fēng)險。但目前世界各國多在大力推動人工智能技術(shù)的快速發(fā)展和應(yīng)用,,而對其惡意使用的風(fēng)險重視不夠,。

  筆者認(rèn)為,為了防范和應(yīng)對深度偽造技術(shù)的潛在風(fēng)險,,各國政府可以在提升風(fēng)險意識的基礎(chǔ)上,,從技術(shù)工具、法律監(jiān)管,、公民教育以及國際合作等方面建立相應(yīng)的治理框架,,從而最大限度地化解風(fēng)險,最大程度運(yùn)用人工智能維護(hù)國家安全和人民福祉,。

  3.1加強(qiáng)政策界與技術(shù)界之間的交流與合作

  各國政府需要意識到深度偽造給國家安全帶來的風(fēng)險的嚴(yán)重性和緊迫性,,抓緊研發(fā)應(yīng)對深度偽造亂象的技術(shù)工具和政策手段。

  一是要建立政策界與技術(shù)界之間的常態(tài)化交流機(jī)制,。

  當(dāng)前,,政策規(guī)范的速度往往滯后于技術(shù)發(fā)展的速度,這會帶來技術(shù)濫用卻不受約束的風(fēng)險,。

  在 2017 年發(fā)布的《阿西洛馬人工智能原則》中,,特別強(qiáng)調(diào)了“人工智能研究者與政策制動者之間應(yīng)該存在具有建設(shè)性的健康的信息交流”。

  人工智能正以極快的速度影響社會,,深度偽造技術(shù)的風(fēng)險也在逐漸顯現(xiàn),。想要應(yīng)對這些風(fēng)險和安全挑戰(zhàn),,最為緊迫的就是要加強(qiáng)政策社群與技術(shù)社群之間的常態(tài)化交流機(jī)制,使得政策制定者了解深度偽造技術(shù)的最新進(jìn)展和問題,,技術(shù)界了解指定深度偽造政策的實(shí)際需求,,然后合作解決社會面臨的緊迫問題。

  二是要政府加大對預(yù)警檢測技術(shù)的資助力度,。

  在深度偽造這一問題上,,最為關(guān)鍵的就是預(yù)警檢測技術(shù)工具的研發(fā)。只要能夠使得預(yù)警檢測技術(shù)領(lǐng)先于偽造技術(shù),,以上所提到的所有風(fēng)險很大程度上都可以得到緩解,。盡管深度偽造技術(shù)正在迅速發(fā)展和應(yīng)用,但任何偽造產(chǎn)品都很難做到與真實(shí)物品完全一樣,。

  例如,,假圖像難以描述光的微小變化,假音頻難以完全掌控人的節(jié)奏和語調(diào),,假視頻人物中的眨眼頻率與正常人存在差異,。

  因此,需要加快對深度偽造預(yù)警檢測技術(shù)的研發(fā),,并盡快推廣應(yīng)用③,。目前,已經(jīng)有一些針對深度偽造技術(shù)的技術(shù)手段,。例如,,針對假視頻的檢測方法有神經(jīng)網(wǎng)絡(luò)檢測法、眨眼頻率分析法等,。針對音頻的檢測技術(shù)有基于相位法、基頻統(tǒng)計量法等,。

  但是,,這些方法還遠(yuǎn)未成熟②,且深度偽造技術(shù)也正在迅速發(fā)展進(jìn)化,。要想使得預(yù)警檢測手段追趕上偽造手段的步伐,,政府推動和資助是必不可少的。

  三是政府要鼓勵反制深度偽造領(lǐng)域的科技創(chuàng)新,。

  政府可以通過發(fā)布深度偽造技術(shù)相關(guān)的自然科學(xué)基金,、社會科學(xué)基金等科研項目,依托高等院校,、科研機(jī)構(gòu),、企業(yè)研究所等平臺,資助研發(fā)應(yīng)對深度偽造技術(shù)危害國家安全的技術(shù)和政策手段,。

  此外,,還可以借鑒美國防部高級研究計劃局(DARPA) 通過“挑戰(zhàn)賽”的方式解決棘手問題的做法,,通過舉辦“反制深度偽造挑戰(zhàn)賽”等技術(shù)競賽的方式促進(jìn)這一領(lǐng)域的科技創(chuàng)新,并將成果應(yīng)用于解決社會問題,。

  3.2推進(jìn)對深度偽造的立法與監(jiān)管

  當(dāng)前,,世界各國普遍面臨著法律規(guī)范的速度滯后于技術(shù)發(fā)展步伐的挑戰(zhàn)。為應(yīng)對深度偽造技術(shù)的潛在風(fēng)險,,需要盡快進(jìn)行前瞻布局,,推進(jìn)針對假消息的立法與監(jiān)管。

  一是需要明確深度偽造產(chǎn)品生產(chǎn)主體的法律責(zé)任,,從源頭上防止假消息的出現(xiàn),。

  深度偽造技術(shù)本身是中性的,關(guān)鍵在于它背后的使用者和使用場景,。因此,,一方面,要通過立法禁止政府官員和權(quán)威機(jī)構(gòu)創(chuàng)作,、傳播利用深度偽造技術(shù)合成的不真實(shí)信息,。對于利用深度偽造技術(shù)危害社會和國家安全的個人和組織,要依法進(jìn)行相應(yīng)懲罰,,對企圖利用這一技術(shù)犯罪的人形成威懾,。另一方面,要盡快明確深度偽造技術(shù)的不正當(dāng)使用場景,,形成限制深度偽造技術(shù)的“負(fù)面清單”,,并對違法者予以懲戒。

  二是要強(qiáng)化傳播媒介尤其是社交媒體的法律和社會責(zé)任,,從傳播過程中阻止深度偽造產(chǎn)品的擴(kuò)散,。

  鑒于假視頻和音頻最可能首先出現(xiàn)在社交媒體平臺上,且傳播速度極快,,范圍極廣,。而互聯(lián)網(wǎng)和社交媒體往往將相同或類似興趣的人群聚集在一起形成網(wǎng)絡(luò)社群,虛假,、偏見和歧視的消息也更加容易在這里傳播并固化,。

  因此,從法律層面明確社交媒體在避免深度偽造的假消息危害國家安全方面就尤為重要,。通過法律規(guī)范,,明確社交媒體需要在發(fā)布前甄別假消息的責(zé)任,建立假消息篩查機(jī)制,,加強(qiáng)內(nèi)容審核,,禁止上傳可能危害國家安全或造成負(fù)面社會影響的假消息。

  對于沒有明顯危害的娛樂性深度偽造產(chǎn)品要進(jìn)行標(biāo)注,告知用戶其虛假本質(zhì),,防止這類假消息的傳播造成惡劣的社會影響和政治風(fēng)波,。對于未能盡到這些義務(wù)而造成重大負(fù)面社會影響的責(zé)任主體,需要進(jìn)行法律追責(zé),。

  三是要建立必要的危機(jī)應(yīng)對機(jī)制,,在發(fā)現(xiàn)假消息肆意傳播時要快速響應(yīng),避免其惡劣影響的擴(kuò)大化,。

  為此,,政府部門應(yīng)加強(qiáng)與社交媒體、新聞機(jī)構(gòu),、非政府組織等機(jī)構(gòu)的合作與交流,,共享在深度偽造技術(shù)領(lǐng)域的信息渠道,確保在重大假消息出現(xiàn)時能及時處置和有效應(yīng)對,。

  3.3提升公民對信息的警惕和批判意識

  政府需要通過宣傳和教育,,提高公眾對于深度偽造技術(shù)和產(chǎn)品的警惕意識和批判意識。

  一是要教育和引導(dǎo)公民提升警惕意識,,避免在遇到深度偽造產(chǎn)品時上當(dāng)受騙,。

  政府應(yīng)當(dāng)通過組織關(guān)于“深度偽造”的電視宣傳、主題教育等手段,,提醒公民在面對出現(xiàn)在眼前的消息時,,不能輕易相信“眼見為實(shí)”或“耳聽為實(shí)”,而是要采取“三思而信”,、多渠道映照以及有效技術(shù)手段去識別假視頻,、假音頻等虛假消息,從而切實(shí)維護(hù)自身的生命財產(chǎn)安全,。例如,,在面對涉及自身或身邊朋友的綁票視頻時,應(yīng)當(dāng)先去電話或當(dāng)面詢問對方的近況,,就能夠有效避免上當(dāng)受騙,。

  二是要給公民提供適當(dāng)?shù)募夹g(shù)工具。

  隨著深度偽造技術(shù)的出現(xiàn)和持續(xù)發(fā)展,,一般民眾可能會越來越難區(qū)分信息的真假。這時,,政府就需要聯(lián)合企業(yè)主動為公眾提供一些簡單易操作且可靠的技術(shù)援助,。

  例如,可以在研發(fā)有效檢測手段的基礎(chǔ)上,,在瀏覽器中安裝“火眼金睛”“真相衛(wèi)士”等應(yīng)用插件,,自動檢測視頻、音頻等消息的真實(shí)性并告知用戶,使用戶能快速獲知信息是真實(shí)的還是偽造的,,避免上當(dāng)受騙和遭受其他損失,。

  三是要教育公民在社交媒體上審慎制作和傳播假消息。

  隨著自媒體時代的來臨和深度偽造技術(shù)的擴(kuò)散,,人人都可以利用手機(jī)或電腦等電子產(chǎn)品制作假視頻,、假音頻等假消息,并能通過微博,、微信等社交媒體進(jìn)行傳播,。

  當(dāng)前,基于深度偽造技術(shù)制作的虛假視頻,、音頻等假消息正在社交媒體上廣泛傳播,,公民如果不假思索地跟著轉(zhuǎn)載、點(diǎn)贊,,就可能會加速和擴(kuò)大假消息的破壞性影響,。

  因此,政府需要教育和引導(dǎo)公民仔細(xì)甄別消息的真假,,在轉(zhuǎn)載和評論時要保持必要的審慎,,避免成為協(xié)助假消息擴(kuò)散的“幫兇”。

  3.4推動對深度偽造的全球治理

  一個假消息泛濫成災(zāi)時代的到來,,對任何國家恐怕都不是福音,。在全球化背景下,風(fēng)險也隨著人員和信息的流動向全球擴(kuò)散,,深度偽造技術(shù)的影響范圍注定會超越單一國家,,對世界各國都構(gòu)成重大挑戰(zhàn)。

  在此背景下,,只有加強(qiáng)國家間合作,,共同規(guī)范這一技術(shù)的使用,合理打擊假消息的制造和傳播者,,才能維護(hù)世界的共同安全與福祉,。筆者認(rèn)為,以下幾項措施需要特別重視,。

  一是要將深度偽造全球治理納入人工智能全球治理的框架,。隨著深度偽造技術(shù)的迅速發(fā)展,恐怖分子可能利用這一技術(shù)進(jìn)行跨國犯罪,,深度偽造產(chǎn)品的泛濫對全世界來說都是災(zāi)難,,沒有哪個國家能夠獨(dú)善其身,推動對深度偽造技術(shù)的全球治理符合各國的共同利益,。

  而深度偽造是人工智能技術(shù)惡用的顯著體現(xiàn),。未來生命研究所 2018 年發(fā)布的《人工智能的惡意使用:預(yù)測,、預(yù)防和緩解》報告中就指出,人工智能技術(shù)存在被惡意使用的風(fēng)險,,深度偽造技術(shù)就是其中的一大代表,。

  因此,治理深度偽造本質(zhì)上是對人工智能惡意使用的防范和規(guī)制,,推動人工智能全球治理的過程中,,要把深度偽造這一問題作為重點(diǎn)納入考量范圍。

  二是要加強(qiáng)在打擊假消息方面的國際合作,,尤其是打擊利用深度偽造技術(shù)進(jìn)行跨國犯罪和跨國恐怖主義的行為,。

  2016 年歐洲刑警組織出臺的《網(wǎng)絡(luò)有組織犯罪威脅評估報告》就指出, 利用深度偽造技術(shù)進(jìn)行犯罪將成為一大趨勢,。

  從目前的發(fā)展來看,,這一趨勢正在逐漸成型,利用深度偽造技術(shù)和產(chǎn)品進(jìn)行政治抹黑,、經(jīng)濟(jì)犯罪,、恐怖襲擊等危害國家和國際安全的行為正在日益增多。

  為了應(yīng)對這一風(fēng)險,,各國需要合力建立相關(guān)機(jī)制,,有效打擊犯罪分子利用這一技術(shù)進(jìn)行跨國作案。

  三是要強(qiáng)化跨國互聯(lián)網(wǎng)企業(yè)對于管控深度偽造產(chǎn)品的法律和社會責(zé)任,,尤其是對假消息傳播的管控,。

  目前,深度偽造的主要產(chǎn)品是假視頻,,而這些假視頻已經(jīng)在臉譜網(wǎng),、推特、WhatsApp,、微信,、微博等跨國社交媒體上廣泛傳播,造成了很多負(fù)面影響,,很多明星和政治人物深受其害,。

  因此,國家間需要加強(qiáng)合作,,強(qiáng)化這些跨國社交媒體在假消息管控上的法律和社會責(zé)任,,避免假消息利用社交媒體在世界范圍內(nèi)肆意擴(kuò)散,維護(hù)國家安全和世界繁榮穩(wěn)定,。




電子技術(shù)圖片.png

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]