《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > Gartner:Deepfake和生成式AI讓我們進入零信任世界

Gartner:Deepfake和生成式AI讓我們進入零信任世界

2021-01-26
來源:雷鋒網(wǎng)
關(guān)鍵詞: AI 零信任

  Gartner發(fā)布了一系列《Predicts 2021》研究報告,,其中一份報告概述了人工智能(AI)將在未來幾年引發(fā)的重大影響,,包括廣泛的道德和社會問題。

  Gartner的五位分析師在《2021年預(yù)測:人工智能對人類和社會的影響》的報告中預(yù)測了2025年將會產(chǎn)生的變化,,該報告特別關(guān)注了所謂的人工智能的二級后果,,這種后果是非預(yù)期的新技術(shù)的成果。

  例如,,生成式AI現(xiàn)在可以創(chuàng)建出實際上并不存在的人物和物體的非常逼真的照片,。

  Gartner:Deepfake和生成式AI讓我們進入零信任世界

  Gartner預(yù)測,到2023年,,將有20%的賬戶被這種由AI產(chǎn)生的Deepfake接管,。報告指出:“可以創(chuàng)建和生成超逼真的內(nèi)容的AI能力,將對人們相信自己的眼睛所看到的產(chǎn)生變革性的影響,?!?/p>

  該報告從AI市場的5個角度進行了預(yù)測,并就企業(yè)如何應(yīng)對和適應(yīng)這些未來的挑戰(zhàn)提出了建議:

  到2025年,,預(yù)先訓(xùn)練的AI模型將主要集中在1%的供應(yīng)商中,,這將使AI的負責任地使用成為社會關(guān)注的問題

  在2023年,成功的賬戶接管攻擊將有20%使用Deepfake,,它將會成為社會工程學(xué)攻擊的一部分

  到2024年,,將有60%的AI提供商會將緩解危害/濫用行為作為其軟件的一部分

  到2025年,將有10%的政府通過使用合成AI來避免隱私和安全問題

  到2025年,,工作場所75%的對話將被記錄和分析,,以用于增加組織價值和評估風險

  這些分析中的每一個都足以使AI觀察者引起足夠的關(guān)注,如果將這些預(yù)測結(jié)合起來時,,就可以勾勒出未來的嚴峻形勢,,其中涉及道德問題,潛在的AI濫用以及工作場所隱私的喪失,。

  如何應(yīng)對

  如果Gartner的分析師的預(yù)測準確無誤,,那么關(guān)于AI帶來的隱私和真相的影響的擔憂必將成為未來幾年的主要話題,成功的企業(yè)將需要準備迅速適應(yīng)這些擔憂,。

  該報告中的一個重要的主題是,,在依賴AI的公司(無論是服務(wù)還是產(chǎn)品)中建立道德委員會。Gartner說,,對于計劃記錄和分析工作場所對話的企業(yè),,尤其要注意這一點,應(yīng)建立具有員工代表的董事會,,以確保公平使用對話數(shù)據(jù),。

  Gartner還建議企業(yè)建立負責任的AI使用標準,并優(yōu)先考慮“可以證明AI能夠清晰發(fā)展和解決相關(guān)社會問題”的供應(yīng)商,。

  至于圍繞Deepfake和生成式AI的安全問題,,Gartner建議組織安排有關(guān)Deepfake的培訓(xùn)。報告說:“我們現(xiàn)在正在進入零信任的世界。除非使用加密的數(shù)字簽名證明它是經(jīng)過認證的,,否則任何事物都不能被信任,?!?/p>

  該報告有很多內(nèi)容值得關(guān)注,,有數(shù)據(jù)說,最好的Deepfake檢測軟件從長期來看將以50%的識別率達到頂峰,。還預(yù)測到2023年,,一家大型美國公司將采用對話分析來確定員工薪酬。這些分析中有很多需要擔心的地方,,也包括潛在的解決方案,。

  

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。