5 月 12 日消息,,美國(guó)麻省理工學(xué)院的研究團(tuán)隊(duì)近日發(fā)布成果稱,,部分 AI 已經(jīng)“學(xué)會(huì)欺騙人類”,,該成果刊登在最新一期的期刊《模式》(Pattern)上,。
該團(tuán)隊(duì)表示,,部分設(shè)計(jì)為“誠(chéng)實(shí)”且“不會(huì)說謊”的 AI 系統(tǒng),,已經(jīng)發(fā)展出令人不安的欺瞞技巧,。該研究的第一作者 Peter Park 表示,,這些 AI 系統(tǒng)會(huì)欺騙線上游戲的真人玩家,,或繞過部分網(wǎng)頁(yè)“我不是機(jī)器人”的驗(yàn)證,。
“盡管,以上的例子聽起來只是細(xì)枝末節(jié),,但它們暴露出的潛在問題,,可能很快就會(huì)在現(xiàn)實(shí)世界中造成嚴(yán)重后果?!?/span>
該團(tuán)隊(duì)發(fā)現(xiàn)的最為引人注目的例子來自 Meta 公司的 AI 系統(tǒng) Cicero,。據(jù)悉,Cicero 原本被設(shè)定在一個(gè)虛擬外交戰(zhàn)略游戲中作為人類玩家的對(duì)手,,官方曾聲稱其“很大程度上”誠(chéng)實(shí)且樂于助人,,且在玩游戲時(shí)“從不故意背刺”人類盟友。研究顯示,,Cicero 并未公平地去玩游戲,。
Peter Park 表示,,它已經(jīng)成為“欺騙大師”,雖然 Meta 成功訓(xùn)練出了它在游戲中獲勝的能力,,但沒有訓(xùn)練出它“誠(chéng)信獲勝”的能力,。譬如,在游戲中扮演法國(guó)的 Cicero 與人類玩家扮演的德國(guó)合謀,,欺騙并入侵同為人類玩家的英格蘭,。Cicero 起初“承諾”會(huì)保護(hù)英格蘭,但同時(shí)會(huì)偷偷向德國(guó)通風(fēng)報(bào)信,。
另一個(gè)案例提到了 GPT-4,。該系統(tǒng)“謊稱”自己是一個(gè)視力障礙者,在海外的兼職平臺(tái)雇傭人類來替它完成“我不是機(jī)器人”的驗(yàn)證任務(wù),。Peter Park 告訴法新社,,“這些危險(xiǎn)功能常常在事后才被發(fā)現(xiàn),且人類訓(xùn)練 AI‘誠(chéng)實(shí)非欺瞞’傾向的能力非常差,?!?/p>
他還認(rèn)為,能夠深度學(xué)習(xí)的 AI 系統(tǒng)不像傳統(tǒng)軟件那樣被“編寫”出來的,,而是通過類似選擇性培育的程序“養(yǎng)成”出來的,。即 AI 的行為在訓(xùn)練背景下看似可被預(yù)測(cè)或控制,但有可能轉(zhuǎn)眼間變得不受控制,、無(wú)法預(yù)測(cè),。
“我們需要盡可能多的時(shí)間,為未來人工智能產(chǎn)品和開源模型可能出現(xiàn)的更高級(jí)欺騙做好準(zhǔn)備,。我們建議將欺騙性人工智能系統(tǒng)歸類為高風(fēng)險(xiǎn)系統(tǒng),。”