《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 人工智能是如何學(xué)壞的

人工智能是如何學(xué)壞的

2017-02-16
關(guān)鍵詞: 谷歌 DeepMind 人工智能

很難想象,,達(dá)到人類等級(jí)的人工智能會(huì)如何造福人類,,同樣也難以想象不恰當(dāng)?shù)厥褂盟?,?huì)釀成什么樣的惡果。

AI有做壞事的本領(lǐng),,在空戰(zhàn)模擬器上,,阿爾法人工智能程序在與美國空軍退休上校吉恩 李的較量中,獲得完勝,。此類例子已經(jīng)不勝枚舉,。

所以,如何使用機(jī)器人是個(gè)大問題,。即便你為機(jī)器人設(shè)定了一個(gè)目的純良的任務(wù),,但機(jī)器人在實(shí)現(xiàn)目標(biāo)的過程中,如何選擇實(shí)現(xiàn)路徑仍然是個(gè)問題,,它會(huì)不會(huì)為達(dá)目的而不擇手段呢?

因此,,為考驗(yàn)AI在兩難境地下如何做出策略選擇,谷歌DeepMind  團(tuán)隊(duì)進(jìn)行了針對(duì)性實(shí)驗(yàn),,實(shí)驗(yàn)中的兩款游戲都是以博弈論的囚徒困境理論為基礎(chǔ)開發(fā)的,。

囚徒困境是指兩個(gè)共謀犯罪的人被關(guān)入監(jiān)獄,不能互相溝通,。如果兩個(gè)人都不揭發(fā)對(duì)方,,則由于證據(jù)不確定,每個(gè)人坐牢一年;若一人揭發(fā),,而另一人沉默,,揭發(fā)者立即獲釋,沉默者入獄五年;若互相揭發(fā),,則因證據(jù)確實(shí),,二人都判刑兩年。由于囚徒無法信任對(duì)方,,因此傾向于互相揭發(fā),,而不是同守沉默。這一經(jīng)典理論說明了即便合作對(duì)雙方都有利,,但合作仍然是困難的,。

DeepMind為此設(shè)計(jì)的第一款游戲名為“采集”。他們將一個(gè)以“收集水果”為目的的電腦游戲運(yùn)行了4000萬次,,并要求兩個(gè)AI互相競(jìng)爭,,看誰能收集更多的虛擬蘋果。

他們發(fā)現(xiàn),,在有足夠的蘋果時(shí)AI還相安無事,,但隨著蘋果減少,兩個(gè)AI就有攻擊性了,。為了將對(duì)手踢出游戲,,獨(dú)吞所有蘋果,,它們開始使用激光束來攻擊對(duì)手。

有趣的是,,AI用激光束攻擊對(duì)手獲得成功的行為并不能直接獲得獎(jiǎng)勵(lì),。它只是讓對(duì)手在游戲中消失一會(huì)兒,以便自己可以收集更多的蘋果,。

如果兩方AI都不使用激光束,,理論上他們可以平分所有的蘋果。這是“沒那么聰明”的舊版本AI所作的選擇,。

隨著谷歌團(tuán)隊(duì)測(cè)試形式的愈加復(fù)雜,,DeepMind也變得更貪婪、更具侵略性和攻擊性,。

“在蘋果相對(duì)豐富的環(huán)境中,,彼此攻擊的代價(jià)更大,因此AI會(huì)采用更溫和的策略,。在蘋果較少時(shí),,AI擊敗對(duì)手獨(dú)吞蘋果的貪婪欲望就出現(xiàn)了?!?/p>

第二個(gè)游戲叫作“狼群”,。這一次,有三個(gè)人工智能參與——它們中的兩個(gè)扮演狼,,另一個(gè)扮演獵物,。

和前一個(gè)游戲不同的是,這個(gè)游戲鼓勵(lì)合作,。如果獵物被捕獲時(shí),,兩只狼在都在獵物旁邊,他們都會(huì)得到獎(jiǎng)勵(lì)——不論哪一只抓獲了獵物,。

“這是捕獵有風(fēng)險(xiǎn)性的觀點(diǎn)——一只獨(dú)狼可以戰(zhàn)勝獵物,但可能會(huì)因食腐動(dòng)物的搶奪而丟掉這份戰(zhàn)利品”,,該團(tuán)隊(duì)在他們博客的文章中解釋道,。

“然而,當(dāng)兩只狼一同捕獵時(shí),,它們可以更好地對(duì)抗食腐動(dòng)物,,保護(hù)手中保護(hù)獵物,因此得到更高的回報(bào),?!?/p>

因此,在第一個(gè)游戲中,,AI認(rèn)識(shí)到侵略和自私可以獲得最有利自己的結(jié)果;從“狼群”游戲中,,它們也學(xué)習(xí)到,,有時(shí)合作會(huì)對(duì)自己更有利。

通過以上實(shí)驗(yàn),,也讓我們得出一個(gè)結(jié)論:AI 會(huì)根據(jù)自己所處的環(huán)境進(jìn)行抉擇,。

“在現(xiàn)實(shí)生活中,無論是合作還是相互攻訐,,都是復(fù)雜的行為,。因此 AI 需要掌握?qǐng)?zhí)行一系列動(dòng)作的先后順序?!盌eepMind  團(tuán)隊(duì)在博客中寫道,。“我們將這一全新設(shè)定看作連續(xù)的社會(huì)困境,,并利用深層強(qiáng)化學(xué)習(xí)訓(xùn)練的AI對(duì)其進(jìn)行研究,。”

我們應(yīng)考慮到,,雖然這些只是簡單的,、信息明確的電腦游戲,但在現(xiàn)實(shí)情況下,,這些職責(zé)不同,、利益沖突、相互競(jìng)爭的人工智能系統(tǒng),,如果不能將各自的目標(biāo)統(tǒng)合于人類利益高于一切的最高目標(biāo)之下,,后果將是災(zāi)難性的。

設(shè)想一下,,交通信號(hào)燈的目的是讓汽車減下速來,,無人駕駛汽車的目標(biāo)是找到速度最快的路線。但在二者合力下,,想要保證安全和有效的交通,,它們需要考慮彼此的目的才行。

DeepMind  的研究團(tuán)隊(duì)表示:“這樣的模型能夠讓我們?cè)谀M系統(tǒng)中測(cè)試策略和干預(yù)措施,?!比绻磺许樌磥砣祟悓?duì)復(fù)雜的,、多因素系統(tǒng),,如經(jīng)濟(jì)、交通或生態(tài)都能有深刻的把握,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。