很難想象,,達到人類等級的人工智能會如何造福人類,,同樣也難以想象不恰當(dāng)?shù)厥褂盟?,會釀成什么樣的惡果?/p>
AI有做壞事的本領(lǐng),在空戰(zhàn)模擬器上,,阿爾法人工智能程序在與美國空軍退休上校吉恩 李的較量中,,獲得完勝,。此類例子已經(jīng)不勝枚舉,。
所以,如何使用機器人是個大問題,。即便你為機器人設(shè)定了一個目的純良的任務(wù),,但機器人在實現(xiàn)目標(biāo)的過程中,如何選擇實現(xiàn)路徑仍然是個問題,,它會不會為達目的而不擇手段呢?
因此,,為考驗AI在兩難境地下如何做出策略選擇,谷歌的 DeepMind 團隊進行了針對性實驗,,實驗中的兩款游戲都是以博弈論的囚徒困境理論為基礎(chǔ)開發(fā)的,。
囚徒困境是指兩個共謀犯罪的人被關(guān)入監(jiān)獄,不能互相溝通,。如果兩個人都不揭發(fā)對方,,則由于證據(jù)不確定,每個人坐牢一年;若一人揭發(fā),,而另一人沉默,,揭發(fā)者立即獲釋,沉默者入獄五年;若互相揭發(fā),,則因證據(jù)確實,,二人都判刑兩年。由于囚徒無法信任對方,因此傾向于互相揭發(fā),,而不是同守沉默,。這一經(jīng)典理論說明了即便合作對雙方都有利,但合作仍然是困難的,。
DeepMind為此設(shè)計的第一款游戲名為“采集”,。他們將一個以“收集水果”為目的的電腦游戲運行了4000萬次,并要求兩個AI互相競爭,,看誰能收集更多的虛擬蘋果,。
他們發(fā)現(xiàn),在有足夠的蘋果時AI還相安無事,,但隨著蘋果減少,,兩個AI就有攻擊性了。為了將對手踢出游戲,,獨吞所有蘋果,,它們開始使用激光束來攻擊對手。
有趣的是,,AI用激光束攻擊對手獲得成功的行為并不能直接獲得獎勵,。它只是讓對手在游戲中消失一會兒,以便自己可以收集更多的蘋果,。
如果兩方AI都不使用激光束,,理論上他們可以平分所有的蘋果。這是“沒那么聰明”的舊版本AI所作的選擇,。
隨著谷歌團隊測試形式的愈加復(fù)雜,,DeepMind也變得更貪婪、更具侵略性和攻擊性,。
“在蘋果相對豐富的環(huán)境中,,彼此攻擊的代價更大,因此AI會采用更溫和的策略,。在蘋果較少時,,AI擊敗對手獨吞蘋果的貪婪欲望就出現(xiàn)了?!?/p>
第二個游戲叫作“狼群”,。這一次,有三個人工智能參與——它們中的兩個扮演狼,,另一個扮演獵物,。
和前一個游戲不同的是,這個游戲鼓勵合作,。如果獵物被捕獲時,,兩只狼在都在獵物旁邊,,他們都會得到獎勵——不論哪一只抓獲了獵物。
“這是捕獵有風(fēng)險性的觀點——一只獨狼可以戰(zhàn)勝獵物,,但可能會因食腐動物的搶奪而丟掉這份戰(zhàn)利品”,,該團隊在他們博客的文章中解釋道。
“然而,,當(dāng)兩只狼一同捕獵時,,它們可以更好地對抗食腐動物,保護手中保護獵物,,因此得到更高的回報,。”
因此,,在第一個游戲中,,AI認識到侵略和自私可以獲得最有利自己的結(jié)果;從“狼群”游戲中,它們也學(xué)習(xí)到,,有時合作會對自己更有利,。
通過以上實驗,也讓我們得出一個結(jié)論:AI 會根據(jù)自己所處的環(huán)境進行抉擇,。
“在現(xiàn)實生活中,,無論是合作還是相互攻訐,都是復(fù)雜的行為,。因此 AI 需要掌握執(zhí)行一系列動作的先后順序,。”DeepMind 團隊在博客中寫道,?!拔覀儗⑦@一全新設(shè)定看作連續(xù)的社會困境,并利用深層強化學(xué)習(xí)訓(xùn)練的AI對其進行研究,。”
我們應(yīng)考慮到,,雖然這些只是簡單的,、信息明確的電腦游戲,但在現(xiàn)實情況下,,這些職責(zé)不同,、利益沖突、相互競爭的人工智能系統(tǒng),,如果不能將各自的目標(biāo)統(tǒng)合于人類利益高于一切的最高目標(biāo)之下,,后果將是災(zāi)難性的。
設(shè)想一下,,交通信號燈的目的是讓汽車減下速來,,無人駕駛汽車的目標(biāo)是找到速度最快的路線,。但在二者合力下,想要保證安全和有效的交通,,它們需要考慮彼此的目的才行,。
DeepMind 的研究團隊表示:“這樣的模型能夠讓我們在模擬系統(tǒng)中測試策略和干預(yù)措施?!比绻磺许樌?,未來人類對復(fù)雜的、多因素系統(tǒng),,如經(jīng)濟,、交通或生態(tài)都能有深刻的把握。