如果你了解過關(guān)于人工智能的各種觀點,,那么可能會非常擔(dān)心“超級智能”,或者說“殺手人工智能”的出現(xiàn),。
《麻省理工科技評論》近期刊登了艾倫人工智能研究所CEO,、華盛頓大學(xué)計算機科學(xué)教授奧林·艾奇奧尼(OrenEtzioni)的文章,,分析了超級人工智能出現(xiàn)的可能性。艾奇奧尼的研究結(jié)論是,,超級智能在可預(yù)見的未來還不會出現(xiàn),。
《麻省理工科技評論》中發(fā)表的文章與報告觀點基本類似,以下為文章全文:
如果你了解過關(guān)于人工智能的各種觀點,,那么可能會非常擔(dān)心“超級智能”,,或者說“殺手人工智能”的出現(xiàn)。近期英國《衛(wèi)報》警告稱,,“我們就像是在玩炸彈的小孩”,,《新聞周刊》則指出“人工智能正在到來,有可能徹底消滅我們”,。
在伊隆·馬斯克(ElonMusk)和史蒂芬·霍金(StephenHawking)等人觀點的支撐下,,許多媒體都有過這樣的報道。實際上,,這種觀點來自一個人的研究成果:英國教授尼克·博斯特羅姆(NickBostrom),,哲學(xué)著作《超級智能:道路,、危險和策略》的作者,。
博斯特羅姆是牛津大學(xué)哲學(xué)家,而對風(fēng)險的量化評估則是保險精算學(xué)的領(lǐng)域,。他或許被認(rèn)為是全球首位“精算哲學(xué)家”,??紤]到哲學(xué)是一種概念論證學(xué)科,而風(fēng)險評估則是由數(shù)據(jù)驅(qū)動的統(tǒng)計學(xué)工作,,因此這樣的頭銜顯得很矛盾,。
那么,數(shù)據(jù)告訴我們什么,?2011年,,作為希臘人工智能協(xié)會的成員,博斯特羅姆參加了在希臘塞薩洛尼基舉辦的“人工智能哲學(xué)和理論”大會,。當(dāng)時,,他整理了4項調(diào)查的結(jié)果,并給出了人腦水平人工智能在不同時間點出現(xiàn)的可能性:
2022年:10%,。
2040年:50%,。
2075年:90%。
關(guān)于人腦水平人工智能的發(fā)展,,博斯特羅姆撰寫了一份300頁的哲學(xué)論證,,而這4項調(diào)查是最主要的數(shù)據(jù)來源。
為了更準(zhǔn)確地評估行業(yè)領(lǐng)先研究者的意見,,我尋求了美國人工智能協(xié)會(AAAI)會士們的幫助,。這些研究員對人工智能的研究做出了重要而持續(xù)的貢獻(xiàn)。
2016年3月初,,AAAI幫我發(fā)出了一份匿名調(diào)查問卷,,向193名會士提出了以下問題:“在他的書中,尼克·博斯特羅姆將超級智能定義為‘在各個實際領(lǐng)域,,包括科學(xué)創(chuàng)造力,、一般常識和社會技能等方面,比最出色人腦還要更聰明的智能’,。你們認(rèn)為,,我們何時將會看到超級智能?”
在隨后的一周多時間里,,80名會士做出了回復(fù)(回復(fù)比例為41%),。他們的回復(fù)總結(jié)如下:
92.5%的受訪者認(rèn)為,在可預(yù)見的未來超級智能不會出現(xiàn),。這一觀點也得到了許多會士書面內(nèi)容的支持,。
即使調(diào)查是匿名的,44名會士仍決定實名回復(fù),。這其中包括深度學(xué)習(xí)先驅(qū)吉奧夫·辛頓(GeoffHinton),、來自斯坦福大學(xué)的圖靈獎獲得者埃德·菲恩鮑姆(EdFeigenbaum)、領(lǐng)先的機器人專家羅尼·布魯克斯(RodneyBrooks),,以及谷歌的皮特·諾維格(PeterNorvig),。
受訪者也給出了更多看法,,摘錄如下:
“可能還需要超過25年時間。更有可能還要幾個世紀(jì),。但不可能永遠(yuǎn)無法實現(xiàn),。”
“我們正在與人腦數(shù)百萬年的進(jìn)化展開競爭,。我們可以編寫單一目的程序,,匹敵人類,有時甚至勝過人類,。然而,,世界并不是由多個單一問題組成的?!?/p>
“尼克·博斯特羅姆是職業(yè)恐慌傳播者,。他的研究所扮演的角色就是尋找人類的現(xiàn)存威脅。他在各種地方都能看出威脅來,。我傾向于將他稱作人工智能領(lǐng)域的特朗普,。”
這種調(diào)查的科學(xué)價值有限,。問題表述和受訪者的選擇都可能會對結(jié)果帶來影響,。然而,這也是博斯特羅姆參考的一種數(shù)據(jù)來源,。
另一種研究方法是根據(jù)人工智能當(dāng)前的發(fā)展去推斷未來的趨勢,。然而這也很困難,因為我們還無法確定當(dāng)前人腦水平智能的量化指標(biāo),。我們已經(jīng)在象棋和圍棋等領(lǐng)域?qū)崿F(xiàn)了超級智能,,但正如艾倫研究所的研究顯示,我們的程序在美國8年級科學(xué)考試中還無法及格,。
關(guān)于人工智能我們有很多方面的擔(dān)心,,無論是對就業(yè)崗位的影響,還是自動化武器系統(tǒng),,甚至超級智能的潛在風(fēng)險,。然而,當(dāng)前的數(shù)據(jù)并沒有表明,,超級智能將在可預(yù)見的未來誕生,。與此同時,悲觀預(yù)測通常沒有看到人工智能給人類帶來的幫助,,例如預(yù)防醫(yī)療失誤和減少汽車事故,。
此外,人類未來有可能與人工智能系統(tǒng)合作,開發(fā)出共生的超級智能,。這將與博斯特羅姆設(shè)想的有害的超級智能存在很大不同。