2015年初,,一些研究者開始擔(dān)心人工智能的安全,,一切都變化飛快,。
牛津大學(xué)人類未來研究院院長、哲學(xué)教授尼克·博斯特羅姆的新書《超級智能:方法,、危險,、策略》供不應(yīng)求,生命未來研究所(FLI)在波多黎各舉行了人工智能未來安全的討論會議,,兩封關(guān)于人工智能和自動武器的信件公之于眾,。
SpaceX和特斯拉的共同創(chuàng)始人埃隆·馬斯克、宇宙學(xué)家斯蒂芬·霍金,、微軟公司創(chuàng)始人比爾·蓋茨和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等業(yè)界大咖都發(fā)表過關(guān)于人工智能威脅的言論,,無數(shù)文章援引了他們的擔(dān)憂。
馬斯克通過FLI捐贈了1000萬美元用于人工智能安全研究,,萊弗休姆未來情報中心獲得1500萬美元用于研發(fā)智能的未來,。還有最近成立不久的非營利組織OpenAI,花費10億美元把人工智能領(lǐng)域最有思想的那群人聚到一起,,想辦法解決人工智能的安全問題,。
總而言之,這是一個人工智能安全研究的豐收年,。越來越多的科研人員和從業(yè)人員加入到人工智能安全研究領(lǐng)域中來,,還有許多未知的驚喜等著我們?nèi)グl(fā)現(xiàn)。
OpenAI的成立可以說是這個月的重磅消息,,神經(jīng)信息處理系統(tǒng)會議也在此時召開,,吸引了一大批機器學(xué)習(xí)大牛蒞臨現(xiàn)場。
大會上最引人注目的是主題為《生活中的算法:機器學(xué)習(xí)對社會的影響》的座談會,,人工智能行業(yè)最具影響力的大咖在會上談?wù)摿怂麄兊南敕ê蛯ξ磥砣斯ぶ悄艿膿?dān)憂,。本文要為大家分享各位大咖的最新觀點。
AGI值得我們擔(dān)心嗎,?
Artificial General Intelligence(AGI)是指強人工智能,,這是一種人類級別的人工智能,在各方面都能和人類比肩,人類能干的腦力活它都能干,。
不僅僅是當(dāng)今人工智能所應(yīng)對的局部,、特定的問題,未來可能出現(xiàn)的復(fù)雜繁冗任務(wù)對它來說都不在話下,,當(dāng)前的人工智能需要人類進行編程,,但不排除未來的某一天它可以自動編程。因此,,AGI的定義其實也不太準(zhǔn)確,。
Facebook人工智能負(fù)責(zé)人雅安·勒存說:“我不想談?wù)撊斯ぶ悄埽驗槲艺娴牟恢浪降资鞘裁匆馑?。?/p>
如果說AGI定義尚難,,那就更別說要預(yù)測它的發(fā)展了,。勒存和吳恩達等人都認(rèn)為不必在AGI的預(yù)測上浪費時間,因為目前人類要達到這個水平還遠(yuǎn)的很,。人工智能還需要跨越一個幾年甚至幾十年的寒冬,。
百度首席科學(xué)家、斯坦福大學(xué)教授吳恩達做了個比喻,,人類對未來人工智能的擔(dān)憂簡直比得上對半人馬座α星系的幻想(注:由于半人馬座α星系統(tǒng)距離地球很近,,許多科幻小說都“認(rèn)為”這里存在發(fā)達的宇宙文明)。
勒存表示,,我們真的無法得知擁有超常智慧的人工智能會是什么樣子,。“人工智能會發(fā)展成人類的智能嗎,?肯不會的,。”勒存解釋,,人類智能不是我們想象中的那個樣子,,“我們是有本能的,會驅(qū)動一些人類去做壞事,,但是人工智能卻沒有,。”
然而,,一些與會者并不認(rèn)同勒存和吳恩達的觀點,。他們認(rèn)為我們必須要提前做好應(yīng)對準(zhǔn)備。
谷歌DeepMind聯(lián)合創(chuàng)始人肖恩·萊格認(rèn)為,,現(xiàn)在開始研究人工智能安全是絕對有益的,,它幫助我們建立起一個框架,讓研究人員在這個框架內(nèi)朝著積極的方向去發(fā)展更聰明的人工智能。
“關(guān)于人工智能的安全,,我認(rèn)為有過分夸大和被忽略的方面,。”萊格認(rèn)為,,我們應(yīng)該深刻地討論人工智能給社會帶來的正負(fù)面影響,。“當(dāng)我們正處在發(fā)展的過渡期,,我們應(yīng)該負(fù)起責(zé)任,,提前考慮技術(shù)、社會,、法律等方面的問題,,提前做好準(zhǔn)備總比出現(xiàn)問題時再考慮好?!?/p>
紐約大學(xué)語言與音樂研究心理學(xué)家加里·馬庫斯補充道:“我們不僅需要為人工總體智能做準(zhǔn)備,,更要為人工智能做準(zhǔn)備。現(xiàn)在已經(jīng)出現(xiàn)了安全和風(fēng)險問題了,?!?/p>
吳恩達認(rèn)為人工智能安全研究并不是一件壞事,“我很高興能看到社會各界的人們參與到人工智能倫理研究中來,,這確實是一個偉大的事業(yè),。”但吳恩達堅持認(rèn)為不能花太多精力到人工智能安全研究上去,。
人工智能影響經(jīng)濟,?
盡管研究人員在會議上各執(zhí)己見,但有一個問題卻幾乎贏得了所有人的贊同——人工智能可能危害就業(yè)市場,。
埃里克·布呂諾爾夫松是《工業(yè)時代2:人工智能》的作者之一,,他提出了人工智能可能會對經(jīng)濟產(chǎn)生一些影響。他說,,我們的技術(shù)飛速進步,,這是好的,但我們的技術(shù),、組織和機構(gòu)并沒有跟上,,因此無法享受技術(shù)進步帶來的福利。
吳恩達雖然不擔(dān)心AGI的未來,,但他卻十分關(guān)注即將出現(xiàn)的經(jīng)濟問題,。“我認(rèn)為最大的挑戰(zhàn)是失業(yè),?!?/p>
盡管當(dāng)今人工智能發(fā)展得十分局限,,但失業(yè)問題已經(jīng)開始出現(xiàn)了。在世界各地,,中低技工不斷被機器人或軟件所取代工作,,并且取代率會不斷上升。
勒存認(rèn)為,,蒸汽機的出現(xiàn)也導(dǎo)致了大規(guī)模的失業(yè),,現(xiàn)在世界也一樣可以克服。但布呂諾爾夫松和吳恩達不同意這一觀點,,因為當(dāng)今的技術(shù)進步更加快速,。
“技術(shù)在不斷地吞噬工作,也在不斷地創(chuàng)造工作,?!辈紖沃Z爾夫松承認(rèn),但他也指出,,要預(yù)測技術(shù)進步帶來的影響十分困難,,因為當(dāng)前技術(shù)進步的速度是前所未有的快。
牛津大學(xué)人類未來研究院院長,、哲學(xué)教授尼克·博斯特羅姆認(rèn)為,把會思考的機器和工業(yè)革命蒸汽機的崛起做比較是不恰當(dāng)?shù)?,因為它和人類崛起的過程更加相似,。
有朝一日,假若擁有超常智慧的人工智能真的被開發(fā)出來了,,那人類的創(chuàng)造史也就到此結(jié)束了,。
目前經(jīng)濟存在一個巨大問題,市場變化迅速,,大多數(shù)人無法快速培養(yǎng)與之適應(yīng)的新技能,,失業(yè)保障金和技術(shù)培訓(xùn)可以解決部分問題。然而,,失業(yè)帶來的心理陰影仍然成了很多人克服不了的問題,。這引起了專家們的注意。
博斯特羅姆教授卻意外地樂觀,,他認(rèn)為失業(yè)不是失去全世界,,失業(yè)人員可以利用失業(yè)的時間來享受其他的愛好,填補錯過的快樂時光,。
不遠(yuǎn)的將來,,人工智能即將出發(fā)新一輪失業(yè)浪潮,這要求各國領(lǐng)導(dǎo)人主動采取失業(yè)保障金等有效政策來應(yīng)對,。
何時展開人工智能安全研究,?
理想狀態(tài)下,,技術(shù)只是一個工具,并沒有好壞之分,。它對人類的幫助和傷害取決于使用者,。除非人工智能可以發(fā)展到有思考的能力,但這一說法并不準(zhǔn)確,,因為人工智能并不是人,,但也不僅僅是一種工具。
伊恩·克爾是加拿大渥太華大學(xué)的倫理,、法律研究主席,,他在會議上談到了人工智能的法律問題。人工智能的首要問題是:這是誰的責(zé)任,?出現(xiàn)問題時誰來負(fù)責(zé),?
另一方面,當(dāng)人類和人工智能的建議出現(xiàn)對立時,,該如何選擇,?要怎樣證明選擇的正確性?
這場討論會令與會者們印象深刻,。2015年初,,一些研究者開始擔(dān)心人工智能的安全。現(xiàn)在,,雖然大多數(shù)人還不擔(dān)心,,但他們都承認(rèn),提前考慮這些問題確實沒有壞處,。
最大的分歧在于我們該于何時展開人工智能安全研究,。
與會人員們都認(rèn)為人工智能升級的過程是循序漸進的,而不是一些媒體口中一蹴而就的?,F(xiàn)在已經(jīng)出現(xiàn)了智能機器,,完成任務(wù)的過程比人類更好更快,這一趨勢會不斷持續(xù)下去,。
哈佛大學(xué)計算機科學(xué)教授菲納利·多西·韋萊茲指出,,至少現(xiàn)在,我們還可以控制我們的機器,,如果出現(xiàn)了不理想的結(jié)果,,我們可以重新編程。
但是,,這會是長久之計嗎,?