2015年初,,一些研究者開(kāi)始擔(dān)心人工智能的安全,,一切都變化飛快,。
牛津大學(xué)人類(lèi)未來(lái)研究院院長(zhǎng),、哲學(xué)教授尼克·博斯特羅姆的新書(shū)《超級(jí)智能:方法、危險(xiǎn),、策略》供不應(yīng)求,,生命未來(lái)研究所(FLI)在波多黎各舉行了人工智能未來(lái)安全的討論會(huì)議,兩封關(guān)于人工智能和自動(dòng)武器的信件公之于眾,。
SpaceX和特斯拉的共同創(chuàng)始人埃隆·馬斯克,、宇宙學(xué)家斯蒂芬·霍金、微軟公司創(chuàng)始人比爾·蓋茨和蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等業(yè)界大咖都發(fā)表過(guò)關(guān)于人工智能威脅的言論,,無(wú)數(shù)文章援引了他們的擔(dān)憂(yōu),。
馬斯克通過(guò)FLI捐贈(zèng)了1000萬(wàn)美元用于人工智能安全研究,萊弗休姆未來(lái)情報(bào)中心獲得1500萬(wàn)美元用于研發(fā)智能的未來(lái),。還有最近成立不久的非營(yíng)利組織OpenAI,,花費(fèi)10億美元把人工智能領(lǐng)域最有思想的那群人聚到一起,,想辦法解決人工智能的安全問(wèn)題,。
總而言之,這是一個(gè)人工智能安全研究的豐收年,。越來(lái)越多的科研人員和從業(yè)人員加入到人工智能安全研究領(lǐng)域中來(lái),,還有許多未知的驚喜等著我們?nèi)グl(fā)現(xiàn)。
OpenAI的成立可以說(shuō)是這個(gè)月的重磅消息,,神經(jīng)信息處理系統(tǒng)會(huì)議也在此時(shí)召開(kāi),,吸引了一大批機(jī)器學(xué)習(xí)大牛蒞臨現(xiàn)場(chǎng)。
大會(huì)上最引人注目的是主題為《生活中的算法:機(jī)器學(xué)習(xí)對(duì)社會(huì)的影響》的座談會(huì),,人工智能行業(yè)最具影響力的大咖在會(huì)上談?wù)摿怂麄兊南敕ê蛯?duì)未來(lái)人工智能的擔(dān)憂(yōu),。本文要為大家分享各位大咖的最新觀點(diǎn)。
AGI值得我們擔(dān)心嗎,?
Artificial General Intelligence(AGI)是指強(qiáng)人工智能,,這是一種人類(lèi)級(jí)別的人工智能,在各方面都能和人類(lèi)比肩,,人類(lèi)能干的腦力活它都能干,。
不僅僅是當(dāng)今人工智能所應(yīng)對(duì)的局部、特定的問(wèn)題,,未來(lái)可能出現(xiàn)的復(fù)雜繁冗任務(wù)對(duì)它來(lái)說(shuō)都不在話(huà)下,,當(dāng)前的人工智能需要人類(lèi)進(jìn)行編程,,但不排除未來(lái)的某一天它可以自動(dòng)編程。因此,,AGI的定義其實(shí)也不太準(zhǔn)確,。
Facebook人工智能負(fù)責(zé)人雅安·勒存說(shuō):“我不想談?wù)撊斯ぶ悄埽驗(yàn)槲艺娴牟恢浪降资鞘裁匆馑??!?/p>
如果說(shuō)AGI定義尚難,那就更別說(shuō)要預(yù)測(cè)它的發(fā)展了,。勒存和吳恩達(dá)等人都認(rèn)為不必在AGI的預(yù)測(cè)上浪費(fèi)時(shí)間,,因?yàn)槟壳叭祟?lèi)要達(dá)到這個(gè)水平還遠(yuǎn)的很。人工智能還需要跨越一個(gè)幾年甚至幾十年的寒冬,。
百度首席科學(xué)家,、斯坦福大學(xué)教授吳恩達(dá)做了個(gè)比喻,人類(lèi)對(duì)未來(lái)人工智能的擔(dān)憂(yōu)簡(jiǎn)直比得上對(duì)半人馬座α星系的幻想(注:由于半人馬座α星系統(tǒng)距離地球很近,,許多科幻小說(shuō)都“認(rèn)為”這里存在發(fā)達(dá)的宇宙文明),。
勒存表示,我們真的無(wú)法得知擁有超常智慧的人工智能會(huì)是什么樣子,?!叭斯ぶ悄軙?huì)發(fā)展成人類(lèi)的智能嗎?肯不會(huì)的,?!崩沾娼忉?zhuān)祟?lèi)智能不是我們想象中的那個(gè)樣子,“我們是有本能的,,會(huì)驅(qū)動(dòng)一些人類(lèi)去做壞事,,但是人工智能卻沒(méi)有?!?/p>
然而,,一些與會(huì)者并不認(rèn)同勒存和吳恩達(dá)的觀點(diǎn)。他們認(rèn)為我們必須要提前做好應(yīng)對(duì)準(zhǔn)備,。
谷歌DeepMind聯(lián)合創(chuàng)始人肖恩·萊格認(rèn)為,,現(xiàn)在開(kāi)始研究人工智能安全是絕對(duì)有益的,它幫助我們建立起一個(gè)框架,,讓研究人員在這個(gè)框架內(nèi)朝著積極的方向去發(fā)展更聰明的人工智能,。
“關(guān)于人工智能的安全,我認(rèn)為有過(guò)分夸大和被忽略的方面,?!比R格認(rèn)為,我們應(yīng)該深刻地討論人工智能給社會(huì)帶來(lái)的正負(fù)面影響,?!爱?dāng)我們正處在發(fā)展的過(guò)渡期,,我們應(yīng)該負(fù)起責(zé)任,提前考慮技術(shù),、社會(huì),、法律等方面的問(wèn)題,提前做好準(zhǔn)備總比出現(xiàn)問(wèn)題時(shí)再考慮好,?!?/p>
紐約大學(xué)語(yǔ)言與音樂(lè)研究心理學(xué)家加里·馬庫(kù)斯補(bǔ)充道:“我們不僅需要為人工總體智能做準(zhǔn)備,更要為人工智能做準(zhǔn)備?,F(xiàn)在已經(jīng)出現(xiàn)了安全和風(fēng)險(xiǎn)問(wèn)題了,。”
吳恩達(dá)認(rèn)為人工智能安全研究并不是一件壞事,,“我很高興能看到社會(huì)各界的人們參與到人工智能倫理研究中來(lái),,這確實(shí)是一個(gè)偉大的事業(yè)?!钡珔嵌鬟_(dá)堅(jiān)持認(rèn)為不能花太多精力到人工智能安全研究上去,。
人工智能影響經(jīng)濟(jì)?
盡管研究人員在會(huì)議上各執(zhí)己見(jiàn),,但有一個(gè)問(wèn)題卻幾乎贏得了所有人的贊同——人工智能可能危害就業(yè)市場(chǎng),。
埃里克·布呂諾爾夫松是《工業(yè)時(shí)代2:人工智能》的作者之一,他提出了人工智能可能會(huì)對(duì)經(jīng)濟(jì)產(chǎn)生一些影響,。他說(shuō),,我們的技術(shù)飛速進(jìn)步,這是好的,,但我們的技術(shù),、組織和機(jī)構(gòu)并沒(méi)有跟上,因此無(wú)法享受技術(shù)進(jìn)步帶來(lái)的福利,。
吳恩達(dá)雖然不擔(dān)心AGI的未來(lái),但他卻十分關(guān)注即將出現(xiàn)的經(jīng)濟(jì)問(wèn)題,?!拔艺J(rèn)為最大的挑戰(zhàn)是失業(yè)?!?/p>
盡管當(dāng)今人工智能發(fā)展得十分局限,,但失業(yè)問(wèn)題已經(jīng)開(kāi)始出現(xiàn)了。在世界各地,,中低技工不斷被機(jī)器人或軟件所取代工作,,并且取代率會(huì)不斷上升。
勒存認(rèn)為,,蒸汽機(jī)的出現(xiàn)也導(dǎo)致了大規(guī)模的失業(yè),,現(xiàn)在世界也一樣可以克服,。但布呂諾爾夫松和吳恩達(dá)不同意這一觀點(diǎn),因?yàn)楫?dāng)今的技術(shù)進(jìn)步更加快速,。
“技術(shù)在不斷地吞噬工作,,也在不斷地創(chuàng)造工作?!辈紖沃Z爾夫松承認(rèn),,但他也指出,要預(yù)測(cè)技術(shù)進(jìn)步帶來(lái)的影響十分困難,,因?yàn)楫?dāng)前技術(shù)進(jìn)步的速度是前所未有的快,。
牛津大學(xué)人類(lèi)未來(lái)研究院院長(zhǎng)、哲學(xué)教授尼克·博斯特羅姆認(rèn)為,,把會(huì)思考的機(jī)器和工業(yè)革命蒸汽機(jī)的崛起做比較是不恰當(dāng)?shù)?,因?yàn)樗腿祟?lèi)崛起的過(guò)程更加相似。
有朝一日,,假若擁有超常智慧的人工智能真的被開(kāi)發(fā)出來(lái)了,,那人類(lèi)的創(chuàng)造史也就到此結(jié)束了。
目前經(jīng)濟(jì)存在一個(gè)巨大問(wèn)題,,市場(chǎng)變化迅速,,大多數(shù)人無(wú)法快速培養(yǎng)與之適應(yīng)的新技能,失業(yè)保障金和技術(shù)培訓(xùn)可以解決部分問(wèn)題,。然而,,失業(yè)帶來(lái)的心理陰影仍然成了很多人克服不了的問(wèn)題。這引起了專(zhuān)家們的注意,。
博斯特羅姆教授卻意外地樂(lè)觀,,他認(rèn)為失業(yè)不是失去全世界,失業(yè)人員可以利用失業(yè)的時(shí)間來(lái)享受其他的愛(ài)好,,填補(bǔ)錯(cuò)過(guò)的快樂(lè)時(shí)光,。
不遠(yuǎn)的將來(lái),人工智能即將出發(fā)新一輪失業(yè)浪潮,,這要求各國(guó)領(lǐng)導(dǎo)人主動(dòng)采取失業(yè)保障金等有效政策來(lái)應(yīng)對(duì),。
何時(shí)展開(kāi)人工智能安全研究?
理想狀態(tài)下,,技術(shù)只是一個(gè)工具,,并沒(méi)有好壞之分。它對(duì)人類(lèi)的幫助和傷害取決于使用者,。除非人工智能可以發(fā)展到有思考的能力,,但這一說(shuō)法并不準(zhǔn)確,因?yàn)槿斯ぶ悄懿⒉皇侨耍膊粌H僅是一種工具,。
伊恩·克爾是加拿大渥太華大學(xué)的倫理,、法律研究主席,他在會(huì)議上談到了人工智能的法律問(wèn)題,。人工智能的首要問(wèn)題是:這是誰(shuí)的責(zé)任,?出現(xiàn)問(wèn)題時(shí)誰(shuí)來(lái)負(fù)責(zé)?
另一方面,,當(dāng)人類(lèi)和人工智能的建議出現(xiàn)對(duì)立時(shí),,該如何選擇?要怎樣證明選擇的正確性,?
這場(chǎng)討論會(huì)令與會(huì)者們印象深刻,。2015年初,一些研究者開(kāi)始擔(dān)心人工智能的安全?,F(xiàn)在,,雖然大多數(shù)人還不擔(dān)心,但他們都承認(rèn),,提前考慮這些問(wèn)題確實(shí)沒(méi)有壞處,。
最大的分歧在于我們?cè)撚诤螘r(shí)展開(kāi)人工智能安全研究。
與會(huì)人員們都認(rèn)為人工智能升級(jí)的過(guò)程是循序漸進(jìn)的,,而不是一些媒體口中一蹴而就的?,F(xiàn)在已經(jīng)出現(xiàn)了智能機(jī)器,完成任務(wù)的過(guò)程比人類(lèi)更好更快,,這一趨勢(shì)會(huì)不斷持續(xù)下去,。
哈佛大學(xué)計(jì)算機(jī)科學(xué)教授菲納利·多西·韋萊茲指出,至少現(xiàn)在,,我們還可以控制我們的機(jī)器,,如果出現(xiàn)了不理想的結(jié)果,我們可以重新編程,。
但是,,這會(huì)是長(zhǎng)久之計(jì)嗎?