面對可能迅速發(fā)展的人工智能,,全球的風(fēng)險(xiǎn)應(yīng)對能力似乎并未步入正軌,。
在韓國首爾舉行的第二屆人工智能安全峰會(5月21日至22日)開展之際,,25位世界領(lǐng)先的人工智能科學(xué)家在《科學(xué)》雜志上共同發(fā)表了一篇專家共識論文,他們認(rèn)為,,當(dāng)今全球在保護(hù)人類免受技術(shù)滋生的風(fēng)險(xiǎn)方面做得還不夠。
在論文中,,他們概述了全球領(lǐng)導(dǎo)人應(yīng)該采取的緊急政策優(yōu)先事項(xiàng),,以應(yīng)對人工智能技術(shù)的威脅。
重要建議
該論文的合著者包括Geoffrey Hinton, Andrew Yao, Dawn Song,,Daniel Kahneman等25位世界領(lǐng)先的人工智能及其治理學(xué)術(shù)專家,。這些作者來自美國、中國,、歐盟,、英國和其他人工智能大國,其中還包括圖靈獎(jiǎng)得主,、諾貝爾獎(jiǎng)獲得者和標(biāo)準(zhǔn)人工智能教科書的作者,。
這些科學(xué)家指出,世界各國領(lǐng)導(dǎo)人必須認(rèn)真對待在當(dāng)前十年或未來十年開發(fā)出強(qiáng)大的通用人工智能(AGI)系統(tǒng)的可能性,,這種系統(tǒng)有可能在許多關(guān)鍵領(lǐng)域的表現(xiàn)都超越了人類,。
他們還稱,盡管世界各國政府一直在討論前沿人工智能,,并在引入初步指導(dǎo)方針方面做出了一些嘗試,,但這與許多專家預(yù)期的快速、變革性進(jìn)展的可能性根本不相稱,。
該論文的合著者,、牛津大學(xué)工程科學(xué)系的Philip Torr教授稱,“在上次人工智能峰會上,,全世界都贊成需要采取行動(dòng),,但現(xiàn)在是時(shí)候從模糊的建議變成具體的承諾了?!?/p>
這篇論文為公司和政府應(yīng)該承諾做什么提供了一些重要建議,,包括:
建立能迅速對風(fēng)險(xiǎn)作出反應(yīng)的專家機(jī)構(gòu)來監(jiān)督人工智能,并為這些機(jī)構(gòu)提供更多的資金,。
要求更嚴(yán)格的風(fēng)險(xiǎn)評估,,并具有可執(zhí)行的結(jié)果,而不是依賴于自愿的或未明確的模型評估,。
要求人工智能公司優(yōu)先考慮安全,,并證明他們的系統(tǒng)不會造成傷害,,人工智能開發(fā)人員應(yīng)考慮安全性。
實(shí)施與人工智能系統(tǒng)構(gòu)成的風(fēng)險(xiǎn)水平相符的風(fēng)險(xiǎn)緩釋標(biāo)準(zhǔn),。應(yīng)設(shè)置適當(dāng)?shù)牟呗?,?dāng)人工智能達(dá)到某些能力里程碑時(shí)自動(dòng)觸發(fā)嚴(yán)格的要求;但如果人工智能進(jìn)展緩慢,,要求會相應(yīng)放寬,。
值得一提的是,當(dāng)?shù)貢r(shí)間周二(5月21日)在首爾人工智能峰會上,,微軟,、亞馬遜、OpenAI等科技巨頭就人工智能安全達(dá)成了一項(xiàng)具有里程碑意義的國際協(xié)議,。
這項(xiàng)協(xié)議下,,許多企業(yè)做出承諾,包括發(fā)布安全框架,,列出衡量潛在風(fēng)險(xiǎn),;一旦發(fā)現(xiàn)了這種極端情況,如果不能保證降低風(fēng)險(xiǎn),,企業(yè)們就需要打開“緊急停止開關(guān)”,,叫停AI模型的開發(fā)進(jìn)程。
政府監(jiān)管帶頭
根據(jù)作者的說法,,對于未來異常強(qiáng)大的人工智能系統(tǒng),,政府必須準(zhǔn)備好在監(jiān)管方面發(fā)揮帶頭作用。這包括:許可這些系統(tǒng)的開發(fā),,限制其在關(guān)鍵社會角色中的自主權(quán),,停止其開發(fā)和部署以應(yīng)對令人擔(dān)憂的功能,強(qiáng)制訪問控制,,以及要求對國家級黑客采取強(qiáng)有力的信息安全措施,。
加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授、世界標(biāo)準(zhǔn)人工智能教科書的作者斯圖爾特·羅素Stuart Russell OBE表示,,“這是一份由頂尖專家達(dá)成共識的論文,,它呼吁政府嚴(yán)格監(jiān)管,而不是由行業(yè)制定自愿的行為準(zhǔn)則,?!?/p>
他補(bǔ)充道,“是時(shí)候認(rèn)真對待先進(jìn)的人工智能系統(tǒng)了,。這些不是玩具,。如果說‘監(jiān)管扼殺了創(chuàng)新’,那太荒唐了,因?yàn)閷δ切┢胀ㄈ髦蔚甑谋O(jiān)管甚至比對人工智能公司的監(jiān)管還多,?!?/p>