雷鋒網(wǎng)AI科技評論按:IEEE(美國電氣和電子工程師協(xié)會)最新宣布了三項(xiàng)新的人工智能發(fā)展標(biāo)準(zhǔn)。
IEEE 號稱為“世界上最大的先進(jìn)技術(shù)專業(yè)組織”,。根據(jù)最近發(fā)布的一份報(bào)告,,他們的人工智能標(biāo)準(zhǔn)將優(yōu)先考慮人類,,因?yàn)樗麄兂兄Z要跟上AI領(lǐng)域不斷發(fā)展的腳步,。
IEEE發(fā)布三項(xiàng)人工智能新標(biāo)準(zhǔn),涉及高層次倫理問題
在發(fā)布的《合乎倫理的設(shè)計(jì):將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》報(bào)告中,,共分為八個(gè)部部分闡述了新的人工智能發(fā)展問題,。分別是:一般原則,人工智能系統(tǒng)賦值,;指導(dǎo)倫理學(xué)研究和設(shè)計(jì)的方法學(xué),;通用人工智能和超級人工智能的安全與福祉;個(gè)人數(shù)據(jù)和個(gè)人訪問控制,;重新構(gòu)造自動(dòng)武器系統(tǒng),;經(jīng)濟(jì)/人道主義問題;法律,。
IEEE發(fā)布三項(xiàng)人工智能新標(biāo)準(zhǔn),,涉及高層次倫理問題
一般原則涉及高層次倫理問題,適用于所有類型的人工智能和自主系統(tǒng),。在確定一般原則時(shí),,主要考慮三大因素:體現(xiàn)人權(quán);優(yōu)先考慮最大化對人類和自然環(huán)境的好處,;削弱人工智能的風(fēng)險(xiǎn)和負(fù)面影響,。
人類利益原則要求考慮如何確保AI不侵犯人權(quán)。責(zé)任原則涉及如何確保AI是可以被問責(zé)的,。為了解決過錯(cuò)問題,,避免公眾困惑,AI系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,,證明其為什么以特定方式運(yùn)作,。透明性原則意味著自主系統(tǒng)的運(yùn)作必須是透明的。AI是透明的意味著人們能夠發(fā)現(xiàn)其如何以及為何做出特定決定,。
在關(guān)于如何將人類規(guī)范和道德價(jià)值觀嵌入AI系統(tǒng)中,,報(bào)告中表示由于AI系統(tǒng)在做決定、操縱其所處環(huán)境等方面越來越具有自主性,,讓其采納,、學(xué)習(xí)并遵守其所服務(wù)的社會和團(tuán)體的規(guī)范和價(jià)值是至關(guān)重要的??梢苑秩絹韺?shí)現(xiàn)將價(jià)值嵌入AI系統(tǒng)的目的:
第一,,識別特定社會或團(tuán)體的規(guī)范和價(jià)值;
第二,,將這些規(guī)范和價(jià)值編寫進(jìn)AI系統(tǒng),;
第三,評估被寫進(jìn)AI系統(tǒng)的規(guī)范和價(jià)值的有效性,即其是否和現(xiàn)實(shí)的規(guī)范和價(jià)值相一致,、相兼容,。
雖然上述的相關(guān)研究一直在持續(xù),這些研究領(lǐng)域包括機(jī)器道德(Machine Morality),、機(jī)器倫理學(xué)(Machine Ethics),、道德機(jī)器(Moral Machine)、價(jià)值一致論(Value Alignment),、人工道德(Artificial Morality),、安全AI、友好AI等,,但開發(fā)能夠意識到并理解人類規(guī)范和價(jià)值的計(jì)算機(jī)系統(tǒng),,并讓其在做決策時(shí)考慮這些問題,一直困擾著人們,。當(dāng)前主要存在兩種路徑:自上而下的路徑和自下而上的路徑,。這一領(lǐng)域的研究需要加強(qiáng)。
報(bào)告中還指出需要指導(dǎo)倫理研究和設(shè)計(jì)的方法論,,通用人工智能和超級人工智能的安全與福祉,,重構(gòu)自主武器系統(tǒng),以及經(jīng)濟(jì)/人道主義問題等八個(gè)人工智能發(fā)展面臨的問題,。報(bào)告中收集了超過一百位來自人工智能領(lǐng)域?qū)W術(shù)界,,科學(xué)界,以及政府相關(guān)部門的思想領(lǐng)袖的意見,,整合了人工智能,、倫理學(xué)、哲學(xué)和政策等多個(gè)領(lǐng)域?qū)I(yè)知識,。它的修訂版EAD(Ethically Aligned Design) 版本將會在2017年底推出,,報(bào)告增至為十三個(gè)章節(jié),含二百五十多個(gè)全球思想領(lǐng)袖的精華分享,。
IEEE 機(jī)器人和自動(dòng)化協(xié)會的主席Satoshi Tadokoro 解釋了他們?yōu)槭裁聪胍贫ㄟ@樣的標(biāo)準(zhǔn):“機(jī)器人和自動(dòng)系統(tǒng)將為社會帶來重大創(chuàng)新,。最近,公眾越來越關(guān)注可能發(fā)生的社會問題,,以及可能產(chǎn)生的巨大潛在利益,。不幸的是,在這些討論中,,可能會出現(xiàn)一些來自虛構(gòu)和想象的錯(cuò)誤信息,。”
Tadokoro 繼續(xù)說道:“IEEE 將基于科學(xué)和技術(shù)的公認(rèn)事實(shí)來引入知識和智慧,,以幫助達(dá)成公共決策,,使人類的整體利益最大化,?!背薃I倫理標(biāo)準(zhǔn)外,,還有其他兩個(gè)人工智能標(biāo)準(zhǔn)也被引入報(bào)告中,每個(gè)項(xiàng)目都由領(lǐng)域?qū)<翌I(lǐng)導(dǎo),。
第一個(gè)標(biāo)準(zhǔn)是:“機(jī)器化系統(tǒng),、智能系統(tǒng)和自動(dòng)系統(tǒng)的倫理推動(dòng)標(biāo)準(zhǔn)”。這個(gè)標(biāo)準(zhǔn)探討了“推動(dòng)”,,在人工智能世界里,,它指的是AI會影響人類行為的微妙行動(dòng)。
第二個(gè)標(biāo)準(zhǔn)是“自動(dòng)和半自動(dòng)系統(tǒng)的故障安全設(shè)計(jì)標(biāo)準(zhǔn)”,。它包含了自動(dòng)技術(shù),,如果它們發(fā)生故障,可能會對人類造成危害,。就目前而言,,最明顯的問題是自動(dòng)駕駛汽車。
第三個(gè)標(biāo)準(zhǔn)是“道德化的人工智能和自動(dòng)系統(tǒng)的福祉衡量標(biāo)準(zhǔn)”,。它闡述了進(jìn)步的人工智能技術(shù)如何有益于人類的益處,。
這些標(biāo)準(zhǔn)的實(shí)施可能比我們想象的要早,因?yàn)橄?OpenAI 和 DeepMind 這樣的公司越來越快地推進(jìn)人工智能的發(fā)展,,甚至創(chuàng)造出能夠自我學(xué)習(xí)又?jǐn)U大“智能”領(lǐng)域的人工智能系統(tǒng),。專家們認(rèn)為,這樣的人工智能會破壞世界穩(wěn)定,,導(dǎo)致大規(guī)模的失業(yè)和戰(zhàn)爭,,甚至轉(zhuǎn)向創(chuàng)造“殺人武器”。最近,,聯(lián)合國的重要討論促使人們開始認(rèn)真思考,,需對將人工智能技術(shù)當(dāng)作武器使用進(jìn)行更嚴(yán)格的監(jiān)管。
雷鋒網(wǎng)小結(jié):2017年是AI發(fā)展最快的一年,,AI 威脅論一波未平,,一波又起。這其中牽扯到AI濫用,、AI透明性,、算法公平、AI倫理,、AI監(jiān)管和責(zé)任,、AI信任等問題,我們看到其中有一部分正在擬定相關(guān)的標(biāo)準(zhǔn)和規(guī)范,。不過,,未來AI的發(fā)展還需要更多的討論和對話,,一方面需要確保法律和政策不會阻礙創(chuàng)新進(jìn)程,另一方面,,對新出現(xiàn)的諸如倫理,、責(zé)任、安全,、隱私等問題,,需要在跨學(xué)科的基礎(chǔ)上,以及在政府,、企業(yè),、民間機(jī)構(gòu)、公眾密切合作的基礎(chǔ)上,,共同削弱AI的不利影響,,創(chuàng)建人類和AI彼此信任的未來。