2019年2月11日,美國(guó)總統(tǒng)特朗普簽署了關(guān)于維護(hù)美國(guó)人工智能領(lǐng)導(dǎo)力的行政命令,。當(dāng)月,,Protivity一項(xiàng)關(guān)于人工智能和機(jī)器學(xué)習(xí)的調(diào)查顯示,,只有16%的受訪企業(yè)領(lǐng)導(dǎo)者稱,他們從先進(jìn)的人工智能中獲得了巨大的價(jià)值,。調(diào)查還發(fā)現(xiàn),,各種行業(yè)中各種規(guī)模的企業(yè)都在人工智能方面投入巨資,2018年平均支出達(dá)到了3600萬美元,。
在受訪企業(yè)中,,有10%的企業(yè)表示計(jì)劃在未來兩年內(nèi)增加預(yù)算。調(diào)查還發(fā)現(xiàn),,亞太地區(qū)的企業(yè)在采用先進(jìn)人工智能的速度方面要快于世界其他地區(qū),。2018年,亞太地區(qū)的企業(yè)中有22%處于機(jī)器學(xué)習(xí)的高級(jí)階段,,而北美只有11%,,歐洲有7%。
2019年3月4日,,聯(lián)合國(guó)教科文組織召開了一次關(guān)于制定人工智能核心原則的大會(huì),,重點(diǎn)討論了更人性化的人工智能方法,其目標(biāo)是促進(jìn)公共部門和私營(yíng)企業(yè),、技術(shù)界,、媒體界和學(xué)術(shù)界、民間社會(huì),、國(guó)際和區(qū)域組織之間的對(duì)話,,討論我們應(yīng)該在多大程度上允許機(jī)器替我們做出決策。作為一個(gè)社會(huì)群體,,我們?nèi)祟悓r(jià)值和優(yōu)先級(jí)寫入機(jī)器的算法之中,。
聯(lián)合國(guó)教科文組織總干事Audrey Azoulay在聲明中表示,,人工智能是人類的新前沿。
Azoulay表示:“人工智能的指導(dǎo)原則并不是要成為自主的或者取代人類的智慧,,但我們必須確保人工智能是通過人道主義的方式發(fā)展進(jìn)化的,。”
萬事達(dá)卡(Mastercard)公司網(wǎng)絡(luò)與智能解決方案總裁Ajay Bhalla表示,,如今人工智能已經(jīng)影響著大多數(shù)行業(yè),。
“未來幾年中,人工智能將影響到每個(gè)經(jīng)濟(jì)領(lǐng)域,。人工智能將大規(guī)模提高數(shù)據(jù)交易、互動(dòng)和決策的價(jià)值和速度,,”Bhalla說,。
“因此人工智能對(duì)于未來的商業(yè)至關(guān)重要——通過人工智能構(gòu)建系統(tǒng),這對(duì)于保持競(jìng)爭(zhēng)力至關(guān)重要,?!?/p>
迪拜數(shù)據(jù)公司首席執(zhí)行官、智慧迪拜助理主任Younus Al Nasser對(duì)此表示贊同,。
他說:“人工智能已經(jīng)自成一個(gè)領(lǐng)域,,成為我們生活中越來越自動(dòng)化的一個(gè)組成部分,未來人工智能領(lǐng)域取得的突破和人工智能服務(wù)只會(huì)越來越多,,這就需要我們?cè)O(shè)定原則來規(guī)范和指導(dǎo)這個(gè)領(lǐng)域,?!?/p>
“也就是說,人工智能領(lǐng)域還不夠成熟,尚未起草法律來管理它,,因此我們開發(fā)了一個(gè)Ethical AI Toolkit,為人工智能的道德使用制定明確的指導(dǎo)方針,,防止碎片化的,、不連貫的道德方法。在道德方面,,一切都要制定出規(guī)則,。我們希望這個(gè)工具包變成一個(gè)通用的框架,確定人工智能設(shè)計(jì)和使用的道德要求,,提供合理的解決方案幫助利益相關(guān)者遵守道德原則,,最終作為政府制定務(wù)實(shí)的人工智能法律法規(guī)的一個(gè)藍(lán)圖?!?/p>
在可信性方面,,萬事達(dá)卡公司的Bhalla認(rèn)為,如今技術(shù)領(lǐng)域有很多關(guān)于可信性的討論,,無論是對(duì)消費(fèi)者數(shù)據(jù)的使用,、隱私還是共享經(jīng)濟(jì)中新平臺(tái)和技術(shù)的發(fā)展,。
Bhalla說:“因?yàn)橘Y金是人們很看重的,所以支付和金融服務(wù)行業(yè)總是在構(gòu)建更為安全的系統(tǒng)方面走在前沿,。人們?cè)絹碓秸J(rèn)識(shí)到,,道德規(guī)范包括的不止是監(jiān)管和合規(guī),重點(diǎn)也從‘我們是合規(guī)的’,,轉(zhuǎn)變?yōu)椤覀冏龅氖钦_的’,。”
“道德方面的考量體現(xiàn)了競(jìng)爭(zhēng)差異化,,這是我們需要遵循的原則,。我們?cè)谠O(shè)計(jì)中考慮隱私,在設(shè)計(jì)中考慮安全性——這是基于可信性的價(jià)值主張,。如果我們考慮采用人工智能,,我們就需要深入考慮如何采用人工智能技術(shù),如何創(chuàng)建標(biāo)準(zhǔn)來定義在哪些方面使用人工智能,、在什么時(shí)候使用人工智能,、以及人工智能可以讀取哪些內(nèi)容?!?/p>
LatentView Analytics首席執(zhí)行官Rajan Sethuraman認(rèn)為,,人工智能的道德規(guī)范是一個(gè)廣泛的主題,因?yàn)檫@通常涉及把文化規(guī)范和指南運(yùn)用于幾乎無窮無盡的理論應(yīng)用中,。
Sethuraman說:“當(dāng)使用人工智能實(shí)現(xiàn)那些可重復(fù)性工作的自動(dòng)化時(shí),,道德方面的考量可能就不會(huì)那么深入。但是,,我們對(duì)機(jī)器訓(xùn)練得越多,、越是希望機(jī)器最終能夠模仿我們并把判斷、同情心,、公平等人類基本思想情感融入到人工智能技術(shù)中,,我們就會(huì)越來越多地要面對(duì)同樣存在于人類交互過程中的道德問題?!?/p>
感知自動(dòng)化的“權(quán)利”是我們?cè)诳苹秒娪爸蟹磸?fù)見到的一個(gè)主題——雖然我們還沒有達(dá)到HAL 9000的水平——但是當(dāng)我們開發(fā)出越來越先進(jìn),、越來越不可預(yù)測(cè)的人工智能時(shí),我們就必須要深度思考道德規(guī)范問題,,Sethuraman補(bǔ)充說,。
Clairvoyant首席技術(shù)官Shekhar Vemuri認(rèn)為,人工智能的道德問題就像是硬幣的正反兩面,。
Vemuri說:“不管是大型技術(shù)企業(yè)還是小型初創(chuàng)公司,,任何開發(fā)人工智能技術(shù)的人都需要問問自己,是否有權(quán)利使用他們手頭上的任何數(shù)據(jù)來支持人工智能。如果沒有,,那么接下來所有事情都有可能是道德違規(guī)的,。”
“另一方面是透明度,。很多公司只關(guān)注他們的人工智能有多么強(qiáng)大,、多么可擴(kuò)展。這很重要,,但人工智能有點(diǎn)像政府——或者人們把權(quán)力移交給的一方——必須具備透明度可以檢查它的權(quán)力和能力,。機(jī)器做得是否正確?更重要的是——如果不正確的話(例如,,銀行貸款或者招聘流程中存在偏見),,那么流程是否開放,可供檢查,?是否可以通過審查算法發(fā)現(xiàn)缺陷,?或者它就是個(gè)黑盒子?
Vemuri認(rèn)為,,不解決以及解決這些隱私性和透明度的問題,都將面臨著激烈反應(yīng),,可能就意味著從監(jiān)管上叫停人工智能的采用,。
“作為人工智能從業(yè)者,我們的社會(huì)和道德責(zé)任是確保我們?nèi)祟惖钠姴粫?huì)在我們構(gòu)建的解決方案中得到放大——如果確實(shí)存在偏見,,并且形成一定規(guī)?!敲淳鸵幸粋€(gè)透明的過程來根除并解決這個(gè)問題,”Vemuri補(bǔ)充說,。
但Bhalla認(rèn)為,,AI可以在打擊影響消費(fèi)者的欺詐方面發(fā)揮重要作用。
“在過去十年中,,萬事達(dá)卡公司一直投入資金用于人工智能技術(shù),,而且人工智能在打擊欺詐、特別是反洗錢方面確實(shí)是很有價(jià)值的,。我們的人工智能防欺詐和決策平臺(tái)每年要處理70億筆交易,,這使得去年我們防止了涉及500億美元的欺詐行為?!?/p>
萬事達(dá)卡公司在2017年收購了人工智能專業(yè)公司Brighterion,。Bhalla表示,這讓萬事達(dá)卡公司能夠?qū)z測(cè)的極限推高到預(yù)測(cè)這個(gè)層面,。
“我們的業(yè)務(wù)中沒有哪個(gè)部分是沒有采用人工智能的,,從忠誠(chéng)和獎(jiǎng)勵(lì)計(jì)劃,到防欺詐和用戶體驗(yàn),再到新渠道,。未來,,將人工智能與生物識(shí)別技術(shù)相結(jié)合,將是把物理世界中的智能識(shí)別轉(zhuǎn)移到數(shù)字化領(lǐng)域中的一個(gè)重要方式,。在線檢測(cè)人員及其設(shè)備,,是目前我們正在解決的一項(xiàng)重大挑戰(zhàn)?!?/p>
說回人工智能的道德規(guī)范問題,。Sethuraman表示:“人工智能的道德規(guī)范,必須越來越多地考慮潛在結(jié)果,,讓人類盡可能地參與到輸入和設(shè)計(jì)過程中,。這是近似于人的智能——或者通過機(jī)器完善人類,通過人類完善機(jī)器——事實(shí)上,,這是未來大多數(shù)人工智能發(fā)展進(jìn)化的方式,。