3月18日,斯坦福以人為本AI研究院(Stanford HAI)成立了,。斯坦福利用HAI評(píng)估智能機(jī)器對(duì)人類生活所造成的影響,包括機(jī)器自動(dòng)化取代了部分人力工作,算法引起的性別和種族偏見,醫(yī)療,、教育和司法系統(tǒng)中存在的AI問(wèn)題。在研究院的發(fā)布會(huì)上,,聯(lián)合主任李飛飛強(qiáng)調(diào)了HAI需要秉持“以人為本”的初衷,,提出了三點(diǎn):
1)發(fā)展AI的過(guò)程中必須考慮AI對(duì)人類社會(huì)的影響;
2)AI的應(yīng)用是為了賦能人類,,而非取代人類,;
3)人工智能應(yīng)該更多融入人類智慧的多樣性、差異性和深度,。
技術(shù)飛速發(fā)展,,人工智能對(duì)教育、科技,、衛(wèi)生和可持續(xù)發(fā)展等方面都起了關(guān)鍵性助力作用,。但同時(shí),人工智能也給人類提出了一系列復(fù)雜的挑戰(zhàn),。關(guān)于上述三個(gè)原則,,李飛飛希望:智能機(jī)器更加以人為本,懷有善意,。
什么是“以人為本”,?
根據(jù)李飛飛提到的三點(diǎn)原則進(jìn)行解讀。第一點(diǎn),,作為技術(shù)的發(fā)明者,,人類應(yīng)該正確的引導(dǎo)AI的發(fā)展,更好地服務(wù)人類,。比如在數(shù)據(jù)安全,、隱私保護(hù)、社會(huì)倫理,、知識(shí)產(chǎn)權(quán)等各個(gè)問(wèn)題上,,由世界性的權(quán)威組織制定嚴(yán)格的標(biāo)準(zhǔn)和法規(guī),減少AI帶來(lái)的潛在的威脅,,這已經(jīng)基本達(dá)成共識(shí),。
關(guān)于第二點(diǎn),自人工智能誕生以來(lái),,“人類會(huì)不會(huì)被AI取代”,、“AI會(huì)不會(huì)毀滅世界”等聳人聽聞的問(wèn)題時(shí)常被提起。作為一項(xiàng)技術(shù),,AI應(yīng)當(dāng)是中性的,,技術(shù)是用來(lái)服務(wù)人類的。從大的方向來(lái)看,,AI不斷進(jìn)化它的判斷和感知技能,,在比較簡(jiǎn)單、重復(fù)性,、危險(xiǎn)性的工作上幫助人類,,而人類的能力可以更加專注于更高層次的人物,偏向創(chuàng)造性和感性的部分,,最終更有意義,。
最后,,近年來(lái),AI發(fā)展出了計(jì)算機(jī)視覺(jué),、語(yǔ)音識(shí)別等能力,,但在實(shí)際生活中,AI遠(yuǎn)遠(yuǎn)落后于神經(jīng)元,、人類智能的豐富和靈活性,。例如,阿爾法狗擊敗了世界冠軍,,但它無(wú)法從勝利中感受到喜悅,,也不會(huì)在勝利后產(chǎn)生擁抱心所愛之人的渴望。例如,,AI可以在一張照片中得知圖片中的內(nèi)容是什么,,但是不能輕易識(shí)別圖片背后的故事的因果關(guān)系。人工智能需要變得更有情感意識(shí),,加強(qiáng)對(duì)情感和情緒的認(rèn)知,,不僅能夠捕捉對(duì)人的情感,更需要讓機(jī)器跟人進(jìn)行情感的表達(dá),。
人性化AI無(wú)處不在
我國(guó)的人工智能正處在快速發(fā)展的時(shí)期,,技術(shù)攻關(guān)和產(chǎn)業(yè)應(yīng)用近幾年來(lái)發(fā)展勢(shì)頭迅猛,目前已經(jīng)被廣泛應(yīng)用于語(yǔ)音識(shí)別,、計(jì)算機(jī)視覺(jué),、機(jī)器人、語(yǔ)言處理等領(lǐng)域,,代表性產(chǎn)品包括曠視科技的“FaceID在線人臉身份驗(yàn)證”,、極鏈科技的“VideoAI視頻應(yīng)用系統(tǒng)”、優(yōu)必選的“個(gè)人智能機(jī)器人悟空”等,。隨著AI更加深度,、多樣性,具有情感的細(xì)膩,,將在產(chǎn)業(yè)應(yīng)用中帶來(lái)更多維度的發(fā)展,。
例如,使用情感AI幫助人們利用強(qiáng)大的技術(shù)建立與其他人的聯(lián)系在醫(yī)療行業(yè)已經(jīng)逐步應(yīng)用,。在自閉癥這一醫(yī)學(xué)難癥中,,AI技術(shù)能夠?qū)崿F(xiàn)與自閉癥兒童進(jìn)行反饋,集成反饋的數(shù)據(jù),,為定制治療方案提供支撐,。利用AI機(jī)器可以促進(jìn)自閉癥兒童和日常接觸人之間的溝通,教會(huì)自閉癥的人讀懂他人細(xì)微的情緒;另外,,還能夠幫助身邊的人更好的識(shí)別自閉癥兒童情緒,。
AI在聽說(shuō)讀寫、推理等方面的能力,、效率和準(zhǔn)確度持續(xù)提升,,也可以為視覺(jué)、聽覺(jué),、感知、學(xué)習(xí),、行動(dòng)能力有所不便的人群,,打造出人工智能應(yīng)用和產(chǎn)品。例如,,利用微軟的人工智能技術(shù)和認(rèn)知服務(wù)中的Microsoft Translator 服務(wù),,實(shí)現(xiàn)自動(dòng)語(yǔ)音識(shí)別解決方案,可以幫助聽力受損人群無(wú)障礙溝通,。AI技術(shù)有希望幫助世界各地超過(guò)10億殘障人士,,打造一個(gè)完整、平等,、便利的世界,。
類似的應(yīng)用在教育場(chǎng)景下,AI也能發(fā)揮無(wú)限量的作用,。AI可以通過(guò)學(xué)生的面部表情和姿勢(shì)對(duì)情緒作出有根據(jù)的判斷,,衡量每個(gè)學(xué)生的理解程序,可以幫助老師因材施教,。
人類準(zhǔn)備好了嗎,?
隨著人類越來(lái)越依賴于機(jī)器智能,我們的責(zé)任觀念將會(huì)變成什么樣,?人工智能的生成物是否為作品,,是否有著作權(quán)的問(wèn)題?自動(dòng)駕駛的安全性,、責(zé)任認(rèn)定等法律問(wèn)題不斷涌現(xiàn),,人工智能干預(yù)的事故應(yīng)當(dāng)如何定責(zé)?甚至是否賦予機(jī)器人以虛擬的“法律主體資格”,?還有很多重要的應(yīng)用領(lǐng)域,,如安防,如果系統(tǒng)出現(xiàn)原則性決策失誤,,如何判定,?如何讓人工智能可解釋、可說(shuō)明?
智能機(jī)器觸發(fā)的人們對(duì)隱私,、安全的擔(dān)憂,,該如何規(guī)避?AI的大幅度應(yīng)用對(duì)就業(yè)的影響該如何權(quán)衡,?在人工智能不斷走進(jìn)生活的過(guò)程中,,人類真的準(zhǔn)備好了嗎?
這需要政策制定者,、法律學(xué)者,、倫理學(xué)家、科學(xué)家,,大家一起尋找答案,。但現(xiàn)狀很顯然,人工智能安全健康發(fā)展法規(guī)和倫理道德研究尚且不足,,相應(yīng)的法律法規(guī)以及道德規(guī)范要求還不健全,,我們還不能有效防范控制潛在的安全風(fēng)險(xiǎn)??茖W(xué)向善,,AI以人為本,我們需要考慮的事情還很多,。
小結(jié):
與所有顛覆性技術(shù)一樣,,新一代人工智能具有高度的不確定性,可能有很長(zhǎng)的一段時(shí)間是不完美的,,需要政府,、社會(huì)、企業(yè)共同努力,,規(guī)范人工智能的發(fā)展,。但有一點(diǎn)是很肯定的,技術(shù)的產(chǎn)生,,是為了讓人類生活的更好,,我們要幫助AI更加人性化,擁有更好的未來(lái),。