《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 破解人工智能道德治理中的責(zé)任難題

破解人工智能道德治理中的責(zé)任難題

2021-12-23
來源:人民微看點

人工智能技術(shù)的迅猛發(fā)展及其在社會各領(lǐng)域的廣泛應(yīng)用,帶來了一系列風(fēng)險挑戰(zhàn),。如何對人工智能倫理風(fēng)險進行道德治理,,成為人們不得不認真思考的重要問題。按照傳統(tǒng)責(zé)任理論,,由某項技術(shù)所引發(fā)的道德責(zé)任須根據(jù)過失的大小分配給該技術(shù)的設(shè)計師,、制造商、使用者,、監(jiān)管者等人類主體,。但由于人工智能具有顯著的自動化特征,如果將其排除在道德責(zé)任之外,,可能會造成“責(zé)任空場”,。因此,建立完善的人工智能道德治理體系,,必須破解該技術(shù)在道德責(zé)任歸屬時面臨的難題,。

c1a4-5eca605a1268d77c619cfbb24ad1c135.jpg

有限責(zé)任

人工智能責(zé)任歸屬的第一個難題是人工智能是否有資格成為某一事件(或后果)負責(zé)任的行為者,而不只是由人類操控的技術(shù)工具,。這需要回答人工智能是否具備就承擔(dān)責(zé)任而言的最低限度的道德認知能力和道德自主性,。人工智能是用計算機來模擬和實現(xiàn)的“類人智能”。它將外部環(huán)境信息轉(zhuǎn)換為輸入數(shù)據(jù),,并通過從數(shù)據(jù)中生成的特征量對輸入數(shù)據(jù)進行處理,,實現(xiàn)數(shù)據(jù)輸出。人工智能的輸入和輸出過程,,可以理解為它感知外部環(huán)境信息和根據(jù)感知信息而采取特定行動的過程,。人工智能的行為選擇是基于對外部環(huán)境的判斷所作出的能動反應(yīng)。相較而言,,傳統(tǒng)計算機程序根據(jù)設(shè)計好的函數(shù)完成數(shù)據(jù)的輸入與輸出,,其對外部環(huán)境的反應(yīng)是被動的。此外,,人工智能還可以進一步插入道德算法,,將人類對道德重要性的理解轉(zhuǎn)譯為人工智能信息處理和決策的邏輯規(guī)則,使其從前瞻性意義上遵守社會道德要求,,作出負責(zé)任的行為決策,。

人工智能的特殊性在于其獨特的學(xué)習(xí)算法。通過多層處理,,低層次的特征表示轉(zhuǎn)化為高層次的特征表示,,使人工智能具備了完成復(fù)雜任務(wù)的能力,可以模仿特定的人類行為,。例如,,AlphaGo通過神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)和反復(fù)自我博弈的強化學(xué)習(xí),,不僅提高了其在圍棋博弈中的預(yù)測能力,而且還發(fā)現(xiàn)新的游戲規(guī)則,,走出了新策略,。這里,學(xué)習(xí)算法是由人類設(shè)計師預(yù)先規(guī)定的,,但AlphaGo通過機器學(xué)習(xí)而作出的行為決策卻不是人類設(shè)計師決定的,。人工智能具備了確定但有限的自主性、交互性及行動能力,,可以在特定環(huán)境中獨立作出行為決策,,故可對其進行道德歸責(zé)。而承認人工智能可在最低限度上進行責(zé)任歸屬,,就肯定了其在道德治理體系中有限的能動地位,。

非意圖責(zé)任

第二個難題是人工智能遵循數(shù)學(xué)、物理學(xué)等自然定律,,缺乏“能夠承擔(dān)責(zé)任的感覺”,。對責(zé)任的主觀感受首先表現(xiàn)為行為者的主觀意圖,即行為者對行為的意義的認識,,希望或想要以某種方式行動的態(tài)度,。盡管主觀意圖確實影響了人們對行為者進行道德譴責(zé)或懲罰的力度,但它并非責(zé)任歸屬的必要條件,。從道德實踐上看,,主觀意圖作為行為者的內(nèi)在狀態(tài),很難對其作出準(zhǔn)確評價,。而且,,人們進行責(zé)任歸屬的目的在于,通過對損害性后果的回溯性評價,,來確定導(dǎo)致該后果的行為者原因,,不論行為者是否有主觀意圖。德國學(xué)者奧特弗利德·赫費以俄狄浦斯為例,,說明這種無過錯責(zé)任在史前社會普遍存在:責(zé)任是客觀的,,即便行為者不存在任何主觀過錯,也需要承擔(dān)道德責(zé)任,。按照客觀性原則對人工智能進行責(zé)任歸屬,,主要考查損害性后果以及行為與后果之間的因果關(guān)系即可,不必再關(guān)注行為者的主觀意圖,。

對責(zé)任的主觀感受還表現(xiàn)為行為者因自己的行為而產(chǎn)生的自責(zé),、懊悔等反應(yīng)性態(tài)度,因而承認自己本來可以按照其他方式而行動。人工智能缺乏感受性,,很難想象它會產(chǎn)生任何形式的痛苦或內(nèi)疚,那么,,對人工智能進行責(zé)任歸屬并實施道德懲罰是否還有意義,?就反應(yīng)性態(tài)度而言,他人的反應(yīng)性態(tài)度而非行為者的自我反應(yīng)性態(tài)度才是責(zé)任歸屬的動力,。他人的責(zé)備和怨恨不僅是他人對某一事件(或后果)所作出的價值評價,,也是在評價基礎(chǔ)上對行為者所作出的反應(yīng)。責(zé)備和怨恨允許行為者提出免于被責(zé)備的理由,。但與此同時,,如果行為者與某一事件(或后果)的因果責(zé)任極其顯著,引發(fā)他人強烈的責(zé)備和怨恨反應(yīng)時,,他人將拒絕人工智能以技術(shù)作為其免責(zé)理由,。就道德懲罰而言,懲罰作為“對過去錯誤的一種自然報復(fù)”,,在現(xiàn)代社會逐漸喪失其道德正當(dāng)性,。道德責(zé)任并不必然要求對行為者進行道德懲罰,而是要求行為者正視,、改正或補償自己的道德過錯,,同時盡量避免發(fā)生類似的道德過錯。就此而言,,要求人工智能承擔(dān)道德責(zé)任是可行的,。

共同責(zé)任

第三個難題是對人工智能進行責(zé)任歸屬,是否會削弱人類的道德責(zé)任或威脅人類的責(zé)任主體地位,。答案是否定的,。對人工智能的正確歸責(zé)有助于明確人類與人工智能的責(zé)任邊界,從而強化人類的道德責(zé)任,。人類設(shè)計師,、制造商、使用者等參與了人工智能的理論創(chuàng)新,、技術(shù)研發(fā),、生產(chǎn)制造、實踐應(yīng)用等環(huán)節(jié),,相應(yīng)地承擔(dān)著內(nèi)在知識的責(zé)任,、科學(xué)實驗的責(zé)任以及將科學(xué)付諸實踐的責(zé)任。這些多元主體在該技術(shù)設(shè)計—生產(chǎn)—應(yīng)用鏈條上分工合作,,由此發(fā)展出一條責(zé)任鏈:沒有哪個單獨環(huán)節(jié)承擔(dān)單獨的責(zé)任,,每個環(huán)節(jié)都是責(zé)任的一部分,而這部分責(zé)任又不得不與這個環(huán)節(jié)對整個行為所承擔(dān)的責(zé)任相聯(lián)系。正如赫費所言,,誰為別人能夠做這件事創(chuàng)造了一些前提條件,,他就要為這件事負有共同責(zé)任。相反,,如果他們沒有看到這種關(guān)系,,或者不能看到這種關(guān)系,就會產(chǎn)生責(zé)任歸屬的要求,,應(yīng)該為此設(shè)置能夠監(jiān)督責(zé)任履行的機構(gòu),。該機構(gòu)對人類設(shè)計師、制造商和使用者的履責(zé)行為進行監(jiān)督和管理,。人類行為者不僅不能免除道德責(zé)任,,還需承擔(dān)起相應(yīng)的賠償或補償責(zé)任。

在道德實踐中,,人類行為者將一部分道德授權(quán)給人工智能,,如允許智能搜索引擎對敏感詞進行篩查并屏蔽等。授權(quán)行為意味著一部分道德資本由人類行為者轉(zhuǎn)移給人工智能,,使后者代替人類行為者履行一定的社會職責(zé),。對人工智能的道德授權(quán)是否意味著道德責(zé)任的授權(quán)?這取決于授權(quán)是對道德行為本身的授權(quán)還是對道德行為坐標(biāo)(即只為人類道德決策提供反饋信息)的授權(quán),。對道德行為的授權(quán),,意味著道德上的善惡及責(zé)任在人工智能與人類所組成的多智能體系統(tǒng)中分布。此時,,人工智能替代人類行為者參與到現(xiàn)實的社會分工之中,,成為社會系統(tǒng)的重要組成部分,因而,,需要承擔(dān)由社會分配給該職責(zé)的道德責(zé)任,,即分布式道德責(zé)任。對道德行為坐標(biāo)的授權(quán),,仍將人類作為道德責(zé)任的中心并通過人工智能實現(xiàn)人類的道德意圖,,人工智能僅需承擔(dān)擴展式道德責(zé)任。不論分布式還是擴展式道德責(zé)任,,都沒有免除人類在道德治理中的主體地位,。

總之,人工智能道德治理的關(guān)鍵在于立足一種新的開放性責(zé)任理論對人工智能進行責(zé)任歸屬,。首先,,人工智能的道德責(zé)任是無過錯責(zé)任。人工智能責(zé)任歸屬的目的是依據(jù)客觀性原則對道德行為及其后果進行正確歸因,。特別是當(dāng)多行為主體共同參與某一行為決策時,,正確歸因有助于及時糾正錯誤,。其次,人工智能能夠且僅能承擔(dān)與其智能水平和自治能力相適應(yīng)的道德責(zé)任,。當(dāng)前廣泛應(yīng)用的弱人工智能的道德責(zé)任與其具備從大數(shù)據(jù)中自行提取特征量的能力密切相關(guān),。對其責(zé)任歸屬不能整齊劃一,需要根據(jù)其自動化等級分級對待,。超出其能力范圍的道德責(zé)任仍需由人類行為者承擔(dān),。再次,人工智能的責(zé)任歸屬要求對人工智能算法進行回溯性實驗直至找到算法缺陷或程序漏洞,。人工智能承擔(dān)責(zé)任的方式包括優(yōu)化算法、程序升級,、暫?;蛴谰猛V故褂谩O鄳?yīng)的補償或賠償責(zé)任也需由人類行為者承擔(dān),。最后,,人類設(shè)計師應(yīng)監(jiān)督和激勵人工智能不斷積累道德經(jīng)驗,將道德經(jīng)驗轉(zhuǎn)化為道德算法或新的特征量,,盡量減少未經(jīng)預(yù)料的道德情形和兩難困境,。在計算機領(lǐng)域,通過程序升級修正漏洞的情形很常見,,這也要求對人工智能的道德錯誤進行合理認識和總結(jié),。




最后文章空三行圖片.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。