關(guān)于人工智能倫理問題,,特別是涉及到開發(fā)機(jī)器人武器之類的問題,,我們已經(jīng)討論過很多次了,。實(shí)際上,,之前我們更多的是把人工智能作為一種人類已知威脅來展開討論的,。那些喜歡電影《終結(jié)者》的粉絲應(yīng)該對它的情節(jié)還記憶猶新吧,,片中人工智能“天網(wǎng)”希望終結(jié)人類,,如果這一幕真的發(fā)生,,那么我們現(xiàn)在討論什么監(jiān)管啊,責(zé)任啊,,似乎都毫無意義,。但所謂千里之堤毀于蟻穴,尤其在法律哲學(xué)家John Donaher的眼里,,如果能夠仔細(xì)思考這些問題的話,,說不定會有助于減少未來可能存在的風(fēng)險(xiǎn)。
人工智能的監(jiān)管與責(zé)任,,其實(shí)和安全與公共福利一樣,,都像是硬幣的正反面。監(jiān)管的目的,,是為了確保人工智能系統(tǒng)盡可能的安全,;而責(zé)任,其實(shí)就是為了當(dāng)人工智能系統(tǒng)出錯(cuò)時(shí),,我們可以找到可以追究問題的人,,或者再說的準(zhǔn)確一點(diǎn)兒,就是找誰可以獲得法律上的賠償,。
應(yīng)該向誰追責(zé)呢,?
讓我們先來談?wù)勜?zé)任問題吧。首先,,我們可以模擬一個(gè)侵權(quán)(民事)責(zé)任問題,,想象下,在不遠(yuǎn)的將來可能會發(fā)生這樣一個(gè)場景:一輛無人駕駛拖拉機(jī)原本應(yīng)該按照指令在A農(nóng)民的田里播種,,但是奇怪的是,,它卻把種子播種到了B農(nóng)民家的田里。
讓我們先假設(shè)A農(nóng)民是完全按照操作手冊來使用那輛無人播種拖拉機(jī)的,同時(shí),,我們也假設(shè)A農(nóng)民無需再做其他額外的操作,,比如在農(nóng)田交界處設(shè)置無線電信標(biāo),等等,。那么現(xiàn)在,,假設(shè)農(nóng)民B要來控告這次錯(cuò)誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),會遇到哪些問題呢,?,。
實(shí)際上,有很多問題需要被回答,,這個(gè)事故是農(nóng)民A的責(zé)任嗎,?可能不是;那么,,是無人播種拖拉機(jī)廠商的責(zé)任嗎,?有可能,但在此之前,,我們是不是該明確與這些問題相關(guān)的責(zé)任和標(biāo)準(zhǔn)呢,?比如無人播種拖拉機(jī)的行業(yè)標(biāo)準(zhǔn)是什么,制造商的產(chǎn)品規(guī)格是否符合相關(guān)標(biāo)準(zhǔn)呢,?不僅如此,,如果自己的土地被他人種植上了其他農(nóng)作物,這是否算是財(cái)產(chǎn)損失,,又是否能否追溯經(jīng)濟(jì)賠償呢,?
在一連串問題之前,我們其實(shí)是先假定了無人播種拖拉機(jī)里面的系統(tǒng)軟件是由制造商開發(fā)的,。那么接下來又有新的問題出現(xiàn)了,,如果那套人工智能系統(tǒng)是由第三方開發(fā)公司完成開發(fā)的,該如何處理,?還有,,系統(tǒng)內(nèi)部的軟件代碼是由多人合作完成的,又該如何界定各自的職責(zé),?
隨著時(shí)間的推移,,人工智能系統(tǒng)將會越來越不依靠傳統(tǒng)的經(jīng)典算法和代碼,而且他們也會展示出更多我們無法預(yù)料到的行為,,值得一提的是,,這些行為沒有人可能預(yù)測得到,甚至包括人工智能系統(tǒng)的創(chuàng)造者也無法預(yù)料,。但重要的是,,可預(yù)見性,,其實(shí)是處理責(zé)任過失問題中一個(gè)非常關(guān)鍵的組成部分,。
為了能夠讓讀者更好地理解可預(yù)見性問題,,我們才會假設(shè)了上面那個(gè)無人播種拖拉機(jī)的案例,或許十年,、二十年之后,,人工智能已經(jīng)不再是簡單的種錯(cuò)莊稼這件事兒了,它可能會是某個(gè)意外讓人們受傷,,更嚴(yán)重一些,,人工智能可能會不小心殺人。所以,,如果我們的法律無法適時(shí)作出改變,,那么未來將會導(dǎo)致更多問題出現(xiàn)。就拿上面那個(gè)人工智能種錯(cuò)莊稼的事情為例,,當(dāng)無法實(shí)現(xiàn)可預(yù)見性,,最終的結(jié)果就是沒人承擔(dān)責(zé)任!
責(zé)怪人工智能機(jī)器人
為什么我們不干脆去責(zé)怪機(jī)器人呢,?畢竟,,關(guān)于人工智能人格也有過討論,而且人工智能系統(tǒng)本身也有擔(dān)負(fù)刑事責(zé)任的可能,。
但是,,這種方法在實(shí)際應(yīng)用時(shí)又有什么不一樣呢?這里,,還是借用別人曾經(jīng)說過的一句話吧,。“人工智能系統(tǒng)真的會像著名小說家艾薩克·阿西莫夫筆下的機(jī)器管家那樣嗎,?遵守法律,,遵從道德良知,還能保護(hù)銀行存款,?”
我們姑且不去討論人工智能系統(tǒng)是否可以被起訴,,但人工智能制造商和開發(fā)商們必須受到監(jiān)管。只有這樣,,才有可能將一些無法歸責(zé)的各方,,用嚴(yán)格責(zé)任賠償(注:嚴(yán)格責(zé)任賠償是指只要造成了損害,不論行為人有無過錯(cuò),,都要承擔(dān)賠償責(zé)任,。 常見的適用于無過錯(cuò)責(zé)任原則的,有從事高壓,、劇毒,、高速,、放射等作業(yè)造成他人損害的。工傷是典型的適用無過錯(cuò)責(zé)任原則的,,也就是說只要?jiǎng)趧?dòng)者在工作期間因公受傷了,,排除勞動(dòng)者個(gè)人主觀故意的因素之外,雇用單位無論有無過錯(cuò)都要承擔(dān)工傷賠償?shù)呢?zé)任的,。)約束起來,,
實(shí)際上,在我們的日常生活里,,嚴(yán)格責(zé)任賠償已經(jīng)應(yīng)用到了很多地方,。當(dāng)然除了這種責(zé)任賠償之外,如果需要對人工智能追責(zé),,其實(shí)也可以采用無過錯(cuò)責(zé)任賠償和賠償方案池等方式,。
規(guī)章制度
如果從監(jiān)管的角度來看人工智能,那么你會發(fā)現(xiàn),,嚴(yán)格的安全標(biāo)準(zhǔn),,以及建立完善的安全認(rèn)證流程也都是非常必要的。不過,,如何設(shè)計(jì)一個(gè)合適的機(jī)構(gòu)與流程框架,,并且讓這個(gè)框架得以有效運(yùn)行,依然是一個(gè)非常棘手的問題,。
人工智能領(lǐng)域復(fù)雜難懂,,而且外部世界對于人工智能研發(fā)圈子普遍缺乏認(rèn)識,這也就是人工智能專家需要盡快創(chuàng)建行業(yè)框架的原因所在,。實(shí)際上,,這里所說的框架,就是規(guī)章制度,,說通俗些也就是游戲規(guī)則,。因此,這意味著人工智能顧問委員會需要和政府一起,,盡快立法,,建設(shè)行業(yè)標(biāo)準(zhǔn)。
我們不得不承認(rèn),,人工智能行業(yè)存在巨大的潛在效益,;但是標(biāo)準(zhǔn)和流程,需要不斷的創(chuàng)建,、更新,、并且執(zhí)行,這樣才能達(dá)到一種持續(xù)性平衡,,繼而最大限度地提高公共福利和安全,;當(dāng)然,,也只有這樣,才不會扼殺創(chuàng)新,,更不會出現(xiàn)不必要的法律負(fù)擔(dān),。
事實(shí)上,站在國家的角度上,,建立任何一個(gè)法律框架或游戲規(guī)則,,都必須要足夠靈活,,監(jiān)管機(jī)構(gòu)不僅需要考慮到本國利益,,也要從全球角度出發(fā)。這意味著在某種程度上,,你不僅要考慮本國的人工智能產(chǎn)量,,以權(quán)衡進(jìn)口其他各國人工智能技術(shù),同時(shí),,你還要思考該如何任何不同國家之間的安全標(biāo)準(zhǔn)和認(rèn)證,,必要的時(shí)候,你是否還需要遵守未來可能出現(xiàn)的國際條約或公約,,等等,。所有這一切,遠(yuǎn)比我們想象的要復(fù)雜得多,。
因此,,當(dāng)我們沿著人工智能研發(fā)的道路上前行,圍繞人工智能構(gòu)建規(guī)章制度是必須要去做的事情,,不要當(dāng)一切都來不及時(shí)再后悔莫及,。
現(xiàn)在,我們已經(jīng)開始對無人駕駛汽車所涉及到的問題展開討論了,,那么未來人工智能還需要受到哪些法律法規(guī)的約束呢,?