外媒稱,隨著人工智能技術(shù)越來越先進(jìn),,人們愈發(fā)擔(dān)心,,機器人可能變成一種威脅。據(jù)加利福尼亞大學(xué)伯克利分校計算機學(xué)教授斯圖爾特·拉塞爾說,,這種危險是可以避免的,,如果我們能夠解決如何把人類價值變成可編程的代碼。
據(jù)報道,,拉塞爾說,,在機器人領(lǐng)域,“道德哲學(xué)將是一個非常重要的產(chǎn)業(yè)部門”,。他指出:“隨著機器人從事更加復(fù)雜的任務(wù),,我們絕對有必要把我們?nèi)祟惖牡赖罗D(zhuǎn)化為人工智能語言?!?/p>
比如說,,如果機器人在房子里做雜務(wù)——預(yù)計未來幾十年將會出現(xiàn)這種場面——的話,你可不想機器人把寵物貓放進(jìn)烤箱里,給饑腸轆轆的孩子們做頓大餐,。拉塞爾說:“你會希望給那個機器人預(yù)先載入一大套人類價值,。”
美國加利福尼亞州拉古納比奇舉行的一場科技大會上,,情感機器人“佩珀”和一位與會者拍手
人們已將基本的人類價值編入了一些機器人的程序?,旣惻醮髮W(xué)計算機學(xué)教授彼得·麥克歐文說,可移動機器人就被編入了與人類保持適當(dāng)距離的程序,。
他說:“這是機器人行為可被視為體現(xiàn)某種價值的一個極為簡單的例子,。如果機器人在你和別人說話時靠近你們的私人空間,你就會認(rèn)為,,這不是一個有教養(yǎng)的人會做的事情,。”
創(chuàng)造更復(fù)雜的,、具備道德規(guī)范的機器人是可能的,,但條件是我們要找到把人類價值設(shè)定成明確規(guī)則的辦法。
麥克歐文說:“這種價值設(shè)定工程要有研究人類價值的專家參與進(jìn)來,,其中包括哲學(xué)家,、心理學(xué)家、人種學(xué)家以及外行人士,。就像你把專業(yè)知識轉(zhuǎn)化成一套規(guī)則一樣,,你可以將這個討論組提供的信息轉(zhuǎn)化成一系列規(guī)則?!?/p>
此外,,機器人還可以選取根據(jù)有關(guān)人類行為的大套數(shù)據(jù)制成的模型來學(xué)習(xí)人類價值。
麥克歐文說,,只有在程序員不負(fù)責(zé)任的情況下,,機器人才會成為一種危險。
他說:“就機器人違反人類價值這一問題,,人們最擔(dān)心的是,,如果人類因為沒有進(jìn)行充分測試而沒有給機器人正確編程的話,機器人就不會有充分的安全保障,,它們就會有辦法去打破某種禁忌,。”
簡單的方法是,,當(dāng)出現(xiàn)特殊情況時,,給機器人編入讓人去檢查機器人行為是否正確的程序。
麥克歐文說:“如果機器人不確定一種動物是否適合被放進(jìn)微波爐時,,它可以停下來,,發(fā)出嗶嗶的信號聲,,以請求人給出指示?!?/p>
把人類價值編成程序最困難的一步是,,要確定什么才是我們認(rèn)為的道德行為,以及如何制定一套道德規(guī)則,。如果我們有了答案,,那么機器人對人類就會是有益的。