12月4日報道 英媒稱 如果好萊塢給科學(xué)家上過什么課的話,,那就是一旦機器開始反抗它們的創(chuàng)造者會出現(xiàn)什么情況,。
英國《每日郵報》網(wǎng)站11月26日報道稱,,盡管如此,,專家卻已開始教授機器人如何拒絕執(zhí)行人類的命令。他們給一對小型人形機器人謝弗和登普斯特編制程序,,一旦人類的指令使它們的安全受到威脅,,它們就不服從指令,。
最后造出的機器人與其說像電影《終結(jié)者》中的那些殺人機器,,倒不如說更像威爾·史密斯主演的電影《機械公敵》中那個滿懷歉意的機器人叛逆者桑尼。人工智能使桑尼克服了體內(nèi)的程序,,拒絕執(zhí)行人類的指令,。
馬薩諸塞州塔夫茨大學(xué)的工程師戈登·布里格斯和馬泰·朔伊茨博士正嘗試創(chuàng)造能進行人性溝通的機器人。
在遞交人工智能促進會的論文中,,兩人說:“從無能為力到道德不安,,人類拒絕服從指令可以有形形色色的原因。鑒于自動系統(tǒng)有限性的現(xiàn)實,,拒絕服從 指令的機制大多需要利用前一類借口——知識不夠或能力不足,。但隨著自動工具的能力持續(xù)發(fā)展,越來越多的人對機器倫理產(chǎn)生興趣,,即讓自動工具對自己的行為作 出倫理上的推理,。”
他們造出的這些機器人會服從人類操作者發(fā)出的諸如“起立”“坐下”的口頭指令,。但當(dāng)操作者要求它們走向障礙物或桌邊時,,機器人就會禮貌地拒絕接受指令。
當(dāng)被命令在桌子上向前走時,,它們拒絕移動,,對操作者說:“對不起,我不能這樣做,,因為前面沒有支撐,。”當(dāng)再次接到向前走的命令時,,機器人回答說:“這是不安全的,。”
不過非常感人的是,,當(dāng)人類告訴機器人說,,它走到桌邊時他們會接住它,機器人便深信不疑地接受指令繼續(xù)向前走,。同樣,,當(dāng)被告知前面的障礙物并不堅固時,,機器人也欣然走向障礙物。
為了實現(xiàn)這點,,研究人員向機器人的軟件中加入了推理機制,,讓它們能評估環(huán)境,研究指令是否會危及自身安全,。
這項工作有可能引起人們的擔(dān)憂,,如果賦予人工智能不服從人類指令的能力,有可能造成極糟糕的后果,。
包括斯蒂芬·霍金教授和企業(yè)家埃隆·馬斯克在內(nèi)的許多重要人物都警告,,人工智能有可能擺脫我們的控制。
還有一些人警告說,,機器人最終有可能取代許多人工,,有些人甚至擔(dān)心機器人發(fā)展下去可能造成機器接管一切的局面。