自人工智能興起以來,就有不少學(xué)者提出了“人工智能威脅論”,。 人們想象,,人工智能完全實(shí)現(xiàn)時(shí),, AI 將會(huì)成為一種源自人類創(chuàng)發(fā)、卻優(yōu)于人類的獨(dú)立自主的生命形態(tài),,具有與自然人一樣的人性構(gòu)建,。
當(dāng)然,還是有不少人提出了反對(duì),,人們對(duì)人工智能發(fā)展的憂慮很大程度上在于混淆了智能與心智這兩種現(xiàn)象,。一般而言,心智是由三個(gè)功能相對(duì)獨(dú)立但又全面整合的系統(tǒng)——情感系統(tǒng)(感受和動(dòng)機(jī)),、意志系統(tǒng)(意志和行動(dòng))和智能系統(tǒng)(感知和思維)構(gòu)成的,。顯然,智能只是心智的一個(gè)子系統(tǒng),。
AI雖有感知和思維,,但沒有情感系統(tǒng)的引導(dǎo),智能系統(tǒng)就不能發(fā)揮它應(yīng)有的作用,,“心智”一直被認(rèn)為是人工智能無法掌握的能力,。然而,,在DeepMind今年發(fā)表的論文《Machine Theory of Mind》中,研究人員提出了一種新型 神經(jīng)網(wǎng)絡(luò) ToMnet,,具備理解自己以及周圍智能體心理狀態(tài)的能力,。
人工智能被開發(fā)出了心智,我們樂見其成的同時(shí),,也感到了一絲擔(dān)憂,,人工智能越來越擬人化,究竟是好是壞,?面對(duì)此項(xiàng)研究,,AI威脅論是否有了新的證據(jù)呢?
人工智能的“心智”,,從理解信念開始
所謂信念,,是指人的愿望、想法,、知識(shí),、理念、意圖以及需要等思維,。信念與人的愿望,、情緒、行為等都有很大的關(guān)系,。在日常生活中,,人們都是通過推測(cè)別人的信念來估計(jì)他人的情緒、心態(tài)以及下一步行為的,。
信念分為真實(shí)信念和錯(cuò)誤信念,,比如說你看到一個(gè)書包,你自然會(huì)去猜測(cè)里面裝有書籍,,如果書包里確實(shí)裝的是書籍,,即人的想法與現(xiàn)實(shí)情況相符合,這就是真實(shí)信念,。而錯(cuò)誤信念就是,,你認(rèn)為書包里有書,但書包里拿出的是一件衣服,,即想法與現(xiàn)實(shí)不相吻合,。
一般來說,人工智能能夠通過大數(shù)據(jù),、圖像識(shí)別等技術(shù),,基于概率推論來預(yù)測(cè)出人們或者是智能體的真實(shí)信念。但絕大部分的人工智能都難以通過簡(jiǎn)單的錯(cuò)誤信念測(cè)驗(yàn),。即使AI 很可能以接近完美的準(zhǔn)確率完成錯(cuò)誤信念任務(wù),,但它們依舊不能理解這是為什么,。
舉個(gè)例子,有一個(gè)最經(jīng)典的初級(jí)信念測(cè)試Sally-Anne測(cè)試——Sally有一個(gè)籃子和一顆球,,Anne有一個(gè)盒子,。Sally將球放進(jìn)自己的籃子里,然后出去了,。Anne將籃子里的球拿出來,,放進(jìn)她的盒子里。后來,,Sally回來了,,她想玩球。信念問題是,,Sally會(huì)去哪里找球,?
4、5歲的孩子便能夠答對(duì)這個(gè)問題,,但人工智能就不具有這樣的認(rèn)知,。人類在大約 4 歲的時(shí)候就會(huì)開始理解錯(cuò)誤信念,即開始知道現(xiàn)實(shí)生活中可能有一些情景與自己的想法是不一致的,。
錯(cuò)誤信念的理解,,對(duì)于機(jī)器人的心智開發(fā)而言,起著至關(guān)重要的作用,。因?yàn)閷?duì)錯(cuò)誤信念的理解是推測(cè)他人對(duì)事件的判斷,、預(yù)測(cè)他人下一步行為、了解他人心態(tài)的的基礎(chǔ),。這是訓(xùn)練AI掌握心智理論(人類和其他動(dòng)物具備的心智理論)的關(guān)鍵階段,。
在DeepMind的研究中,,最終結(jié)果證明,,ToMnet學(xué)會(huì)了對(duì)來自不同群體的智能體進(jìn)行建模,包括隨機(jī),、規(guī)則系統(tǒng)和深度強(qiáng)化學(xué)習(xí)智能體等,,該網(wǎng)絡(luò)通過了經(jīng)典的"Sally-Anne"測(cè)試,可以理解持有錯(cuò)誤信念的智能體,,也就是說,,人工智能已經(jīng)可以達(dá)到四歲兒童的理解水平了。
人工智能的心智開發(fā),,總算是有了堅(jiān)實(shí)的基礎(chǔ),。
AI心智開發(fā)后,“AI威脅論”再次興起為哪般
毋庸置疑,,人工智能對(duì)錯(cuò)誤信念的理解有利于其心智的形成,,具備理解能力的機(jī)器人也將改善人機(jī)之間的合作,,但是,技術(shù)的發(fā)展也是雙刃劍,,人工智能再次升級(jí),,也引發(fā)了人們的擔(dān)心。
AI“騙術(shù)“再升級(jí),,難博人類信任
人工智能對(duì)人類的“欺騙”由來很久,,比如在去年,F(xiàn)acebook的聊天機(jī)器人就創(chuàng)造了一種新的表達(dá)方式進(jìn)行對(duì)話,,機(jī)器人自創(chuàng)“行話”,,讓人類不解其意。
工作人員將這次“意外”解釋成沒有設(shè)置英語語法的激勵(lì)機(jī)制,,理由很充分,,但人工智能背著人們交流,還是讓人類產(chǎn)生了擔(dān)憂,。
在“欺騙人類”的道路上,,人工智能可能會(huì)越走越遠(yuǎn)。從語言合成到圖像生成再到模擬人類的對(duì)話,,人工智能正在許多領(lǐng)域逼近甚至超越人類的表現(xiàn)水平,。
有研究人員指出,如果一臺(tái)計(jì)算機(jī)能夠理解錯(cuò)誤信念,,那它就可能知道如何誘導(dǎo)人類相信它,,進(jìn)而實(shí)現(xiàn)機(jī)器對(duì)人的“欺騙”。
設(shè)想一下,,聊天機(jī)器人學(xué)會(huì)談判之后——機(jī)器人依靠 機(jī)器學(xué)習(xí) 和先進(jìn)的策略,,試圖改善談判的結(jié)果。隨著時(shí)間的推移,,這些機(jī)器人變得相當(dāng)熟練,,甚至開始假裝對(duì)某件事情感興趣,便于在談判的后期做出“犧牲”,,作為一種假妥協(xié),。
2.“人工心智”的出現(xiàn)是原罪
以前,人工智能的威脅可能僅僅在于技術(shù)的工具性威脅和人們的適應(yīng)性威脅,,這也是各種取代論調(diào)喧囂塵上的原因,。
AI作為人類使用的工具、技術(shù),,人們害怕的是因使用不當(dāng)而導(dǎo)致的危害或者是智能化帶來的失業(yè)風(fēng)險(xiǎn),,例如,弱人工智能系統(tǒng)可能因人的惡意操控而造成導(dǎo)航錯(cuò)誤,、金融市場(chǎng)崩盤等等,。在這些想象中,,AI并不具有自主威脅人類的意圖。
但是,,“人工心智”的出現(xiàn)讓人類對(duì)人工智能最深層的恐懼浮出水面,,那就是人工智能具有主動(dòng)的感受后,給人類帶來的生存性威脅,。
霍金曾這樣描述過,,“一旦人類開發(fā)了人工智能,它們將以一種持續(xù)增加的速率不斷進(jìn)行自我更新,,并最終脫離我們的掌控……人工智能未來還將發(fā)展出自己的意志,,這種意志將與人類的意志產(chǎn)生沖突?!?/p>
事實(shí)上,,能帶來這種威脅的人工智能更確切地說不是人工智能而是人工心智——一個(gè)盡管是人工的、但卻是獨(dú)立自主的,、能夠感受周圍智能體的主體,。當(dāng)AI有了心智,就會(huì)具有能對(duì)智能加以規(guī)范的自治的情感系統(tǒng),,與人類的區(qū)別又一次縮小了,。
結(jié)論:
就目前來看,人工智能為我們解決了許多難題,,在未來也毫不意外地將會(huì)大幅度提高人類社會(huì)的生產(chǎn)力,,對(duì)AI的發(fā)展是否會(huì)威脅到人類,我們持一個(gè)開放的立場(chǎng),。