《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 業(yè)界動態(tài) > 人工智能真的會起義毀滅人類嗎,?

人工智能真的會起義毀滅人類嗎,?

2015-05-13

  在過去很多年內(nèi),,人工智能更多的只是作為科幻影片中的橋段出現(xiàn)在我們面前,但如今這一前沿科技似乎已經(jīng)逐漸成為了人們?nèi)粘I畹闹髁髟刂?。比如,,包括蘋果Siri、亞馬遜Alexa,、IBM的Watson以及Google Brain都擁有著理解人類語言的極高認知能力。

  應(yīng)該說,,近年來大量可聯(lián)網(wǎng)設(shè)備的出現(xiàn)以及全新機器學習算法的結(jié)合使得越來越多人工智能科技的實現(xiàn)成為了可能,。有業(yè)內(nèi)人士甚至擔心,科幻影片中機器自主學習,、自我改善的能力恐怕也將在不久后成為現(xiàn)實,,而那時人類的重要性則將被大大削弱。

  “我認為全能型人工智能科技的發(fā)展甚至有可能終結(jié)人類的延續(xù),?!庇锢砑疤煳膶W家史蒂芬-霍金(Stephen Hawking)說道。

  對于霍金的這一觀點,,特斯拉CEO埃隆-馬斯克(Elon Musk)以及微軟聯(lián)合創(chuàng)始人比爾-蓋茨(Bill Gates)也都表示了贊同,。

  對于這一外界非常關(guān)注的話題,美國媒體日前就邀請到了Skype聯(lián)合創(chuàng)始人讓-塔林(Jaan Tallinn),、IBM沃特森研究中心副總裁古如德斯-巴維亞(Guruduth Banavar),、巴多瓦大學(University of Padua)計算機教授弗朗斯卡-羅西(Francesca Rossi)共聚一堂同我們分享了他們對于人工智能科技發(fā)展的看法。

  記者:人工智能是否對人類構(gòu)成了威脅,?

  古如德斯-巴維亞:由于受到了科幻影片的影響,,人們大多將這一問題歸咎于人類和機器之間的沖突。智能機器的設(shè)計初衷是幫助人們完成人類所不善于完成的工作,,就比如處理,、過濾規(guī)模宏大的數(shù)據(jù)流。同樣的道理,,智能機器在一些人類所擅長的領(lǐng)域則有著諸多的不足,,就比如簡單的詞義理解、創(chuàng)造性思維等,。因此我們相信將人類和機器的智慧結(jié)合在一起才是這個“認知計算”概念的根基所在,,并將徹底革新我們解決復(fù)雜問題的能力。

  目前,,基于人工智能的系統(tǒng)已經(jīng)在許多方面改善了我們的生活,,就比如飛機的自動駕駛功能、系統(tǒng)的自動推薦模塊以及應(yīng)用于工業(yè)領(lǐng)域的機器人等等,。而且在過去5-10年時間內(nèi),,機器自主學習算法以及先進的計算機基礎(chǔ)設(shè)施已經(jīng)幫助我們打造出了許多全新應(yīng)用設(shè)備,。

  但需要指出的是,我們必須明白這類“機器自主學習算法”的作用僅限于此,,因為即便是如今最先進的神經(jīng)科學以及認知學成就也僅僅是觸及了人類智慧最表面的東西而已,。

  讓-塔林:如今的人工智能技術(shù)恐怕還不足以構(gòu)成威脅,但當我們進入所謂的超級智能時代后,,我們的問題才會真正出現(xiàn),。

  記者:什么是所謂的“超級智能控制問題”(superintelligence control problem)?

  讓-塔林:即便是如今最智能的機器人都會擁有一個開關(guān),,以讓人們對其進行最終的控制,。然而,這個開關(guān)之所以能夠奏效是因為它隸屬于機器人的控制范圍之外,。舉例來說,,下棋電腦僅僅會專注于下棋,而卻不會意識到自己的競爭對手可以隨時拔掉電源來終結(jié)比賽,。

  然而,,如果超級智能機器可以對這個世界的狀態(tài)產(chǎn)生認知,并預(yù)計出人們拔掉電源的后果,,那么它就有可能阻止人們這樣做,。

  記者:那么這個問題會有多嚴重呢?

  讓-塔林:就現(xiàn)階段而言,,這其實是一個純粹的理論問題,,我們相信超級智能機器極有可能會始終遵循設(shè)計者的編程語言或者某些物理定律。但就你的問題而言,,我認為超級智能機器開始阻止人們對其進行“斷電”的做法是一個非常嚴重問題,,因為我們至少需要對超級智能機器保留有一定的控制權(quán)。

  弗朗斯卡-羅西:就狹義來說,,人工智能已經(jīng)在某些領(lǐng)域相比人類更為聰明了,。人類暫時還沒有受到來自人工智能的威脅,但卻已經(jīng)感受到了來自它們的影響力,。因此,,我們有必要評估人工智能在狹義領(lǐng)域?qū)θ祟愑锌赡墚a(chǎn)生的威脅,并將它們打造的更為安全,、友好,、且秉持同人類相同的價值觀。這絕不是一個簡單的工作,,因為就連人類有時都不會遵循自己定下的規(guī)矩,。

  記者:你認為人工智能在狹義領(lǐng)域會對人類產(chǎn)生哪些威脅?

  弗朗斯卡-羅西:比如自動交易系統(tǒng)以及自動駕駛汽車。尤其是后者,,如果人工智能出錯的話甚至將威脅到乘坐者的生命安全,。

  記者:巴維亞,你是怎么看待這一威脅的,?

  古如德斯-巴維亞:關(guān)于威脅的問題總是分為兩個方面的,。我們早就知道如今因為信息不充分、或者非專業(yè)人士而作出的錯誤決定會導(dǎo)致數(shù)億美元的損失或者數(shù)千人的生命,。而根據(jù)IBM沃特森在多個領(lǐng)域的應(yīng)用情況來看,,我認為人工智能在狹義領(lǐng)域所帶來的威脅是十分有限的。

  我個人的看法是,,我們經(jīng)常低估了鋪設(shè)人工智能科技的復(fù)雜性,,因為這其中有著太多的不確定因素存在。

  記者:IBM的超級電腦沃特森正幫助醫(yī)生更好診斷病人,,如果診斷有誤的話沃特森應(yīng)該為此負責嗎?

  古如德斯-巴維亞:沃特森并不給出診斷結(jié)果,,而僅僅是為醫(yī)生提供數(shù)據(jù)和信息進行參考,。因此在進行具體診斷的時候,人類醫(yī)生可以根據(jù)沃特森給出的數(shù)據(jù)以及其他一些因素作出具體的判斷,??偠灾t(yī)生才是最終作出診斷決定的一方,。

  事實上,,IBM團隊的目標是讓沃特森可以根據(jù)病人的病史做出分析,給醫(yī)生提供關(guān)鍵信息以及可能的診斷結(jié)果,,以此來大大縮短診斷時間,。

  弗朗斯卡-羅西:醫(yī)生一直會作出錯誤的診斷,這并不是說他們不夠出色,,而是因為他們不可能洞悉某一疾病的方方面面,。不過,諸如沃特森這樣的人工智能機器則有可能降低出錯的幾率,。

  古如德斯-巴維亞:總的來說,,我相信醫(yī)生能夠從沃特森處獲取信息是有益的。就我個人而言,,我更加希望能夠無時無刻獲得這樣的診斷服務(wù),。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]