《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 業(yè)界動態(tài) > 人工智能若真對人類構成威脅 危險究竟是什么,?

人工智能若真對人類構成威脅 危險究竟是什么,?

2015-05-13

2015051208161105d48.jpg

  國外媒體報道,經過幾十年發(fā)展,,人工智能已經從科幻小說里的一個概念,,變成了當今科技發(fā)展的主流,。蘋果的語音控制系統(tǒng)Siri、亞馬遜的智能助手Alexa,、IBM的沃森超級電腦,、谷歌大腦等等,能夠理解這個世界并且給出高效反饋的智能機器似乎就在眼前,。

  強大的互聯(lián)網接入和計算機運算法則讓機器在理解人類語音,、視頻信息的方面取得了飛躍性的進步,也逐漸向真正的人工智能邁進,。AI(Artificial Intelligence),,可實現自動響應的人工智能產品距離我們還遠嗎?如何讓他們保持不斷自我更新升級但是依然保持人類可控范圍內,?

  這個問題給人們帶來普遍的擔心和焦慮,。“我認為人工智能的發(fā)展最終會導致人類族群的滅絕,,”物理學家斯蒂芬·霍金接受BBC的采訪給出了這樣的觀點,。特斯拉的創(chuàng)始人埃隆·馬斯克把AI稱為“人類最大的潛在威脅”。微軟前總裁比爾·蓋茨也表示過類似的擔憂,。

  有多少擔憂是必要的,?問題有多緊迫?我們聚集了多位工業(yè),、科研,、政策決策領域的專家,,一起評估人工智能的發(fā)展風險。參加此次話題討論的包括Skype創(chuàng)始人之一,、人類未來發(fā)展?jié)撛陲L險研究院的智庫成員——Jaan Tallinn,,IBM的沃森超級電腦研究院負責電腦認知研究的專家——Guruduth S. Banavar,帕多瓦大學計算機系教授,、哈佛大學拉德克利夫高級研究所研究院和聚集最多AI研究者的國際人工智能研究協(xié)會主席——Francesca Ross,。

  以下是經過編輯整理的專家談話內容。

  危險究竟是什么,?

  記者:人工智能會對人類造成哪些威脅,?

  Banavar:受科幻小說、電影的影響,,人工智能帶來的威脅主要是人類與機器之間的矛盾沖突,,這個觀點其實是錯誤的。人工智能在某些領域能夠比人類更出色地解決問題,,比如大數據篩選,。然而,某些人類擅長的領域里,,機器的表現非常糟糕,。比如常識推理、提出精彩的問題以及“跳出來”想問題,。人類和機器的結合體,既我們研究的計算機認知能力的基礎,,是對解決各個領域的復雜問題的革命性的設想,。

  以人工智能為基礎的系統(tǒng)已經在很多方面為我們的生活提供了便利:股票自動交易系統(tǒng)、自動飛行控制系統(tǒng),、工業(yè)流水作業(yè)機器人,、錯誤檢測和搜索引擎... 在過去的5-10年間,計算機運算法則和先進的計算機架構讓我們開發(fā)出了很多新應用,。

  然而需要認識到,,計算機運算法則已經被運用到極致。要實現更大的進步,,則需要引入更多復雜的符號系統(tǒng)——這是個很高的要求,。今天我們的神經科學和認知科學研究,對于人類智能的研究也只是掌握到皮毛,。

  我個人的觀點是,,能夠達到人類水平,實現一般感知,、推測的人工智能機器只是個娛樂話題,。

  TALLINN:今天的人工智能不可能對人類構成威脅,。如果我們要討論人工智能的長遠影響,(也就是人工智能能夠比人類更好地完成策略,、科學,、人工智能研究的時候。)我們就要涉及到控制超級智能的問題,。

  記者:什么是超級智能控制問題,?

  TALLINN:現在最先進的機器人也存在一個能夠讓人類實現完全控制的“關機鍵”。然而,,“關機鍵”發(fā)揮作用的前提是它在機器人的工作領域之外,。舉個例子,一個會下棋的電腦工作領域僅限于與人對弈,,它并不會覺察到它的人類對手可以拔掉它的電源終止游戲,。

  然而,超級智能機器,,經過有意或者無意的程序設定,,能夠全面的了解周圍世界并且對于有人可以動他們的“關機鍵”的后果作出預測,人類就很難再控制它,。

  記者:這個問題有多嚴重,?

  TALLINN: 目前這還只是理論上的推測。但是需要謹慎的認識到,,超級智能機器可能會僅僅受控于物理學定律和人們給早期智能機器人設定的程序,。

  早期的程序是基于我們十分有限的物理學知識設計的。想象一下,,如果面對一個智能機器人,,我們給出的指令是“為人類創(chuàng)建更偉大的未來”時,我們最好能夠十分確定它會做出怎樣的反應,。

  ROSSI:在很多具體的領域,,人工智能的表現已經超越人類,其中就包括一些涉及精確判斷的領域,。目前,,人工智能并未威脅到人類,但是人類已經受到機器判斷的影響,,如線上自動交易系統(tǒng),,健康檢查系統(tǒng)以及很快就將普及的無人駕駛汽車和無人操控武器。

  我們需要明確了解分析人工智能在具體領域內存在的潛在威脅,,既讓它們發(fā)揮作用,,又要確保它們能夠安全、友好,、按照人類價值觀運轉,。這并不是個簡單的課題,,因為即使是人類,在大多數時間里都無法遵照自己設定的原則行動,。

  給日常生活帶來的影響

  記者:人工智在具體領域會給人類帶來怎樣的威脅,?

  ROSSI: 比如自動交易系統(tǒng),機器給出的一個錯誤的決策會給很多人帶來經濟損失,。無人駕駛汽車的失誤也會給人類帶來生命安全的威脅,。

  記者:應該怎么看待這些風險?

  BANAVAR: 任何風險都有兩面性:做這件事的風險和不做這件事的風險,。我們已經有很多基于信息不完全,、專業(yè)人士的不專業(yè)做出的錯誤決定,造成數千人死亡,,上百萬美金損失以及在諸如醫(yī)療等核心領域緩慢的發(fā)展狀況,。基于IBM沃森超級電腦在很多領域的應用經驗,,我認為,,在具體領域上,人工智能能夠有效的降低風險,。

  然而對于全面人工智能領域,,我持有謹慎的觀點。我認為我們一直低估了這個問題的復雜性,。我們有太多未知未知了,。

  記者:IBM采取哪些措施來降低人工智能技術風險?

  BANAVAR: IBM的計算機認知系統(tǒng),,和其他現代計算機系統(tǒng)一樣,,是基于云計算結構,運算法則和大量數據構建的,。為了防止違規(guī)現象出現,這些系統(tǒng)的運轉是可以被記錄,、追蹤和審查的,。這些認知系統(tǒng)不是自主運轉,所以他們的指令,、數據,、結構需要我們采取一定保護措施來防止人為的外部攻擊。任何接入,、更新系統(tǒng)的人都是可控的,。

  我們主要通過復雜的加密和數字簽名來保護數據,通過漏洞掃描和其他技術手段保護運算代碼,,通過隔離等手段保護計算機結構,。

  這些支持人工智能安全運行的政策是基于對風險的深度分析設計的,。這些政策需要經過安全和交易委任, 管理銷售和公共安全提供的委員會(SEC)、食品及藥物管理局(FDA)以及美國國家標準技術研究院(NIST)這些各自領域內負責設定安全標準的機構審查,。

  記者:沃森超級電腦正在幫助醫(yī)生解決醫(yī)療難題,。它能夠對自身失誤造成的醫(yī)療傷害負責嗎?

  BANAVAR: 沃森超級電腦不會給出診斷意見,。它通過處理大量患者醫(yī)療數據為醫(yī)生提供多種處理建議,。醫(yī)生會考慮沃森提出的建議并綜合分析其它因素做出最終的治療判斷。

  ROSSI: 醫(yī)生也在一直犯錯,,主要原因在于他們無法完全掌握關于某種疾病的全部信息,。像沃森電腦這樣的系統(tǒng),能夠幫助他們減少失誤,。

  TALLINN: 曾經一項研究把醫(yī)生和醫(yī)療自動診斷系統(tǒng)作比較,。結論是,大多數醫(yī)生輸給了電腦,。

  BANAVAR:我認為,,沃森電腦提供更加完備的醫(yī)療建議是十分有益的。我很希望有機會讓它為我做診斷,。

  對人類的影響

  記者:有些專家認為人工智能以及搶了一些人類的飯碗,,你們同意嗎?

  TALLINN: 科技進步確實會讓一些工作崗位消失,。有一位Uber司機曾經興奮地向我介紹他是如何把目的地輸入到平板電腦上,,得到行程路線的。我告訴他,,幾年之后,,可能來是這些科技小物件把我送到目的地。司機高興地說,,到時候他就更省事了,,坐在駕駛座上享受就可以了。坐在后排的我卻不住搖頭,。我認為,,無人駕駛汽車給人類帶來的最大影響不是便利,而是消失的工作崗位,。

  長遠看來,,除了工作以外,還應該設想一下,,我們的社會還可以圍繞什么運轉,。

  BANAVAR: 有史以來,我們一直通過打造工具來幫助我們完成我們做不到的事情,。每一代工具的產生都會引發(fā)我們關于自然和工作方式的思考,。生產力提高,,工作被重新定義,新的職業(yè)誕生,,一些職業(yè)消失,。電腦認知系統(tǒng)拓展了人類的思維力,替代性潛力更強,。

  問題的關鍵是應該建立一個機構,,快速培養(yǎng)專業(yè)人士,讓他們能夠開發(fā)電腦認知系統(tǒng)作為助手輔助他們各自的工作,。這些技能能夠加強人類的專業(yè)性,,為“專家”設定一個全新的標準。

  記者:我們該為人工智能社會做怎樣準備,?

  TALLINN: 全面人工智能何時實現甚至是否能夠實現都存在很大不確定性,。(雖然作為一名物理學家,我覺得一切皆有可能?。┑遣淮_定性并不是我們不去思考控制問題的借口,。針對如何控制的問題,有針對性的研究剛剛開始,,可能需要幾十年才能有結果,。

  ROSSI: 我相信,我們完全可以把應用在具體領域的人工智能對人類的不良影響控制到最小的程度,。我們需要為機器設定人類的價值標準,,設定工作原則和優(yōu)先級,如與人類相符的沖突解決能力,。具體領域的人工智能設計工作完成好,,就能夠為設計出不危害人類的全面人工智能做好準備。

  BANAVAR: 上個世紀90年代初期,,計算機走進醫(yī)療領域的時候,,多國社會運動分子為維護病人權利奔走呼吁。10年之后,,醫(yī)療信息保密協(xié)議誕生,。同樣,在具體領域的人工智能也面臨一個嚴肅問題,,哪些權利不容侵犯,侵犯之后要承擔哪些責任,?

  ROSSI:現在銷售普通汽車要通過一系列安全測試,,未來銷售無人駕駛汽車,也需要有新的安全測試標準,。需要仔細檢測的不僅是汽車運行程序,,也包括以人類倫理,、道德原則為基礎設計的突發(fā)情況判斷程序。

  BANAVAR: 駕駛員,、乘客,、行人在無人駕駛汽車世界各自的權利是什么?消費者可以不向投資顧問和智能助手提供全部信息嗎,?誰該為投資建議負責,?是投資顧問、投資服務組織者,、智能助手設計者還是數據監(jiān)管人,?未來有智能機器的人類社會需要面臨、解決的問題依然很多,。

  相關新聞:

  霍金,、蓋茨都在警惕人工智能 實則是在自欺欺人?

  不過對人類的監(jiān)控和??取代,并不是霍金,、馬斯克和蓋茨所擔心的未來,。他們關注的是更遙遠的未來擁有認知和學習能力的機器人與人類的利益產生沖突。

  軟銀創(chuàng)始人孫正義:機器超過人類的一天終會到來

  軟銀擁有美國Sprint公司,,在日本擁有一家移動網絡公司,。該公司計劃從今年夏天開始,面向消費者發(fā)售數千臺人形機器人,。該機器人命名為“Pepper”,,一直被標榜為全球首款可以感知人類感情的機器人。

  類人機器人不斷進階 人工智能奇點臨近,?

  類人機器人是開發(fā)難度最高的機器人之一,,因為人臉有上千塊肌肉,而機器人要對人的指令做出反應,,還要模擬人的表情,。目前,類人機器人可以用于娛樂和服務,??茖W家們正在開發(fā)更智能的軟件,使機器人能和人交流并具備學習能力,。從某種角度說,,類人機器人的研發(fā)是真正考驗人類智慧的行為,這也就意味著,,人工智能在未來很可能達到一個我們無法想象的水平,。

  人工智能熱潮反反復復 為何在這時候又被點燃?

  基礎設施的速度、普及度以及絕對規(guī)模已經有了長足的進步,,足以承載更加復雜的算法來解決更具野心的問題,。處理器陣列(例如GPU)極大的提高了硬件處理速度,而且,,這些運算能力通過云服務的形式,,可以很容易被更多人接觸到。


本站內容除特別聲明的原創(chuàng)文章之外,,轉載內容只為傳遞更多信息,,并不代表本網站贊同其觀點。轉載的所有的文章,、圖片,、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者,。如涉及作品內容,、版權和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。