《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 通用AI——未來真正強健的人工智能?

通用AI——未來真正強健的人工智能,?

2021-11-25
來源:新型科技有意思
關鍵詞: 通用AI 人工智能

紐約大學馬庫斯(Gary Marcus)教授和戴維斯(Ernest Davis)教授2019年新書(參考資料[1])的書名,,頗吸引眼球:《Rebooting AI : 構建我們可以信任的人工智能》——在計算機術語中,“Rebooting”是“重新啟動”的意思,。馬庫斯和戴維斯在書中對人工智能領域當前的技術現狀進行了分析,,并提出了實現真正強健的人工智能必須采取的步驟。

《Rebooting AI》一書封面

正如書中談到的:在AI(人工智能)早期,,沒有用太多的數據,,大多數研究遵循“基于知識”的方法,有時被稱為GOFAI——Good Old Fashioned AI(好的老式AI),,或“經典AI”,。在經典AI中,研究人員通常會手工編碼人工智能執(zhí)行特定任務所需的知識,,然后編寫利用該知識的計算機程序,,將其應用于各種認知挑戰(zhàn),,比如理解故事或為機器人制定計劃或證明定理。大數據是不存在的,,這些系統(tǒng)很少把利用數據放在首位?,F在,,總的來說,,傳統(tǒng)的、以知識為中心的方法已經被機器學習所取代,,機器學習通常試圖從數據中學習所有東西,,而不是依賴利用手工編碼知識的、專門構建的計算機程序,。當大數據革命來臨時,,在20世紀10年代初,神經網絡終于有了自己的日子,,以深度學習名義復興,。深度學習在很大程度上成為當前人工智能投資的中心——無論是在學術界還是在工業(yè)界。然而,,無論是機器學習還是人工智能,,深度學習并不是唯一的方法。通常用文氏圖簡便方法表示深度學習,、機器學習和人工智能之間關系,。人工智能包括機器學習,但也包括,,例如,,任何必要的算法或知識,是手工編碼或建立的傳統(tǒng)編程技術,,而不是學習,。機器學習包括允許機器從數據中學習的任何技術;深度學習是這些技術中最著名的,,但不是唯一的,。

人工智能在一些應用中取得了超人的性能,但現實是,,我們離真正理解世界的人工智能還很遠,。馬庫斯和戴維斯區(qū)分了當今以深度學習為基礎的、狹隘脆弱的人工“智能”和人工通用智能,,用洞察力解釋了當前方法的缺陷,,并提供了一條他們認為能夠通向健壯人工智能的道路。在可預見的未來,,機器會超越人類嗎,?馬庫斯和戴維斯給出了他們的答案,。

人工智能及其若干子領域(引用《Rebooting AI》一書第45頁)

Karen Hao對馬庫斯的訪談

2019年9月27日《MIT技術評論》網站刊載了Karen Hao對馬庫斯的訪談——“我們不能相信只建立在深度學習基礎上的人工智能系統(tǒng)”,討論如何實現通用AI——以及為什么這可能會使機器更安全,。

首先,,馬庫斯教授認為,,雖然深度學習技術在推進人工智能(AI)方面發(fā)揮了重要作用,,但該領域當前對它的過分強調,很可能會導致其滅亡,。馬庫斯列舉了技術和道德方面的問題,。 從技術角度來看,深度學習可能擅長模仿人腦的感知任務,,例如圖像或語音識別,。 但這并不能滿足其他任務,例如理解對話或因果關系,。 為了創(chuàng)建功能更強大,、智能程度更高的機器(通常稱人工通用智能),深度學習必須與其他方法結合起來,。

馬庫斯教授和戴維斯教授認為,,創(chuàng)造一種能夠與人類競爭或超過人類水平的智能,遠比我們所認為的要復雜得多,。像IBM “沃森”(Watson)計算機在《危險邊(Jeopardy?。分橇Ω偛码娨暪?jié)目獲勝(注:2011年2月14日至16日,IBM “沃森”(Watson)超級電腦在智力競猜電視節(jié)目《危險邊緣(Jeopardy?。分?,與該節(jié)目歷史上兩位最成功的選手肯?詹寧斯和布拉德?魯特對決,沃森獲勝,,成為《危險邊緣》節(jié)目新的王者)和AlphaGo在圍棋比賽中獲勝(2016年3月9日-15日,,谷歌AlphaGo以總比分4比1戰(zhàn)勝世界頂級圍棋棋手李世石),并不意味著我們已經處于完全自主的汽車或超智能機器的門口,。迄今為止,,這一領域的成就是在具有固定規(guī)則集的封閉系統(tǒng)中取得的。這些方法過于狹窄,,無法達到真正的智能,。我們生活的世界是極其復雜和開放的。我們怎樣才能彌合這一鴻溝,?當我們這樣做的時候會有什么后果,?馬庫斯和戴維斯向我們展示了在我們到達目的地之前我們首先需要完成的事情,并認為如果我們保持明智,,我們就不必擔心機器霸主的未來,,人類可以創(chuàng)造出一個我們可以信任的用于家庭,、汽車和醫(yī)生辦公室里的人工智能。

當人工智能系統(tǒng)無法真正了解其任務或周圍環(huán)境時,,也可能導致危險的后果,。即使在系統(tǒng)環(huán)境中進行最小的意外更改,也可能導致其出錯,。已經有無數這樣的例子:易于愚弄的詆毀言語檢測器,,使歧視永久化的求職系統(tǒng),以及撞車的自動駕駛汽車有時會殺死駕駛員或行人,。

馬庫斯教授和戴維斯教授認為,,對通用AI的追求,,不僅僅是一個有趣的研究問題,,它具有非常現實的意義,。在他們的新書《重啟AI》中,,馬庫斯和他的同事戴維斯提倡一條新的前進道路。他們認為我們離實現這種通用智能還差得很遠,,但他們也相信我們最終可以達到目標,。

馬庫斯在Karen Hao訪談中,談到了深度學習的弱點,,該領域可以從人類心智中汲取的教訓,,以及他為何保持樂觀。以下摘編自由Karen Hao編輯,、歸納的訪談若干要點(參考資料[2]),。

[我們?yōu)槭裁催€要通用AI?窄AI已經為我們創(chuàng)造了很多價值,。]

窄AI(注:或稱弱人工智能,,局限于特定應用領域)已經為我們創(chuàng)造了很多價值,它將產生更多價值,。但是,,有很多問題窄AI似乎無法解決。諸如對話的自然語言理解和虛擬世界中的通用助手之類的東西,,或者諸如Rosie機器人之類的東西,,可能會幫助您收拾家居或做飯(注:Rosie是20世紀60年代電視節(jié)目《杰特森一家》中的多功能家用機器人,她能照顧我們家里的一切——植物,、貓,、盤子和孩子。哦,,再也不用打掃任何東西了),。這些是超出我們可以使用窄AI能夠進行處理的范圍之外,。關于窄AI是否可以使我們使用安全的無人駕駛汽車,這也是一個有趣的經驗性問題,。到目前為止,,現實是窄AI在異常情況下甚至存在很多問題,即使是對于駕駛,,這也是一個有相當限制的問題,。

一般說來,我認為我們都希望看到AI可以幫助我們大規(guī)模地獲得醫(yī)學新發(fā)現,。由于生物學很復雜,,目前尚不清楚當前的技術是否可以使我們到達需要的位置。您確實需要能夠閱讀文獻,??茖W家對網絡和分子如何相互作用具有因果關系的理解。他們可以發(fā)展有關軌道和行星等理論,。借助窄AI,,我們無法讓機器來實現這種創(chuàng)新水平。有了通用AI,,我們也許就能徹底改變科學,、技術和醫(yī)學。因此,,馬庫斯教授認為致力于通用AI的工作是非常值得,。

[聽起來你是把通用AI稱為強健人工智能?]

通用AI是能夠思考并獨立解決新問題的AI,。這與問題情況相反,,例如圍棋在2000年里沒有變化。

通用AI類似于人類,;任何一個聰明的人都可以做很多,、很多不同的事情。你需要一個大學生實習生,,幾天之內,,他們就可以從法律問題到醫(yī)療問題。這是因為他們對世界有一個普遍的了解,,他們可以閱讀,,所以他們能夠為各種各樣的事情做出貢獻。

這種關系和強健的智能之間的關系是,,如果你不強健,,你可能真的不能做一般的事情。因此,為了建立一個足夠可靠的東西來應對一個不斷變化的世界,,你至少可能需要通用智能,。

但你知道,我們現在還差很遠,。AlphaGo可以在19x19圍棋棋盤上玩得很好,,但實際上必須重新訓練,才能在矩形圍棋棋盤上玩,?;蛘吣阌媚愕囊话闼缴疃葘W習系統(tǒng)可以識別大象——只要大象很亮,你可以看到大象的紋理,。但如果你把大象畫成剪影,,它很可能就認不出來了。

[正如你在書中提到的,,深度學習不能真正達到通用AI,,因為它缺少深刻的理解。]

在認知科學中,,我們討論的是事物的認知模型,。所以我坐在酒店的房間里,我知道有個壁櫥,,有一張床,還有一臺不尋常的電視機,。我知道這里有這么多東西,,我不只是指認它們。我也理解它們之間的關系,。我對外部世界的運作有這些想法,。它們并不完美。它們是可能出錯,,但它們相當好,。我在它們周圍做了很多推論來指導我的日常行為。

相反的極端是類似于DeepMind制作的Atari游戲系統(tǒng),,當它看到屏幕上特定位置的像素時,,它會記住需要做什么。如果得到足夠的數據,,看起來已經理解了,,但實際上這是一個非常膚淺的理解。證明是如果你移動三個像素,,它的播放效果會差得多,。它隨著變化而斷裂。這與深刻理解相反,。

[你建議回到經典人工智能去解決這個挑戰(zhàn),。經典人工智能的優(yōu)點是什么,,我們應該嘗試合并?我只是有點太吃驚了,,深度學習社區(qū)對這一點的評價有多低,。]

有一些。首先,,經典人工智能實際上是一個構建世界認知模型的框架,,然后你可以進行推理。第二件事是,,經典的人工智能完全符合規(guī)則,。這是一個奇怪的社會學,現在人們在深度學習中想要避免規(guī)則,。他們想用神經網絡做任何事情,,對任何看起來像經典編程的東西都不做任何事。但是有些問題通常是這樣解決的,,沒有人注意,,比如在谷歌地圖上制作你的路線。

我們實際上需要兩種方法,。機器學習在學習數據方面是很好的,,但是它很難表示計算機程序所表示的抽象。經典的人工智能在抽象方面很好,,但都需要手工編碼,,世界上有太多的知識來人工輸入所有東西。所以很明顯,,我們想要的是一種能混合這些方法的合成,。

[這涉及到你提到的我們可以從人類頭腦中學到的東西的章節(jié)。第一個是建立在我們已經討論過的觀念之上——我們的思想是由許多不同的系統(tǒng)組成的,,它們以不同的方式工作,。]

我認為有另一種方法來解釋這一點,即:我們所擁有的每一個認知系統(tǒng),,都在做著不同的事情,。類似地,人工智能中的對應方需要被設計來處理具有不同特征的不同問題,。

現在,,人們正試圖使用某種“一刀切”(one-size-fits-all)的技術來解決根本不同的問題。理解一個句子和認識一個對象有根本的不同,。但是人們試圖用深度學習來做到這兩個目標,。從認知的角度來看,這些都是質的不同的問題。而我有點驚訝深度學習社區(qū)對這一點的總體評價是如此之低,。為什么指望一顆銀彈就能解決所有這些問題呢,?這是不現實的,它并沒有揭示AI所面臨的挑戰(zhàn)的復雜理解,。

[你提到的另一件事是,,人工智能系統(tǒng)需要理解因果關系。你認為這會來自深度學習,,經典人工智能,,還是全新的東西?]

這又是一個深度學習并不特別適合的地方,。深度學習不能解釋事情發(fā)生的原因,,而是在給定的情況下可能發(fā)生的可能性。

要建立我們可信任的AI,,必須賦予它們對“時間”,、“空間”和“因果關系”的理解能力。雖然操作上一定會有很多挑戰(zhàn),,同時也意味著要放棄大量現有對AI的研究結果,,但只有這樣,我們才能設計出我們需要的AI,。

[大自然創(chuàng)造了初稿,,即草稿。然后學習在整個余下的時間里里修改草稿,。]

我們討論的這類事情,,你看了一些場景,你了解了為什么會發(fā)生,,如果某些事情發(fā)生了改變,會發(fā)生什么,。我可以看一下酒店電視上的畫架,,我猜如果我剪掉一條腿,畫架就會翻倒,,電視機就會掉下來,。這是因果推理。

經典人工智能為我們提供了一些工具,。例如,,它可以表示什么是支持關系,什么正在崩潰,。不過,,我不想賣過頭。一個問題是,經典的人工智能主要依賴于關于正在發(fā)生的事情的非常完整的信息,,而我只是在沒有看到整個畫架的情況下做了這個推斷,。所以我能走捷徑,推斷出我看不見的畫架碎片,。我們還沒有真正能做到這一點的工具,。

[你提出的第三件事是人類擁有先天就具有的知識的想法。你如何看待它被納入人工智能系統(tǒng),?]

對于人類來說,,在你出生的時候,你的大腦實際上是非常精細的結構,。它不是固定的,,但大自然創(chuàng)造了初稿,即草稿,。然后學習在整個余下的時間里修改草稿,。

大腦的草圖已經有了一定的能力。一只剛出生幾個小時的小山羊可以在山上爬行而不犯錯誤,。顯然,,它對三維空間、它自己的身體以及兩者之間的相互關系有一定的理解,。相當復雜的東西,。

這就是我認為我們需要混合的部分原因。很難想象我們如何能在沒有一個類似的知識的前提下建造一個在世界上運行良好的機器人,,而而不是從一張白紙開始,,通過大量的經驗學習。

對人類來說,,我們天生的知識來自于隨著時間的推移而進化的基因組,。對于人工智能系統(tǒng),它們必須以不同的方式出現,。其中一些可以來自我們如何構建算法的規(guī)則,。其中有些可以來自我們如何構建這些算法操作的數據結構的規(guī)則。有些知識可能來自我們直接教導機器的知識,。

[有趣的是,,你把書中的所有內容都與信任和建立可信任系統(tǒng)的思想聯系起來。你為什么特別選擇那個框架,?]

因為我覺得現在是整個球賽,。我認為我們生活在一個奇怪的歷史時刻,在這個時刻,,我們對不值得信任的軟件給予了很多信任,。我認為我們現在的憂慮不是永久的,。一百年后,人工智能將保證我們的信任,,也許更快,。

但現在人工智能是危險的,而不是像埃隆·馬斯克擔心的那樣,。但是在面試系統(tǒng)中,,不管程序員做什么,都會歧視女性,,因為他們使用的技術太簡單了,。

我希望我們有更好的人工智能。我不希望我們有一個人工智能的冬天,,在那里人們意識到這些東西不起作用,,是危險的,他們不做任何事情,。

[在某種程度上,,你的書實際上感覺非常樂觀,因為你暗示有可能建立可信賴的人工智能,。我們只需要換個方向,。]

對,這本書是非常短期的悲觀和非常長期的樂觀,。我們認為,,如果這個領域能從更廣泛的角度來看待什么是正確的答案,我們在書中所描述的每一個問題都可以解決,。我們認為如果那樣的話,,世界會變得更好。

未來AI

對于人工智能的未來,,是否還有其他專家和馬庫斯教授持類似的觀點,?

在馬庫斯和戴維斯的《Rebooting AI 》出版之前,圖靈獎得主朱迪亞?珀爾在2018年出版了名為《The Book Of Why》的書(參考資料[3]),。在書中闡述了人類具備推斷行為后果的因果關系能力,,得以進化出智能。在書中講述了因果關系的三個層級,,而把人工智能大數據分析和深度學習置于因果關系之梯的最低層級,與貓頭鷹相提并論,。書中談到了馬庫斯的觀點(參考資料[3],,第35頁):深度學習的成功確實是了不起的,讓我們許多人感到驚訝,。然而,,深度學習的成功主要表現在我們認為困難實際上并不困難的問題或任務,。它并沒有解決真正困難的問題,這些問題繼續(xù)阻止我們實現類人人工智能,。其結果是公眾誤以為,,像人類一樣思考的“強人工智能”機器就在眼前,甚至可能已經在這里了,。事實上,,并非如此。我完全同意紐約大學的神經學家加里·馬庫斯(Gary Marcus)的觀點,,他最近在《紐約時報》上撰文稱,,人工智能領域正在“涌現出大量的微發(fā)現”——這類東西是新聞稿好素材,但機器仍然令人失望地與類人的認知相差甚遠,。我在加州大學洛杉磯分校計算機科學系的同事阿德南·達爾里維奇發(fā)表了一篇題為《人類水平的智力或類似動物的能力,?》的論文。我認為這是一個正確的問題框架,。強大人工智能的目標是制造出具有類似人類智能的機器,,能夠與人類對話和引導人類。相反,,深度學習給了我們真正令人印象深刻的能力但沒有智力的機器,。這種差異是深刻的,在于缺乏一種現實的模式,。

朱迪亞?珀爾這本書很值得仔細研讀,。此書中文版《為什么:關于因果關系的新科學》,已經由中信出版集團出版,。

朱迪亞?珀爾《The Book Of Why》的書封面及其中文版

未來人工智能能夠超越人類嗎,?人工智能的進步將通過重塑交通、健康,、科學,、金融和軍事來改變現代生活。牛津大學未來人類研究所對人工智能的進步進行了全面的研究,。這項研究采訪了352名人工智能研究人員,,發(fā)表了名為《人工智能何時超越人類表現》的報告(參考資料[4])。其中講到::人工智能很可能會根據下面的估計時間表取得進展——對以下任務,,到相應的年份人工智能能夠超越人類::翻譯語言——2024年,;寫高中論文——2026年;駕駛卡車——2027年,;零售業(yè)工作——2031年,;寫暢銷書——2049年;實施手術——2053年,。

這項研究還發(fā)現,,在45年內,,人工智能工具在所有任務中超過人類的可能性高達50%,在120年內,,所有人類工作自動化的可能性高達50%,。這可能會有點令人震驚。鑒于如此先進的技術,,人們將無所事事嗎,?相信人工智能將主要執(zhí)行重復性的任務,給我們更多的時間專注于人類最擅長的創(chuàng)造性和創(chuàng)新性工作,,并參與我們最喜歡的有趣的活動,。最后,研究中接受采訪的大多數研究人員認為,,隨著人工智能在基本任務上開始超越人類,,它很可能對人類整體產生積極影響。

牛津大學未來人類研究所對人工智能執(zhí)行某些任務將超越人類的時間表預測

結語

馬庫斯教授在其新書中,,對人工智能持非常短期的悲觀和非常長期的樂觀不無道理,。我相信未來人工智能將不再狹隘、脆弱,,相信未來人工智能會提升朱迪亞?珀爾所說的因果關系層級,,也相信牛津大學未來人類研究所所預測人工智能能夠完成的任務,有可能按估計的時間表取得進展——但是,,我懷疑這些任務將會由某種通用AI完成,,這也是這篇讀書札記的標題加了問號“?”原因,。

《崛起的超級智能》一書主要闡述互聯網經過50年的時間從網狀結構發(fā)展成為大腦模型,,數十億群體智慧與數百億機器智能通過互聯網大腦架構形成了自然界前所未有的超級智能,這個超級智能的形成與物聯網,,云計算,,大數據,工業(yè)4.0,,人工智能,,群體智能,云機器人的爆發(fā)是什么關系,;互聯網大腦與超級智能如何影響人類社會的科技,,經濟,產業(yè)以及城市建設的未來發(fā)展,?人類個體和組織機構如何應對崛起的超級智能帶來的挑戰(zhàn),?




最后文章空三行圖片.jpg


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,,并不代表本網站贊同其觀點,。轉載的所有的文章、圖片,、音/視頻文件等資料的版權歸版權所有權人所有,。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容,、版權和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,,避免給雙方造成不必要的經濟損失,。聯系電話:010-82306118;郵箱:[email protected],。