一年一度的GMIC大會今日在北京國家會議中心舉行,。在上午的領袖峰會上,,世界著名物理學家斯蒂芬·威廉·霍金做了演講并回答了一些關于人工智能的問題。
雖然霍金的演講的題目為《讓人工智能造福人類及其賴以生存的家園》,,但是霍金一再表示了其對人工智能發(fā)展的擔憂,。
霍金稱,,我目前見證的最深刻的社會變化是人工智能的崛起?;艚鹫J為,,人工智能的崛起要么成為人類歷史上最好的事,要么成為最糟糕的事情,。所以,,霍金呼吁人類研究人工智能一定要規(guī)避風險,并警告人類意志轉變的人工智能可能會毀滅人類,。
為了支持這一論點,,霍金解釋到,文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,,從國際象棋和圍棋人機大戰(zhàn)的結果來看,,霍金認為生物大腦可以達到的和計算機可以達到的,沒有本質(zhì)區(qū)別,。因此,,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則,。人工智能一旦脫離束縛,,以不斷加速的狀態(tài)重新設計自身。人類由于受到漫長的生物進化的限制,,無法與之競爭,,將被取代。
霍金呼吁,,研究人員必須能夠創(chuàng)造出可控的人工智能,。在具體的問題上,霍金稱自己短期的擔憂在無人駕駛方面,,從民用無人機到自主駕駛汽車,。比如說,在緊急情況下,,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇,。另一個擔憂在致命性智能自主武器。他們是否該被禁止,?如果是,,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責,。還有另外一些擔憂,,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響,。而長期擔憂主要是人工智能系統(tǒng)失控的潛在風險,,隨著不遵循人類意愿行事的超級智能的崛起,那個強大的系統(tǒng)威脅到人類,。
“人工智能的成功有可能是人類文明史上最大的事件,,但是人工智能也有可能是人類文明史的終結?!被艚鹂偨Y道,。
以下為霍金在GMIC2017上的演講實錄:
在我的一生中,我見證了社會深刻的變化,。其中最深刻的,,同時也是對人類影響與日俱增的變化,是人工智能的崛起,。簡單來說,,我認為強大的人工智能的崛起,要么是人類歷史上最好的事,,要么是最糟的,。我不得不說,是好是壞我們?nèi)圆淮_定,。但我們應該竭盡所能,,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇,。我認為人工智能的發(fā)展,,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決,。
人工智能的研究與開發(fā)正在迅速推進。也許我們所有人都應該暫停片刻,,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會效益上面,。基于這樣的考慮,,美國人工智能協(xié)會(AAAI)于2008至2009年,,成立了人工智能長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注,。但我們的人工智能系統(tǒng)須要按照我們的意志工作,。跨學科研究是一種可能的前進道路:從經(jīng)濟,、法律,、哲學延伸至計算機安全,、形式化方法,當然還有人工智能本身的各個分支,。
文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,,我相信生物大腦可以達到的和計算機可以達到的,沒有本質(zhì)區(qū)別,。因此,,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則,。但我們并不確定,,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,,或者很可能被它毀滅,。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,,并迅速地消滅數(shù)以百萬計的工作崗位,。
在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時,,我也在擔憂創(chuàng)造一個可以等同或超越人類的事物所導致的結果:人工智能一旦脫離束縛,,以不斷加速的狀態(tài)重新設計自身。人類由于受到漫長的生物進化的限制,,無法與之競爭,,將被取代。這將給我們的經(jīng)濟帶來極大的破壞,。未來,,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志,。盡管我對人類一貫持有樂觀的態(tài)度,,但其他人認為,人類可以在相當長的時間里控制技術的發(fā)展,,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力,。但我并不確定。
2015年1月份,,我和科技企業(yè)家埃隆·馬斯克,,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認真的調(diào)研,。在這之前,,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果,。我和他同在“生命未來研究所”的科學顧問委員會,,這是一個為了緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的,。這個公開信號召展開可以阻止?jié)撛趩栴}的直接研究,,同時也收獲人工智能帶給我們的潛在利益,同時致力于讓人工智能的研發(fā)人員更關注人工智能安全,。此外,,對于決策者和普通大眾來說,這封公開信內(nèi)容翔實,,并非危言聳聽,。人人都知道人工智能研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要,。比如,,人工智能是有根除疾患和貧困的潛力的,但是研究人員必須能夠創(chuàng)造出可控的人工智能,。那封只有四段文字,,題目為《應優(yōu)先研究強大而有益的人工智能》的公開信,在其附帶的十二頁文件中對研究的優(yōu)先次序作了詳細的安排,。
在過去的20年里,,人工智能一直專注于圍繞建設智能代理所產(chǎn)生的問題,也就是在特定環(huán)境下可以感知并行動的各種系統(tǒng),。在這種情況下,,智能是一個與統(tǒng)計學和經(jīng)濟學相關的理性概念。通俗地講,,這是一種做出好的決定,、計劃和推論的能力?;谶@些工作,,大量的整合和交叉孕育被應用在人工智能、機器學習,、統(tǒng)計學,、控制論、神經(jīng)科學,、以及其它領域。共享理論框架的建立,,結合數(shù)據(jù)的供應和處理能力,,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類,、自動駕駛,、機器翻譯、步態(tài)運動和問答系統(tǒng),。
隨著這些領域的發(fā)展,,從實驗室研究到有經(jīng)濟價值的技術形成良性循環(huán)。哪怕很小的性能改進,,都會帶來巨大的經(jīng)濟效益,,進而鼓勵更長期、更偉大的投入和研究,。目前人們廣泛認同,,人工智能的研究正在穩(wěn)步發(fā)展,而它對社會的影響很可能擴大,,潛在的好處是巨大的,,既然文明所產(chǎn)生的一切,都是人類智能的產(chǎn)物;我們無法預測我們可能取得什么成果,,當這種智能是被人工智能工具放大過的,。但是,正如我說過的,,根除疾病和貧窮并不是完全不可能,,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規(guī)避風險是非常重要的,。
現(xiàn)在,,關于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長期來討論,。一些短期的擔憂在無人駕駛方面,,從民用無人機到自主駕駛汽車。比如說,,在緊急情況下,,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器,。他們是否該被禁止,?如果是,那么“自主”該如何精確定義,。如果不是,,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔憂,,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響,。
長期擔憂主要是人工智能系統(tǒng)失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,,那個強大的系統(tǒng)威脅到人類,。這樣錯位的結果是否有可能?如果是,,這些情況是如何出現(xiàn)的,?我們應該投入什么樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,,或智能爆發(fā)的出現(xiàn),?
當前控制人工智能技術的工具,例如強化學習,,簡單實用的功能,,還不足以解決這個問題。因此,,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題,。
近來的里程碑,比如說之前提到的自主駕駛汽車,,以及人工智能贏得圍棋比賽,,都是未來趨勢的跡象。巨大的投入傾注到這項科技,。我們目前所取得的成就,,和未來幾十年后可能取得的成就相比,必然相形見絀,。而且我們遠不能預測我們能取得什么成就,,當我們的頭腦被人工智能放大以后。也許在這種新技術革命的輔助下,,我們可以解決一些工業(yè)化對自然界造成的損害,。關乎到我們生活的各個方面都即將被改變。簡而言之,,人工智能的成功有可能是人類文明史上最大的事件,。
但是人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險,。我曾經(jīng)說過,,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器,。今年早些時候,,我和一些來自世界各國的科學家共同在聯(lián)合國會議上支持其對于核武器的禁令。我們正在焦急的等待協(xié)商結果,。目前,,九個核大國可以控制大約一萬四千個核武器,,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,,最可怕的危害是誘發(fā)核冬天
,火和煙霧會導致全球的小冰河期,。這一結果使全球糧食體系崩塌,,末日般動蕩,很可能導致大部分人死亡,。我們作為科學家,,對核武器承擔著特殊的責任,因為正是科學家發(fā)明了它們,,并發(fā)現(xiàn)它們的影響比最初預想的更加可怕,。
現(xiàn)階段,我對災難的探討可能驚嚇到了在座的各位,。很抱歉,。但是作為今天的與會者,重要的是,,你們要認清自己在影響當前技術的未來研發(fā)中的位置,。我相信我們團結在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,,科技領袖和科學家正極盡所能避免不可控的人工智能的崛起,。
一個新的機構,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題,?!袄バ菽分悄芪磥碇行摹笔且粋€跨學科研究所,致力于研究智能的未來,,這對我們文明和物種的未來至關重要,。我們花費大量時間學習歷史,深入去看——大多數(shù)是關于愚蠢的歷史,。所以人們轉而研究智能的未來是令人欣喜的變化,。雖然我們對潛在危險有所意識,但我內(nèi)心仍秉持樂觀態(tài)度,,我相信創(chuàng)造智能的潛在收益是巨大的,。也許借助這項新技術革命的工具,我們將可以削減工業(yè)化對自然界造成的傷害,。
我們生活的每一個方面都會被改變,。我在研究所的同事休·普林斯承認,“利弗休姆中心”能建立,,部分是因為大學成立了“存在風險中心”,。后者更加廣泛地審視了人類潛在問題,,“利弗休姆中心”的重點研究范圍則相對狹窄。
人工智能的最新進展,,包括歐洲議會呼吁起草一系列法規(guī),,以管理機器人和人工智能的創(chuàng)新。令人感到些許驚訝的是,,這里面涉及到了一種形式的電子人格,,以確保最有能力和最先進的人工智能的權利和責任。歐洲議會發(fā)言人評論說,,隨著日常生活中越來越多的領域日益受到機器人的影響,,我們需要確保機器人無論現(xiàn)在還是將來,都為人類而服務,。向歐洲議會議員提交的報告,,明確認為世界正處于新的工業(yè)機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,,這等同于法人(的身份),,也許有可能。報告強調(diào),,在任何時候,,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布里克的電影《2001太空漫游》中,,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,,但那是科幻。我們要面對的則是事實,。奧斯本·克拉克跨國律師事務所的合伙人,,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,,所以也沒有必要急于接受一個機器人人格,。但是擔憂一直存在。報告承認在幾十年的時間內(nèi),,人工智能可能會超越人類智力范圍,,人工智能可能會超越人類智力范圍,進而挑戰(zhàn)人機關系,。報告最后呼吁成立歐洲機器人和人工智能機構,,以提供技術、倫理和監(jiān)管方面的專業(yè)知識,。如果歐洲議會議員投票贊成立法,,該報告將提交給歐盟委員會。它將在三個月的時間內(nèi)決定要采取哪些立法步驟,。
我們還應該扮演一個角色,,確保下一代不僅僅有機會還要有決心,,在早期階段充分參與科學研究,以便他們繼續(xù)發(fā)揮潛力,,幫助人類創(chuàng)造一個更加美好的的世界,。這就是我剛談到學習和教育的重要性時,所要表達的意思,。我們需要跳出“事情應該如何”這樣的理論探討,,并且采取行動,以確保他們有機會參與進來,。我們站在一個美麗新世界的入口。這是一個令人興奮的,、同時充滿了不確定性的世界,,而你們是先行者。我祝福你們,。
謝謝,!
以下為中國科技大咖、科學家,、投資家和網(wǎng)友與霍金問答實錄:
創(chuàng)新工場的CEO李開復(問):互聯(lián)網(wǎng)巨頭擁有巨量的數(shù)據(jù),,而這些數(shù)據(jù)會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,,他們是無法自律的,。而且,這種行為也會導致小公司和創(chuàng)業(yè)者更難創(chuàng)新,。您常談到如何約束人工智能,,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭,?
霍金:據(jù)我了解,,許多公司僅將這些數(shù)據(jù)用于統(tǒng)計分析,但任何涉及到私人信息的使用都應該被禁止,。會有助于隱私保護的是,,如果互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術加密,,這樣互聯(lián)網(wǎng)公司在一定時間內(nèi)便無法破解,。但安全服務會反對這個做法。
第二個問題來自于獵豹移動CEO傅盛(問):靈魂會不會是量子的一種存在形態(tài),?或者是高維空間里的另一個表現(xiàn),?
霍金:我認為近來人工智能的發(fā)展,比如電腦在國際象棋和圍棋的比賽中戰(zhàn)勝人腦,,都顯示出人腦和電腦并沒有本質(zhì)差別,。這點上我和我的同事羅杰·彭羅斯正好相反,。會有人認為電腦有靈魂嗎?對我而言,,靈魂這個說法是一個基督教的概念,,它和來世聯(lián)系在一起。我認為這是一個童話故事,。
第三個問題來自于百度總裁張亞勤(問):人類觀察和抽象世界的方式不斷演進,,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式,,到今天數(shù)據(jù)驅動的計算和人工智能,,下一個是什么?
霍金:我們需要一個新的量子理論,,將重力和其他自然界的其它力量整合在一起,。許多人聲稱這是弦理論,但我對此表示懷疑,,目前唯一的推測是,,時空有十個維度。
第四個問題來自于斯坦福大學物理學教授張首晟(問):如果讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删?,寫在一張明信片的背面,,您會寫什么?/p>
霍金:告訴外星人關于美,或者任何可能代表最高藝術成就的藝術形式都是無益的,,因為這是人類特有的,。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情,。
文廚(問):我們希望提倡科學精神,,貫穿GMIC全球九站,清您推薦三本書,,讓科技屆的朋友們更好的理解科學及科學的未來,。
霍金:他們應該去寫書而不是讀書。只有當一個人關于某件事能寫出一本書,,才代表他完全理解了這件事,。
微博用戶(問):您認為一個人一生中最應當做的一件事和最不應當做的一件事是什么?”
霍金:我們絕不應當放棄,,我們都應當盡可能多的去理解(這個世界),。
微博用戶(問):人類在漫漫的歷史長河中,重復著一次又一次的革命與運動,。從石器,、蒸汽、電氣……您認為下一次的革命會是由什么驅動的?
霍金:(我認為是)計算機科學的發(fā)展,,包括人工智能和量子計算,。科技已經(jīng)成為我們生活中重要的一部分,,但未來幾十年里,,它會逐漸滲透到社會的每一個方面,為我們提供智能地支持和建議,,在醫(yī)療,、工作、教育和科技等眾多領域,。但是我們必須要確保是我們來掌控人工智能,,而非它(掌控)我們。
最后一個問題來自于音樂人,、投資者胡海泉(問):如果星際移民技術的成熟窗口期遲到,,有沒有完全解決不了的內(nèi)發(fā)災難導致人類滅絕?拋開隕星撞地球這樣的外來災難,。
霍金:是的。人口過剩,、疾病,、戰(zhàn)爭、饑荒,、氣候變化和水資源匱乏,,人類有能力解決這些危機。但很可惜,,這些危機還嚴重威脅著我們在地球上的生存,,這些危機都是可以解決的,但目前還沒有,。