據(jù)國外媒體報道,在今年一月份,來自加州大學伯克利分校計算機科學家Stuart Russell起草了致全體人工智能研究員的公開信,,并第一個在上面簽名。Stuart呼吁研究者不能只注重讓人工智能變得更強大,,同樣要保證其健康性和有益性:AI必須遵從人類的意愿,,不能胡作非為。
公開信發(fā)表后,,已有數(shù)千人在上面簽名,。其中不乏來自谷歌、Facebook,、微軟等頂尖人工智能研究機構的科學家,。同時來自全世界的物理學家、哲學家也在上面留下了自己的名字,。
Stuart是加州大學伯克利分校的智能系統(tǒng)中心的創(chuàng)始人,,他一直在關注機器自主思考可能給人類帶來的危害。他發(fā)表了超過200篇相關文章,,還是業(yè)內(nèi)標準教科書《人工智能:現(xiàn)代方法》的合作作者之一,。但當下迅速發(fā)展的人工智能技術給Stuart帶來了長遠的擔憂,而驚人的發(fā)展速度無疑加深了這種憂慮,。Stuart表示目前的AI技術已經(jīng)有了長足的進步,,神經(jīng)元算法帶來的改善不容小視。這些智能算法被應用在人臉識別系統(tǒng),、智能手機助理系統(tǒng)以及谷歌自動駕駛汽車中,。甚至,《自然》雜志的一篇報道稱一個模擬神經(jīng)元人工智能網(wǎng)絡在一款Atari公司的游戲中的表現(xiàn)已經(jīng)超過了人類,,而這個系統(tǒng)的輸入僅僅是電腦屏幕上顯示的內(nèi)容和一個“得到盡可能高的分數(shù)”的目標,。沒有任何預設的程序,這個智能網(wǎng)絡懂得分辨屏幕上的外星人,、子彈,,會在合適的時機進行左移、右移。
《QUANTA》雜志采訪了Stuart,,詢問了他對當前人工智能發(fā)展的幾點看法,。讓我們來看看該領域的大師如何評價這一革命性技術吧。
QUANTA:你為什么堅持人工智能研究必須以可證實對人類有益為前提,?
Stuart:我認為這是一個錯誤的問題,,因為“人類價值”不能被“證實”。當然,,人類價值本身也沒有準確的定義,,誰又知道人類為什么存在呢,可能這永遠都是個迷,。但考慮到我們?nèi)祟惖男袨榈囊饬x,,你會希望機器人至少能體會到其中的大部分精髓。人工智能可能不能完全理解我們的所作所為,,但它們至少要和我們站在同一戰(zhàn)線上,,有著共同的基本原則。換句話說,,它們不能成為我們的絆腳石甚至傷害我們,。
QUANTA:你打算怎么實現(xiàn)這一點?
Stuart:我現(xiàn)在正在這方面努力,。目前我覺得一種名為“逆強化學習”的技術可以派上用場,。平常的學習原理很簡單,基于你的表現(xiàn)好壞,,你會得到獎勵或者懲罰,你的目標也很明確,,就是想方設法獲得盡可能多的獎勵,。Atari的游戲就是一個這樣的典型的系統(tǒng)。逆向?qū)W習則是完全相反的過程,,你首先得到結(jié)果,,然后你去思考什么樣的行為最可能帶來這樣的結(jié)果。比如,,你的機器人看到你早上艱難的從床上爬起來,,沖了一杯咖啡,在一個嗡嗡作響的箱子里加熱了點煎餅,,而且在吃這些東西時你臉上浮現(xiàn)出了愉快的深情,,那么它的人工智能就會告訴它:人早上喝咖啡是好的。
逆強化學習有著海量的資料可以使用,,無論是書籍,、電影還是網(wǎng)絡,上面有著成千上萬的人類活動記錄,智能體可以從中感受到人類追求的基本價值和遵循的基本原則,。
QUANTA:你的研究生涯主要關注了理解人工智能是什么,,并認為這是實現(xiàn)人工智能的前提。那么你目前有什么收獲呢,?
Stuart:在八十年代的研究中我開始思考理性決策的問題,,后來我發(fā)現(xiàn)這是一個不可能完成的任務。如果你是理性的,,你會判斷自己目前的狀況,、可選擇做法、每種做法帶來的結(jié)果,,但是又有哪一種做法是百分之百確保得到想要的結(jié)果的呢,?世界上的事情變化多的讓人眼花繚亂,沒有那么多事是確定的,。理性行為的定義就要求你的能力蓋過整個未來和宇宙,,換句話說,它在計算上是不可能的,。所以我換了思路:那么人類是怎樣做決定的呢,?
QUANTA:人類怎么做的?
Stuart:人類的大腦是一部效率驚人的概率運算機器,。它的訣竅不是準確掌握每一條信息,,而是對未來有一個大概的預測,并推測最可能帶來好結(jié)果的做法,。拿下棋來說,,如果是理性決策的人,他就只會走那些可以將軍的棋子?,F(xiàn)實中沒有人這么下棋,,人們不會考慮十幾步之后的事情,他們會考慮幾個可能的走法,,看哪一種最可能帶來優(yōu)勢,。人一生大約會做20萬億的動作,做一次演講會有13億個動作,,理性決策要求你預測13億個動作后的準確狀況,,這太瘋狂了。我們從不會想“我要先邁左腳再動右腳,,再打開門……”而是想“我該去做演講了”,。
QUANTA:你可以證明人工智能系統(tǒng)不會重寫自己的軟件,覆蓋人類預設的目標嗎,?
Stuart:計算機程序有著許多不確定性,。阿蘭圖靈曾指出一個計算機程序不可能判斷另一個程序是陷入了無限循環(huán)還是最終會產(chǎn)生輸出,。因此,如果你有一個可以重寫自身的程序,,你就有了一個矛盾,,你不能證明這個新程序是否具有某些性質(zhì),這個程序也不知道自己寫了一個什么,。所以,,問題不是“AI是否會重寫自己”而是“AI寫出的程序會對我們有怎樣的影響”。我們目前對人工智能的設計能力所知甚少,。
QUANTA:目前有什么很有前景的研究領域嗎,?
Stuart:最近出現(xiàn)了一種叫做“網(wǎng)絡現(xiàn)實系統(tǒng)”的研究領域,它們的研究內(nèi)容是計算機與現(xiàn)實世界相聯(lián),,讓電腦通過網(wǎng)絡控制機器手臂等等,。許多電影中出現(xiàn)了人工智能掌控交通的劇情,也是該領域的研究內(nèi)容,。另外,,空中交通管制也是其應用的一種。