深度學習的概念源于人工神經網(wǎng)絡的研究。含多隱層的多層感知器就是一種深度學習結構,。深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示
深度神經網(wǎng)絡的自主學習能力是人工智能應用于自動駕駛汽車開發(fā)的重要優(yōu)勢。這意味著機器能夠像人類一樣,,逐步從經驗中提升駕駛水平。不過這么做的缺點在于,,一旦出現(xiàn)任何問題,,工程師妄圖通過勘察代碼造出漏洞,完全不可能,。這么來看的話,,深度神經網(wǎng)絡完全就是個深不見底‘黑匣子’。
這也是為什么AlphaGo的開發(fā)人員無法解釋這款圍棋人工智能程序是如何進行游戲操作的,,他們只是眼睜睜地看著這個小家伙從一名初學者,,逐漸成長為能夠擊敗圍棋世界冠軍、職業(yè)九段選手李世石的超級大腦所在,。
當然,,AlphaGo只不過是一款游戲程序而已,即使你無法參透它復雜的思維過程倒也并不礙事,。但對自動駕駛汽車而言,,這種“不透明性”可能造成的后果是非常嚴重的。試想,,一輛無人車犯錯了,,按正常的邏輯來說,肯定是得讓工程師找到病根,,進而對漏洞進行修復,,確保它不會再犯同樣的錯誤。目前有一種方法是借助模擬的形式,,先展示給機器大腦一個特征,,之后再提供另一個特征,以此類推,,以便找出影響其決策的關鍵因素,。
大家都是明眼人,這種方法不僅費時費力,,而且不保證能夠得到你想要的結果,。
那怎么辦呢?最近,車用AI芯片供應商英偉達聯(lián)合卡內基·梅隆大學的研究人員,,找到了一種能夠讓人工智能系統(tǒng)決策過程變得更透明的簡單方法,。英偉達汽車部門高級主管Danny Shapiro介紹稱,“深度神經網(wǎng)絡能夠通過自主學習逐步提升駕駛經驗,,但這樣的經驗是無法通過手動編程提供的,。即便如此,,我們仍然有能力向大家解釋為什么系統(tǒng)會做出這樣或那樣的決策”。
Shapiro表示,,這個方法的關鍵在于它能夠利用可視化地圖將神經網(wǎng)絡在看到圖片后標記的重要特征進行定位,。下面這幾張圖片是在汽車前置攝像頭采集數(shù)據(jù)的基礎上進行可視化加工而成的,而開發(fā)人員還只是在進行‘利用深度神經網(wǎng)絡控制車輛轉向以保證其在車道線內行駛’領域的研究,。
由于整個深度神經網(wǎng)絡是由不同的層構成的,,先將分析結果進行提取(已經獲得了輸入圖像的重要特征),隨后將結果附加至下層網(wǎng)絡,,作平均處理后再繼續(xù)向下,,直到將最終結果附加至原始輸入的圖片上。上面這幾幅可視化地圖中,,綠色的部分表示深度神經網(wǎng)絡高度優(yōu)先關注的環(huán)境特征,。而且你會發(fā)現(xiàn),如果讓人類來識別的話,,這些特征(車道線,、道路邊緣,停著的其它車輛,,沿線的綠籬等)同樣是一個老司機不會忽視的重要區(qū)域,。
當然,為了確保這些圖像特征是機器進行決策的關鍵,,研究人員還將所有的像素塊分成了兩類:I,。 包含有明顯對駕駛決策有影響的顯著特征的圖像;II。 一般是背景圖,,有一些和駕駛決策不太相關的非明顯特征,。通過對這兩類圖像進行人為數(shù)字操作,研究人員發(fā)現(xiàn),,改變“明顯特征”這個變量會導致轉向角度發(fā)生線性變化,,這跟換掉整個圖像的結果幾乎是一致的;而如果只是將背景畫面進更改,汽車的轉向角度基本不會發(fā)生什么變化,。
不過話又說回來了,目前工程師其實對人工智能系統(tǒng)出現(xiàn)的bug仍然束手無策,,而回到本源,,深度神經網(wǎng)絡并不是由人工代碼架構而成的,所以其實這里可能用“bug”都不是很合適,,整個系統(tǒng)中對最終決策最關鍵的其實是一系列的識別特征,。盡管‘黑匣子’的透明性依然難破,但起碼現(xiàn)在我們可以將這些重要特征進行可視化,,這是搞明白機器是如何進行思考的重要一步,。