美國現(xiàn)有規(guī)則允許公司讓研發(fā)的自動駕駛汽車上路測試、并“自我認(rèn)證”他們的測試方法是安全的——美國安全調(diào)查員對美國的這種現(xiàn)有規(guī)則感到不滿,,這是正確的,。
美國國家交通安全委員會(US National Transportation Safety Board)成員詹妮弗?霍門迪(Jennifer Homendy),,在最近的一場關(guān)于2018年3月優(yōu)步(Uber)無人駕駛汽車致命車禍的聽證會上表示:“在我看來,他們把技術(shù)進(jìn)步放在拯救生命之前,?!?/p>
要理解為什么那輛車撞死了一個推自行車過馬路的行人,以及為什么這種事故在將來很難避免,,可以想想我在英國一個中等城市開車去買雜貨的過程,。我不得不穿過狹窄的街道,經(jīng)過幾十輛停著的汽車,。這是一個復(fù)雜的過程:如果迎面有車開過來,,我必須停下來,然后決定他們給我讓路還是我給他們讓路,。
有時候,如果我趕時間,,我會稍微大膽一點,,希望迎面而來的車子會停下來讓路。如果對面的司機做了同樣的事情,,我必須沖到一輛停著的汽車后面,,否則我們不得不相互緊貼著通過,同時保持后視鏡完好無損,。
這種混亂而即興的談判通常非常有效,。但是現(xiàn)在想象一下,模擬這種交通談判,,寫下每一個選擇,。它變得極為復(fù)雜。每天都有新的挑戰(zhàn):不同的路況,、汽車,、行人、自行車,、嬰兒車,,當(dāng)然還有天氣。然后試著把這個模擬變成自動駕駛汽車可能遵循的計算機算法,。
自動駕駛汽車中的攝像頭,、圖像處理和計算機視覺系統(tǒng)不可能好到足以看到人類駕駛員微笑、指點或點頭,。即使是閃燈等容易檢測到的信號,,對它們來說可能也難以理解。根據(jù)具體情況的不同,,你對別人閃燈可能意思是“前進(jìn)”,、“小心”或“你的車有問題”,。
我和我的同事們一直在嘗試模擬這種交通談判,以幫助自動駕駛車輛,、人類駕駛員,、騎自行車者和行人安全地在這種談判中通過我們的道路。它包括解決有關(guān)人類行為的基本問題,。
我們開發(fā)了一種理解人們?nèi)绾谓涣骱突拥男路椒?,稱為“虛擬談判”。當(dāng)沒有時間或機會進(jìn)行真正的談判,,但結(jié)果很明顯的時候,,想象中的談判就足夠了。
當(dāng)在狹窄的道路上遇到另一輛車時,,很明顯,,你只需要倒車一小段距離,而且也應(yīng)該這樣做,。同樣明顯的是,,不管路況如何,在任何談判中,,坦克或卡車都會勝出,。虛擬談判有助于確保雙方按應(yīng)該會達(dá)成一致的做法行事。
除非自動駕駛汽車在社交上足夠老練,,能夠以這種方式解決與人類的交通談判,,否則它們可能是危險的?;蛘?,自動駕駛汽車可能會過于謹(jǐn)慎,在交通情況解決之前都會停下來,,從而在高峰時段造成嚴(yán)重的交通堵塞,。解決這個問題相當(dāng)于在駕車領(lǐng)域通過圖靈測試,這個測試挑戰(zhàn)的是機器表現(xiàn)出與人類一般無二的行為的能力,。
我們中的許多人都看過那些令人印象深刻的視頻:特斯拉(Tesla)司機在高速公路上打開自動駕駛系統(tǒng),,他們逍遙地坐在那里看書,而汽車自己在高速行駛,。但是,,如果要讓這些汽車進(jìn)入交通談判司空見慣的較狹窄的城鎮(zhèn)街區(qū),相關(guān)問題幾乎沒有得到解決,。這可能是自動駕駛車輛發(fā)展的決定性限制因素,。
這些問題非常棘手,很難用目前的算法解決。每增加一個復(fù)雜因素,,所有的計算都必須重新編程,。沒有一套算法是足以解決問題的,因為有無限的可能性和組合,。甚至機器學(xué)習(xí)也可能會有困難,。從理論上來說,僅僅為了學(xué)會區(qū)分貓和狗的照片,,人工智能就需要數(shù)百萬張照片,。交通談判要比這復(fù)雜多少?
汽車制造商和科技集團(tuán)正在努力解決這些問題,。他們的無人駕駛汽車正在我們的街道上練習(xí),,正如優(yōu)步車禍所顯示的,可能會帶來致命的后果,。
這里還有更好的方法,。我們應(yīng)該避免而不是硬碰這個問題。給自動駕駛汽車劃定專用公路和車道,。在我們復(fù)雜而混亂的道路上讓它們和人類司機混在一起,,既可怕又危險。隨著時間的推移,,這些自動駕駛車道可以逐漸增加,,直到我們所有的車輛都是自動駕駛的,。它將更像一個沒有鐵軌的火車或電車系統(tǒng),。
自動駕駛汽車提供了一個充滿著各種可能性的令人興奮的未來,但是讓它們成為現(xiàn)實的最簡單的方法是讓其他道路使用者遠(yuǎn)離它們,。