據(jù)國外媒體報(bào)道, 頂尖的人工智能研究人員警告大眾,,“AI軍備競賽”可能對人類是災(zāi)難性的,,并敦促聯(lián)合國審議關(guān)于禁止“進(jìn)攻性自控制武器”的提案,。生命未來研究所給出的公開信表示,,那些自動(dòng)“選擇并打擊目標(biāo),,無需人工干預(yù)”的武器可能成為明天的AK 47,,成為助長戰(zhàn)爭,、恐怖主義的全球不穩(wěn)定因素,。這封公開信由許多科技界的知名人物聯(lián)署,其中包括斯蒂芬·霍金,、伊隆·馬斯克和美國哲學(xué)家諾姆·喬姆斯,。
該公開信表示,“人工智能(AI)技術(shù)已經(jīng)達(dá)到如果沒有法律約束,,幾年內(nèi)就可部署的程度,,而不是幾十年?!?該信表示帶有武器的四軸無人機(jī)就是一個(gè)很好的例子,。雖然人工智能武器可以減少戰(zhàn)場上的人員傷亡,但這本身就是一個(gè)錯(cuò)誤,,因?yàn)樗鼤?huì)降低走向戰(zhàn)爭的門檻,。
“不像核武器,AI武器無需昂貴或難以取得原料,,所以他們會(huì)變得無處不在,。廉價(jià)到所有的軍事強(qiáng)國都會(huì)大批量生產(chǎn)。 他們出現(xiàn)在黑市和恐怖分子手中只是時(shí)間的問題,?!?/p>
這封信結(jié)尾警告AI武器的發(fā)展可能會(huì)損害人工智能領(lǐng)域的發(fā)展,并引起“公眾的強(qiáng)烈反對”,,將阻礙有益的人工智能研究。聯(lián)署人表示“應(yīng)對超越人類控制的進(jìn)攻武器采取禁令”,,并敦促聯(lián)合國采取行動(dòng),。
目前半自動(dòng)武器系統(tǒng)已經(jīng)大幅增加,美國空軍預(yù)測,,“到2030年機(jī)械性能將極大增強(qiáng),,人類反而將成為最弱的系統(tǒng)組件?!?無論是人工智能的批評者和支持者都表示,,人工智能武器系統(tǒng)的界限很難拿捏。
公開信的其他聯(lián)署人還包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,,Skype的聯(lián)合創(chuàng)始人Jaan Talinn,,Demis Hassabis,英國人工智能公司DeepMind的CEO,。