我們需要告訴Siri,不要思考太多問(wèn)題,,只需要聽(tīng)話就好,。當(dāng)然,偶爾來(lái)上一點(diǎn)段子也無(wú)傷大雅,,重要的是,,我們必須確保Siri的立場(chǎng)與我們的一致。
上面的這段話是不是看起來(lái)很奇怪,?這是根據(jù)史蒂夫·霍金博士(Stephen Hawking)最新的言論有感而發(fā)的,。本周二,在倫敦舉辦的2015年度時(shí)代思潮大會(huì)上,,這位有負(fù)盛名的物理學(xué)家以及末日預(yù)言者為人類的最終結(jié)局發(fā)表了新的看法,。
據(jù)Techworld報(bào)道,霍金表示:“計(jì)算機(jī)具備的人工智能將會(huì)在未來(lái)100年中的某個(gè)時(shí)點(diǎn)超越人類的智能,。當(dāng)這種情形發(fā)生時(shí),,我們必須確保計(jì)算機(jī)是站在人類這邊的?!?/p>
顯然,,我們現(xiàn)在就需要確保這一點(diǎn),之后便可以坐等計(jì)算機(jī)的智能超過(guò)我們自身的,。
然而,,我們很難預(yù)測(cè),具備智能的計(jì)算機(jī)會(huì)走向何方,?
霍金早前就警告說(shuō),,人工智能是人類歷史上出現(xiàn)過(guò)的最可怕的事物。
周二,,霍金說(shuō)道:“我們的未來(lái)是在日益崛起的科技力量與我們?cè)噲D掌控它們之間的一場(chǎng)競(jìng)賽,。”
但是,,至少有一件事情我們現(xiàn)在就知道,,那就是:我們不能相信自己。我們的本性中埋藏著各種扭曲事物,,使我們傾向于創(chuàng)造出最終會(huì)毀滅我們自己的怪物——首先從精神上,,然后是肉體。
當(dāng)我們發(fā)明了核武器時(shí),我們?nèi)匀皇褂昧艘?、兩件,,為的只是看看效果如何。因此,,?dāng)?shù)谝粋€(gè)真正具備自主思維能力和行為能力的機(jī)器人出現(xiàn)時(shí),,這個(gè)世界究竟會(huì)變成何種情形,?參照人類的過(guò)往歷史,,答案不容樂(lè)觀。