《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 業(yè)界動態(tài) > 人工智能竟真的存在負(fù)面影響,?究竟是事實還是偏見,?

人工智能竟真的存在負(fù)面影響,?究竟是事實還是偏見?

2019-06-18

  Cassie Kozyrkov在過去五年里在谷歌擔(dān)任過各種各樣的技術(shù)職務(wù),,但她現(xiàn)在擔(dān)任著“首席決策科學(xué)家”這個有點奇怪的職位?!皼Q策科學(xué)是數(shù)據(jù)和行為科學(xué)的交叉學(xué)科,,涉及統(tǒng)計學(xué)、機(jī)器學(xué)習(xí),、心理學(xué),、經(jīng)濟(jì)學(xué)等。

  實際上,,這意味著Kozyrkov幫助谷歌推動了一個積極的人工智能議程——或者,,至少,讓人們相信人工智能并不像許多人宣稱的那么糟糕,。

  焦慮

  “機(jī)器人正在偷走我們的工作”,,“人工智能是人類生存的最大威脅”,類似的言論已不絕如耳,,尤其在過去幾年里,,這種擔(dān)憂變得更加明顯。

  人工智能對話助手滲入我們的家中,,汽車和卡車自動駕駛似乎指日可待,,機(jī)器可以在電腦游戲中打敗人類,甚至創(chuàng)意藝術(shù)也不能幸免于人工智能的沖擊,。另一方面,,我們也被告知枯燥重復(fù)的工作可能會成為過去。

  人們對自己在自動化世界中的未來感到焦慮和困惑,這是可以理解的,。但是,,根據(jù)Kozyrkov的說法,人工智能只是人類努力方向的延伸,。

  “人類的故事就是自動化的故事,,” Kozyrkov表示?!叭祟惖氖吩娋褪且咽虑樽龅酶谩獜挠腥四闷鹨粔K石頭砸向另一塊石頭的那一刻起,,因為事情可以做得更快。我們是一個制造工具的物種,,我們反抗苦差事,。”

  對人工智能潛在恐懼的原因是我們覺得它可以做得比人類更好,,但這種擔(dān)心并不成立,。Kozyrkov認(rèn)為,所有工具都比人類好,。理發(fā)師用剪刀理發(fā),,因為用手把頭發(fā)剪出來是一種不太理想的體驗。印刷機(jī)使文本的大規(guī)模生產(chǎn)成為可能,,其規(guī)模是人類用鋼筆無法復(fù)制的,。但筆本身就開啟了一個充滿機(jī)遇的世界。

  “我們所有的工具都比人類好——這就是工具的意義所在,,” Kozyrkov繼續(xù)說道,。“如果沒有工具你可以做得更好,,為什么要使用工具呢,?如果你擔(dān)心電腦的認(rèn)知能力比你強(qiáng),那我要提醒你,,你的筆和紙在記憶方面比你強(qiáng),。我的水桶比我更擅長裝水,我的計算器比我更擅長把六位數(shù)相乘,。人工智能在某些方面也會變是如此,。”

  當(dāng)然,,許多人對人工智能和自動化的潛在恐懼并不是說它會比人類更擅長做事,。對許多人來說,真正的危險在于,,任何惡意實體可以肆無忌憚地對我們的一舉一動進(jìn)行跟蹤和微觀管理,,從而在我們身上投下反烏托邦的陰影——幾乎不費(fèi)任何力氣就能實現(xiàn)一個秘密的宏偉愿景,。

  其他的擔(dān)憂與算法偏見、缺乏足夠的監(jiān)督以及最終的末日場景有關(guān):如果某件事發(fā)生了嚴(yán)重且無意的錯誤,,該怎么辦,?

  偏見

  研究人員已經(jīng)證明了人臉識別系統(tǒng)中固有的偏見,比如亞馬遜的Rekognition,。民主黨總統(tǒng)候選人參議員Elizabeth Warren此前呼吁聯(lián)邦機(jī)構(gòu)解決算法偏見的問題,,比如美聯(lián)儲如何處理貨幣貸款歧視。

  但人們對人工智能如何真正減少人類現(xiàn)有偏見的關(guān)注少之又少,。

  舊金山最近宣稱,,它將使用人工智能來減少對犯罪嫌疑人的偏見,例如,,自動修改警方報告中的某些信息,。

  在招聘領(lǐng)域,風(fēng)投支持的Fetcher正著手幫助企業(yè)利用人工智能尋找人才,。該公司聲稱,,人工智能還有助于將人類偏見降到最低,。Fetcher通過在線渠道自動尋找潛在候選人,,并使用關(guān)鍵字來確定個人可能擁有的技能,而這些技能并沒有列在個人資料中,。該公司將其平臺宣傳為消除招聘偏見的一種簡單方法,,因為如果你訓(xùn)練一個系統(tǒng)遵循一套嚴(yán)格的標(biāo)準(zhǔn),只關(guān)注技能和經(jīng)驗,,性別,、種族或年齡等因素將不會被考慮在內(nèi)。

  Fetcher聯(lián)合創(chuàng)始人兼首席執(zhí)行官Andres Blank表示:“我們相信,,我們可以利用技術(shù)來解決多種形式的招聘偏見,,幫助公司建立更加多樣化和包容性的組織?!?/p>

  但對人工智能系統(tǒng)性歧視的擔(dān)憂,,是許多人工智能領(lǐng)域的首要議題。微軟敦促美國政府監(jiān)管面部識別系統(tǒng),,研究人員正致力于在不影響預(yù)測結(jié)果準(zhǔn)確性的前提下,,減少人工智能中的偏見。

  人為因素

  最重要的是,,人工智能還處于相對起步階段,,我們?nèi)栽谘芯咳绾谓鉀Q算法偏見等問題。但Kozyrkov表示,,人工智能所顯示的偏見與現(xiàn)有的人類偏見是一樣的——用于訓(xùn)練機(jī)器的數(shù)據(jù)集與用于教育人類的教科書完全一樣,。

  “數(shù)據(jù)集和教科書都有人類作者——它們都是根據(jù)人類的指令收集的,”她說?!叭绻憬o你的學(xué)生一本由一位懷有嚴(yán)重偏見的作者編寫的教科書,,你認(rèn)為你的學(xué)生不會染上同樣的偏見嗎?”

  當(dāng)然,,在現(xiàn)實世界中,,受人尊敬的同行評審的期刊或教科書應(yīng)該有足夠的監(jiān)督來對抗任何明顯的偏見——但如果作者、他們的數(shù)據(jù)源以及鼓勵學(xué)生閱讀教科書的老師都有同樣的偏見呢,?任何陷阱可能要到很久以后才會被發(fā)現(xiàn),,到那時想要阻止任何不良影響就太晚了。

  因此,,Kozyrkov夫認(rèn)為,,“視角的多樣性”對于確保偏見最小化是必不可少的。

  她說:“你對數(shù)據(jù)的關(guān)注越多,,你就越有可能發(fā)現(xiàn)那些潛在的不良案例,。所以在人工智能中,多樣性是必須擁有的,。你確實需要從不同的角度來看待和思考如何使用這些例子來影響世界,。”

  測試

  與學(xué)生考試的現(xiàn)實世界類似,,在部署人工智能算法和機(jī)器學(xué)習(xí)模型之前測試它們,,是確保它們能夠執(zhí)行設(shè)定的任務(wù)。

  人類學(xué)生如果被問到他們事先學(xué)習(xí)過的問題,,他們可能在考試中表現(xiàn)得非常好,,但這可能是因為他們有很好的記憶力,而不是對手頭的科目有一個完整的理解,。為了測試更廣泛的理解能力,,需要給學(xué)生一些問題,讓他們能夠應(yīng)用所學(xué)知識,。

  機(jī)器學(xué)習(xí)是在同樣的前提下運(yùn)行的——存在一種被稱為“過度擬合”的建模錯誤,,在這種錯誤中,一個特定的函數(shù)與訓(xùn)練數(shù)據(jù)過于緊密地對齊,,可能會出現(xiàn)誤報,。“電腦的記憶力真的很好,,” Kozyrkov說,,“所以你真正測試他們的方法是給他們一些真實的新東西,他們不可能記住的,。如果成功了,,那就是真的成功了,。”

  Kozyrkov將安全有效的人工智能的四項原則與教授人類學(xué)生的四項基本原則進(jìn)行了比較,,基本是類似的:

  明智的教學(xué)目標(biāo)

  相關(guān)和多樣化的觀點

  精心制作的測試

  安全網(wǎng)

  不過,,即使是最精心設(shè)計、初衷最好的人工智能系統(tǒng)也可能失敗或犯錯——事實上,,系統(tǒng)越好,,在某些方面就越危險,就像人類學(xué)生一樣,。

  “即使你的學(xué)生真的很好,,他們也可能犯錯誤,” Kozyrkov說,,“事實上,,在某些方面,差學(xué)生比好生更危險,,因為有了差生,,你已經(jīng)習(xí)慣了他們犯錯誤,所以你已經(jīng)有了安全網(wǎng),。但是對于好生,,如果你從來沒有見過他們犯錯誤,你可能會認(rèn)為他們從來沒有犯過錯誤,。這可能只會讓你花費(fèi)更長的時間,,然后就是災(zāi)難性的失敗,?!?/p>

  這種“安全網(wǎng)”可以采取多種形式,但它往往涉及建立一個單獨(dú)的系統(tǒng),,而不是“過分信任你的好學(xué)生,,” Kozyrkov說。在一個例子中,,一個房主配置了他的智能攝像頭和鎖系統(tǒng),,如果它發(fā)現(xiàn)了一張不熟悉的面孔,就會啟動它——但有點滑稽的是,,它錯誤地將房主識別為他T恤上的蝙蝠俠形象,,并拒絕他進(jìn)入。

  所有這一切都指向一個可能對許多人來說顯而易見但或許值得重復(fù)的觀點:人工智能是其創(chuàng)造者的反映,。因此,,我們需要集中精力實現(xiàn)系統(tǒng)和檢查,以確保那些構(gòu)建機(jī)器的人(“教師”)是負(fù)責(zé)任的,。

  圍繞“機(jī)器教學(xué)”的重要性,,人們達(dá)成了越來越多的共識,。微軟等公司最近表示,人工智能的下一個前沿領(lǐng)域?qū)⑹抢萌祟悓I(yè)人士的專業(yè)技能來訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),,而不管專家是否具備人工智能知識或編程能力,。

  “是時候讓我們把重點放在機(jī)器教學(xué)上,而不僅僅是機(jī)器學(xué)習(xí)了,,” Kozyrkov指出,。“不要讓科幻小說的花言巧語分散你對人類責(zé)任的注意力,,從一開始就關(guān)注參與其中的人類,。從領(lǐng)導(dǎo)者設(shè)定的目標(biāo),到工程師編寫,、分析師和決策者核查的數(shù)據(jù)集,,再到統(tǒng)計學(xué)家進(jìn)行的測試,再到可靠性工程師構(gòu)建的安全網(wǎng),,所有這些都包含了很多人為因素,。”


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。