《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 別讓AI變成人類眼中的混蛋,!

別讓AI變成人類眼中的混蛋,!

2019-07-01
關(guān)鍵詞: AI CCPA

  幾十年前,,我是美國(guó)媒體EE Times駐歐洲的外籍特派記者,當(dāng)我不經(jīng)意地表示對(duì)美國(guó)商業(yè)慣例的反感,,認(rèn)為這是對(duì)隱私權(quán)的侵犯時(shí),一些產(chǎn)業(yè)分析師告訴我:“在美國(guó),,消費(fèi)者愿意用他們的個(gè)資來(lái)?yè)Q免費(fèi)的東西,;”至于美國(guó)的隱私權(quán)保護(hù),他們說(shuō):“火車已經(jīng)過(guò)站很久了…”

  還是這樣嗎,?

  自從歐盟在一年前推出《通用數(shù)據(jù)保護(hù)規(guī)則》(General Data Protection Regulation,,GDPR),遵守GDPR的壓力已擴(kuò)展到美國(guó)的資料平臺(tái)業(yè)者,,這些公司的業(yè)務(wù)覆蓋范圍實(shí)際上涵蓋全球,。而且即使在美國(guó)本土,加州也在去年推出了《加州消費(fèi)者隱私保護(hù)法案》(California Consumer Privacy Act,,CCPA),,該法案旨在強(qiáng)化對(duì)加州居民的隱私權(quán)和消費(fèi)者權(quán)利保護(hù),有人認(rèn)為該法案比GDPR更強(qiáng)大,;該法案將在2020年1月生效,。

  社會(huì)大眾對(duì)隱私權(quán)的重視正在美國(guó)迅速發(fā)酵。

  美國(guó)消費(fèi)者或許姍姍來(lái)遲,,但他們正在醒悟放棄隱私所付出的代價(jià),。將個(gè)資留在Facebook、Google這樣的大型技術(shù)平臺(tái)業(yè)者手中,,這些公司可能會(huì)也可能不會(huì)做合乎道德的事情,;美國(guó)人發(fā)現(xiàn),當(dāng)他們的個(gè)資被黑客入侵,、竊取,、買賣,甚至被可疑群體用來(lái)影響選舉結(jié)果時(shí),,他們幾乎是訴諸無(wú)門,。

  在大數(shù)據(jù)時(shí)代,隱私保護(hù)法規(guī)迅速成為任何數(shù)字安全對(duì)話的主要元素,;對(duì)于那些將業(yè)務(wù)建立在消費(fèi)者個(gè)資之上的公司,,消費(fèi)者的信任正演變?yōu)槠渖虡I(yè)模式的重要組成部分。但相較之下,,人工智能(AI)的“公正性”(fairness)仍處于我們?cè)?0年前討論隱私權(quán)時(shí)的狀態(tài),,它還沒有上升到許多人的意識(shí)層面,至少目前還沒,。

  我意識(shí)到在工程領(lǐng)域,,許多人認(rèn)為“公正性”是模糊,、令人不快的議題,在他們看來(lái),,這與他們?cè)诩夹g(shù)開發(fā)和軟/硬件設(shè)計(jì)方面的工作無(wú)關(guān),。

  是這樣嗎?

  EE Times在最近推出的一個(gè)AI專題報(bào)導(dǎo)中討論了AI的公正性,,但有些讀者認(rèn)為那應(yīng)該是“社會(huì)工程”(social engineering)的范疇,。

  許多那一類的評(píng)論認(rèn)為,這暗指工程師會(huì)被要求去操控技術(shù)(或游戲算法,、數(shù)據(jù)集),,為“政治正確性”(politically correctness)改變機(jī)器學(xué)習(xí)的結(jié)果;而“政治正確性”和“公正性”一樣,,是有著預(yù)設(shè)立場(chǎng)的一個(gè)詞,。

  事實(shí)遠(yuǎn)非如此。

  被AI解雇或被AI殺死

  真正的問(wèn)題是“偏見”(bias),,這里指的是那些可能會(huì)扭曲機(jī)器學(xué)習(xí)結(jié)果的數(shù)據(jù)集偏見,,而這種偏見透過(guò)訓(xùn)練算法的優(yōu)化策略又被進(jìn)一步放大。

  想想那些不完整的數(shù)據(jù)集,,例如忽略了坐輪椅的人,、忽略了穿著綠色熒光夾克的建筑工人們;基于這些數(shù)據(jù)集被訓(xùn)練的AI算法可能會(huì)像打保齡球那樣撞倒一群建筑工人,,讓坐輪椅比騎獨(dú)輪車更危險(xiǎn),。

  在這些案例中,AI的不準(zhǔn)確性最終可能賠上人們的寶貴性命,,顯然AI的機(jī)器決策未公正對(duì)待對(duì)那些穿熒光綠夾克和坐輪椅的人,。

  市場(chǎng)對(duì)AI趨之若鶩,因?yàn)楦骷移髽I(yè)都在尋求自動(dòng)化其特定業(yè)務(wù)的方法,;在尋求自動(dòng)化方案的過(guò)程中,,我們開始有意或無(wú)意地屈服于機(jī)器,涵蓋整個(gè)決策范圍,。AI涉及的工作包括人事管理,、信用評(píng)等、客戶服務(wù),,甚至是駕駛,。

  要充分了解何謂 AI 的“不公正”,你需要想象自己是機(jī)器決策觸發(fā)之壞消息的受害者,。

  如果某個(gè) AI 算法做出針對(duì)某個(gè)年齡層員工進(jìn)行裁員的決策,這些倒霉的員工有權(quán)質(zhì)問(wèn)AI為什么丟飯碗的是他們,;他們可能還想知道,,他們的雇主所依賴之AI系統(tǒng)是否在不知不覺間被設(shè)計(jì)為不公平對(duì)待某個(gè)年齡層,。

  一旦感覺到受了機(jī)器的委屈,你可能會(huì)很抓狂,,甚至可能比被一個(gè)你知道是混蛋的人類老板炒魷魚更不爽,。

  算法也會(huì)是個(gè)混蛋嗎?

  不透明的算法

  這個(gè)問(wèn)題暴露了一個(gè)令人不安的現(xiàn)實(shí)──每套AI算法都是一個(gè)黑盒子,,沒人知道算法在做什么,,無(wú)論是Facebook這樣的社交網(wǎng)絡(luò)巨擘使用的算法,還是Waymo自動(dòng)駕駛車輛使用的算法,,這使得這個(gè)大無(wú)畏的新AI時(shí)代之一切,,都變得不透明和不確定。

  最近人們已經(jīng)開始公開討論,,是時(shí)候與Facebook分手了…

  我不確定如果使用者決定分手,,是否會(huì)改變那些大型科技平臺(tái)的任何商業(yè)行為,但有一件事是肯定的:不是使用者,,而是Facebook本身在肆意決定我們會(huì)在新聞推送看到什么,;Facebook的運(yùn)營(yíng)不受任何法律監(jiān)督。

  正如Facebook共同創(chuàng)創(chuàng)辦人Chris Hughes在投稿《紐約時(shí)報(bào)》(The New York Times)的一篇文章所寫:“Facebook的力量最大的麻煩在于,,馬克(編按:Facebook共同創(chuàng)辦人暨執(zhí)行長(zhǎng)Mark Zuckerberg)能單方面控制言論,;他這種擁有監(jiān)控、組織甚至審查20億人對(duì)話的能力史無(wú)前例,?!?/p>

  他寫道:“Facebook的工程師們編寫算法,并決定哪些使用者評(píng)論或體驗(yàn)最終會(huì)顯示在朋友和家人的新聞推送中,。這些算法規(guī)則是專屬的,,而且非常復(fù)雜,甚至許多Facebook員工自己都不懂那些規(guī)則,?!?/p>

  這一切并非都是工程社群的責(zé)任,企業(yè),、政府主管機(jī)關(guān),、消費(fèi)者和整個(gè)社會(huì)應(yīng)該共同承擔(dān)。

  不過(guò)那些負(fù)責(zé)撰寫算法和設(shè)計(jì)系統(tǒng)的工程師們,,應(yīng)該開始考慮乍看之下離他們的實(shí)驗(yàn)室很遠(yuǎn)的后果——隱私權(quán)保護(hù)和公正性,。從現(xiàn)在開始討論以「隱私權(quán)保護(hù)設(shè)計(jì)」(privacy protection by design)或“公正性設(shè)計(jì)”(fairness by design)為基礎(chǔ)原則的系統(tǒng)開發(fā)正是時(shí)候!

  


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問(wèn)題,,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。