據(jù)報(bào)道,,Facebook周四宣布,人工智能軟件目前可以檢測出平臺(tái)上刪除的94.7%的仇恨言論,。
Facebook的首席技術(shù)官麥克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了該數(shù)字,,并補(bǔ)充稱,一年前該比例為80.5%,,2017年時(shí)僅24%,。Facebook最新的《社區(qū)標(biāo)準(zhǔn)執(zhí)行報(bào)告》中也提到了該數(shù)字。
諸如Facebook,、Twitter等社交媒體公司經(jīng)常因?yàn)槲茨軓钠脚_(tái)上刪除仇恨言論(包括種族誹謗,、宗教攻擊等)而受到批評(píng)。
這些公司在全球依靠成千上萬名內(nèi)容審查員來管理平臺(tái)上分享的帖子,、照片和視頻,。周三,超過200名Facebook審查員在一封寫給扎克伯格的公開信中稱,,疫情期間,,公司強(qiáng)制要求他們回到公司上班,是棄他們的生命安全于不顧,。
但是光有人類審查員還不夠,。如今,科技巨頭越來越來依賴人工智能,,即可以從經(jīng)驗(yàn)中自動(dòng)改進(jìn)算法的機(jī)器學(xué)習(xí),。
“Facebook在人工智能方面的一個(gè)核心關(guān)注點(diǎn)是部署先進(jìn)的機(jī)器學(xué)習(xí)技術(shù),以保護(hù)人們免受有害內(nèi)容的侵?jǐn)_,,”斯瑞普菲說,。
“隨著有數(shù)十億人使用我們的平臺(tái),我們依賴人工智能去擴(kuò)大我們的內(nèi)容審核工作,,并在可能的情況下自動(dòng)化內(nèi)容處理決策,,”他說,“我們的目標(biāo)是針對(duì)每一種形式的內(nèi)容以及全球每一種語言和社區(qū),,盡可能快速而準(zhǔn)確地識(shí)別出仇恨言論,、虛假信息以及其他違反平臺(tái)政策的內(nèi)容形式?!?/p>
但是Facebook的人工智能軟件依舊很難發(fā)現(xiàn)某些違反政策的內(nèi)容,。例如,該軟件很難識(shí)別圖文的含義,對(duì)反諷和俚語的識(shí)別也不總是很準(zhǔn)確,。但是在很多情況下,,人類可以快速判斷一條內(nèi)容是否違反了Facebook的政策。
Facebook稱,,該公司最近部署了兩項(xiàng)新的人工智能技術(shù),,來解決這些難題。第一項(xiàng)技術(shù)叫做“增強(qiáng)誠信優(yōu)化器”(RIO),,可以從真實(shí)的在線示例和指標(biāo)中學(xué)習(xí),,而非使用離線數(shù)據(jù)集;第二項(xiàng)技術(shù)是叫做“Linformer”的人工智能架構(gòu),,可以允許Facebook使用復(fù)雜語言理解模型。之前該模型因?yàn)檫^于龐大而無法大規(guī)模使用,。
“我們現(xiàn)在在產(chǎn)品中使用RIO和Linformer,,以在全球不同地區(qū)分析Facebook和Instagram上的內(nèi)容,”斯瑞普菲說,。
Facebook還表示,,它還開發(fā)了一種新的工具,可以檢測deepfakes(計(jì)算機(jī)合成視頻),,并對(duì)現(xiàn)有的系統(tǒng)“SimSearchNet”做了些許改進(jìn),。該系統(tǒng)是一個(gè)圖像匹配工具,旨在檢測平臺(tái)上的虛假信息,。
“所有這些創(chuàng)新放在一起,,意味著我們的人工智能系統(tǒng)現(xiàn)在可以對(duì)內(nèi)容有更深更廣泛的了解,”斯瑞普菲說,,“它們?nèi)缃駥?duì)平臺(tái)上分享的內(nèi)容更加敏感,,當(dāng)新的熱詞和圖像出現(xiàn)并傳播時(shí),它們可以更加快速地學(xué)習(xí),?!?/p>
斯瑞普菲還指出,F(xiàn)acebook面臨的挑戰(zhàn)“十分復(fù)雜,、細(xì)微,,并且發(fā)展迅速”。他還說,,錯(cuò)誤地將內(nèi)容標(biāo)記為仇恨言論或虛假信息會(huì)“阻礙人們自由表達(dá)的能力”,。