據(jù)報道,,Facebook周四宣布,,人工智能軟件目前可以檢測出平臺上刪除的94.7%的仇恨言論。
Facebook的首席技術官麥克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了該數(shù)字,,并補充稱,,一年前該比例為80.5%,,2017年時僅24%。Facebook最新的《社區(qū)標準執(zhí)行報告》中也提到了該數(shù)字,。
諸如Facebook,、Twitter等社交媒體公司經(jīng)常因為未能從平臺上刪除仇恨言論(包括種族誹謗、宗教攻擊等)而受到批評,。
這些公司在全球依靠成千上萬名內容審查員來管理平臺上分享的帖子,、照片和視頻。周三,,超過200名Facebook審查員在一封寫給扎克伯格的公開信中稱,,疫情期間,公司強制要求他們回到公司上班,,是棄他們的生命安全于不顧,。
但是光有人類審查員還不夠。如今,,科技巨頭越來越來依賴人工智能,,即可以從經(jīng)驗中自動改進算法的機器學習。
“Facebook在人工智能方面的一個核心關注點是部署先進的機器學習技術,,以保護人們免受有害內容的侵擾,,”斯瑞普菲說。
“隨著有數(shù)十億人使用我們的平臺,,我們依賴人工智能去擴大我們的內容審核工作,,并在可能的情況下自動化內容處理決策,”他說,,“我們的目標是針對每一種形式的內容以及全球每一種語言和社區(qū),,盡可能快速而準確地識別出仇恨言論、虛假信息以及其他違反平臺政策的內容形式,?!?/p>
但是Facebook的人工智能軟件依舊很難發(fā)現(xiàn)某些違反政策的內容。例如,,該軟件很難識別圖文的含義,,對反諷和俚語的識別也不總是很準確,。但是在很多情況下,人類可以快速判斷一條內容是否違反了Facebook的政策,。
Facebook稱,,該公司最近部署了兩項新的人工智能技術,來解決這些難題,。第一項技術叫做“增強誠信優(yōu)化器”(RIO),,可以從真實的在線示例和指標中學習,而非使用離線數(shù)據(jù)集,;第二項技術是叫做“Linformer”的人工智能架構,,可以允許Facebook使用復雜語言理解模型。之前該模型因為過于龐大而無法大規(guī)模使用,。
“我們現(xiàn)在在產(chǎn)品中使用RIO和Linformer,,以在全球不同地區(qū)分析Facebook和Instagram上的內容,”斯瑞普菲說,。
Facebook還表示,,它還開發(fā)了一種新的工具,可以檢測deepfakes(計算機合成視頻),,并對現(xiàn)有的系統(tǒng)“SimSearchNet”做了些許改進,。該系統(tǒng)是一個圖像匹配工具,旨在檢測平臺上的虛假信息,。
“所有這些創(chuàng)新放在一起,意味著我們的人工智能系統(tǒng)現(xiàn)在可以對內容有更深更廣泛的了解,,”斯瑞普菲說,,“它們如今對平臺上分享的內容更加敏感,當新的熱詞和圖像出現(xiàn)并傳播時,,它們可以更加快速地學習,。”
斯瑞普菲還指出,,F(xiàn)acebook面臨的挑戰(zhàn)“十分復雜,、細微,并且發(fā)展迅速”,。他還說,,錯誤地將內容標記為仇恨言論或虛假信息會“阻礙人們自由表達的能力”。