Facebook已開始利用人工智能技術,以阻止恐怖分子利用其網絡進行相關活動。
周四,公司官員在一篇博客文章中表示,Facebook將通過人工審閱和人工智能技術,確保宣揚恐怖主義的內容在還沒接觸到其瀏覽者之前就遭屏蔽。
Facebook和Youtube在早前就已經利用了相關技術來屏蔽兒童色情內容。但在此之前,Facebook一直不愿意將這一技術應用到其他不那么黑白分明的內容上。在大多數情況下,Facebook只有在用戶舉報時才刪除那些令人反感的內容。
政府已向Facebook和其他互聯網公司不斷施壓,要求它們阻止恐怖主義組織在其網頁上發布宣揚恐怖主義或是“征兵”廣告。本月早些時候,英國首相特雷莎·梅呼吁各國政府簽署國際協議,以防止極端主義在網絡上蔓延。一些提議的措施將要求公司對其網站上發布的資料負法律責任。
Facebook全球政策主管BrianFishman發布這篇博文中沒有提到首相梅的提議。但文章中承認人們的質疑:“在最近的恐怖襲擊之后,人們質疑科技公司在網絡反恐方面的作用。我們想要對這些問題做出切實回應。我們同意社交媒體不應該成為恐怖分子發聲的地方這一觀點。”
這一過程利用了圖像識別技術,通過該技術,Facebook將人們上傳的圖片和視頻和已知的恐怖主義圖片和視頻作對比。這意味著這些做對比的恐怖主義視頻和圖片要么是之前就被Facebook屏蔽過,要么是來自由Facebook、推特與Youtube共享的一個恐怖主義圖片數據庫。
Facebook還對之前被屏蔽的那些宣揚恐怖主義的文章進行文本分析,找到這些文本的共同特點。之后,將這些特點錄入機器學習系統之中,不斷迭代,使其能夠很快偵測到類似的帖子。
Bickert和Bickert表示,當Facebook收到“恐怖主義內容”的舉報時,公司會立即對所舉報內容進行審查。此外,這篇博文還表示,在極端情況下,當系統發現了受重大傷害的證據時,會立即通知當局。
但是人工智能僅僅只是該過程的一部分而已。這項技術目前還不能理解語言上以及不同語境間的細微差別,所以目前還是以人工審查為主。
Facebook表示,超過150名雇員的“主要或全部工作內容就是打擊網絡恐怖主義”。這篇博文透露,這150人中包括反恐專家、前檢察官、前執法人員、分析人士以及工程師。