Facebook Inc.高管一直以來都表示,人工智慧將解決長期困擾公司的難題,它可以防止那些被視為仇恨言論和極度暴力的內容出現在平台上,還能限制未成年人使用公司的各個平台。
但《華爾街日報》(The Wall Street Journal)看到的內部文件顯示,距離實現這樣的願景,還有很長的路要走,比Facebook高管們所預示的要遙遠得多。Facebook的人工智慧無法穩定地識別第一人稱射擊影片和種族主義言論,有個值得一提的例子是,AI難以分辨鬥雞和車禍畫面的區別,讓公司內部研究人員困惑了好幾周。
本文為風傳媒與華爾街日報正式合作授權轉載。欲看更多華爾街日報全文報導,請訂閱特別版華爾街日報VVIP方案,本方案僅風傳媒讀者專屬,以低於原價3折以下之全球最優惠價,即可無限暢讀中英日文全版本之華爾街日報全部內容。
上述文件還顯示,在涉及仇恨言論的問題上,Facebook員工估計,公司只刪除了一小部分違規內容——他們說,刪掉的部分在此類帖子中大概只佔到低個位數的比重。當Facebook的算法無法確定某些內容是否因違規而應被刪除時,平台會減少向用戶展示這些內容的頻率——但發布這些內容的賬號卻不會受到懲罰。
員工們正在研究Facebook對自身的內容規定執行得如何,Facebook在公司內部以及社區守則等公開文件中對這些規定進行了詳細闡述。
《華爾街日報》看到的文件還顯示,針對用戶對仇恨言論的投訴,Facebook兩年前減少了人工審核員處理這類投訴的時間,並進行了其他調整,減少了整體投訴數量。如此一來,該公司在執行自身規定時變得更加依賴人工智慧,並且在公開數據中誇大了這項技術看似成功的運用。
根據這批文件,公司內部有專人負責淨化Facebook平台,不讓Facebook定義的攻擊性或危險性言論出現,而這些員工承認,Facebook對此類內容的篩查還遠遠達不到可靠的程度。
一位高級工程師兼研究科學家在2019年年中的一份報告中寫道,「問題在於,我們現在沒有、而且可能永遠也不會有一個模型可以阻止哪怕僅是大部分有損誠信的內容,尤其是在敏感領域。」
據他估計,平台上所有違規的仇恨言論中,Facebook自動系統刪除的帖子產生的閱讀量只佔到其中的2%。「近期的估算顯示,除非策略有重大調整,否則中短期內這一比例很難提升到10-20%以上。」他寫道。
今年3月,另一支Facebook團隊也得出類似結論,按照他們的估計,自動系統刪除的仇恨言論的閱讀量在平台上所有此類言論中僅佔到3%-5%,而針對Facebook在暴力和煽動性言論方面的規定,系統刪除的此類違規帖比例更低,僅佔0.6%。