網路調節常在衝突期間失敗

我們都看到有關以色列和哈馬斯之間衝突的大量煽動性、分裂性和虛假內容在網上流傳。作為回應,記者、監管機構、政治人物和公民社會團體已經促請社交媒體公司加強內容監督工作,這涉及找出和處理違反平台政策的個別內容。在Meta工作了4年多後,我曾致力於改善平台對眾多衝突的影響。離職後,我專注於平台設計,部分原因是內容監督的局限性在風險最高時尤其明顯。當然,應該監督和處理某些內容,平台也可以做得更好。但是監督只能處理很小部分有害內容,所以專注於此將無法實質改善網路言論。

下面是《紐約時報》中指出為虛假的當前衝突中的一個內容例子。

在回應如此發布後,教會官員發表聲明說「加沙的聖波菲留斯教堂毫髮無傷」,但只有在事後幾天,教堂才真的遭到空襲。網路言論中更常見的是更一般性的聲明,如暗示使用磷彈或性侵犯等行為。這類一般性的引發恐懼聲明很難有效監督,因為:

1. 無法證明一般性否定.如何證明某事從未發生,而發言人也未提出任何具體個案?只有當有人提出具體聲明或使用回收圖片時,才能進行反駁,但許多人不會這樣做。

2. 不想審查重要內容。這些聲明可能涉及人權侵害,記錄重要。人們也可以使用此類信息自保-如果他們能信任它。誤將此類內容下架可能造成嚴重後果。

3. 人們動機傳播此類內容。在衝突背景下,所有一方都自然會傳播有關對方的煽動信息。此類內容將被支持自己一方的人頻繁張貼和快速傳播,無法在被廣泛閱讀前核實事實。

4. 人們渴望最新信息。這種對最新信息的渴望意味著即使對衝突一無所知,一些人仍會為了獲得關注、追隨者和廣告收入,競相第一時間提供最引人入勝的信息。他們很少在意信息是否屬實,只要能第一時間發布就好。如果內容被下架,他們可以使用新帳號再試一次。

我並不是說監督工作沒有作用。但如歐盟對Meta和Twitter所做,要求公司加強努力監督,效果很有限,因為大部分有害內容不違反政策,往往與真實政治表達交織在一起。引用一份內部Facebook文件,「大量有害內容,如個人故事、引導性問題或嘲諷,往往完全無法執行。隨著Facebook完整工作成熟和知名度提高,問題人士會轉向這些漏洞」。在這些漏洞中,平台承認內容往往通過接近誤導和仇恨的邊緣內容獲得更多分發。

事實上,平台依賴監督往往會產生新問題。過去經驗表明,加強對以色列和巴勒斯坦衝突的執法已導致可信報告指出存在審查和偏見。當謹慎應用於明確的有害內容(如誤導圖片)時,監督是重要工具。但大部分有害內容都不明確,當監督擴大應用於更廣泛的有害內容時,需要更多精細判斷,錯誤在所難免。

因此,公司通常依賴於內容中立的「破窗」措施應對危機。我們可以從這些努力中獲取啟示,提出不依賴嚴格規定內容好壞的替代方案來應對誤導信息:例如限制所有帳號發佈速度,使小群體難以操縱系統;取消內容激勵機制,使人們不會因內容更煽動而獲得更多傳播;加強保護權威來源在網上討論事件的隱私;優先處理過去有積極、值得信賴記錄的帳號,而非全新帳號。