到現在為止,以色列和哈馬斯之間的衝突已經清楚地顯示,社交媒體上有關這場衝突的虛假信息的複雜程度。隨著科技平台越來越依賴人工智能來打擊假消息,中東的混亂也暴露出技術在管控自身危害能力上的限制。了解像Meta、Google和X這樣的全球平台如何作出關於內容是否被推廣或下架的決定,已經比以往更加重要。單純”相信我們”已經不足以應對不斷升級的宣傳分子。
平台早就知道它們面臨巨大的假消息問題,僅靠人工審核員無法解決。兩年前,Facebook告密者弗朗西斯·霍根在國會作證時詳細描述了成長和利潤如何驅動決策:”結果導致更多分歧,更多傷害,更多謊言,更多威脅和更多衝突,”她證實。”在某些情況下,這種危險的在線言論已經導致真實的暴力行為,傷害甚至殺死人。”
但國會仍然無法就基本的約束措施達成一致,以對平台負責。我在哈佛甘迺迪政府學院的同事,計算機科學家拉塔尼亞·斯威尼估計,一年內,我們熟知的互聯網將被以機器人提供大多數內容的互聯網取代。如果有一件事我們從生成AI走出實驗室進入我們的餵料和手機生活中學到的話,就是它有多自信地和炫技地說謊。
我們需要更多不同的聲音來討論平台在保護信息生態健康方面承擔的責任。我不僅指技術人員、心理學家、經濟學家和倫理學家,他們都需要有發言權:我也指那些由於平台建設者未預見的原因而受到這些技術影響的人。
存檔Facebook內部文件
公共利益技術這一新興學科負責推動研究並形塑對私營公司佔領我們公共廣場的討論。在這方面,本週前總統巴拉克·歐巴馬將前往哈佛大學參加有關互聯網未來的峰會。哈佛法學院將推出一個新的應用社交媒體實驗室,以”重新想像、重建和重新啟動社交媒體,服務公眾利益”。與此同時,在哈佛甘迺迪政府學院,斯威尼的公共利益技術實驗室將發佈FBArchive.org,一個新的研究平台,允許研究人員和記者研究霍根與Meta分享的內部文件。
主要平台像鉛製保險箱一樣運作,窗簾緊閉。我們知道其中的危害,但對其中的決策了解甚少。內容審核指南是否貫徹執行,如果不貫徹,允許哪些例外情況,誰有權授予例外?國際內容審核如何進行?主要依賴於複雜的AI算法,還是依賴英語使用者通過Google翻譯檢視結果進行手動評估?
鑑於對技術平台如何作出隱私、內容審核和算法設計決定這些不透明的部分,FBarchive的目的是提供一定程度的透明度。Meta公司對其產品,包括Facebook,進行大量研究,擁有大量數據可以反映產品設計變更的影響。霍根公開的文件顯示,例如,審核人員考慮了”權衡預算”,即即便在衣索比亞或緬甸明顯有害內容蔓廣時,Meta也要求他們計算財務成本,才能減少此類內容的傳播或下架。
新的線上存檔為人們提供一個大規模協作研究的空間,這種研究方式以其他方式是不可能的。它只是利用人與機器的結合的例子之一,在保護個人隱私的同時,允許研究人員了解業務領導人在平衡對公眾和股東的責任之間的取捨。
以人為本
這就是公共利益技術人員所說的”以人為本的問題解決”,沒有參與形塑互聯網運作的人類,就無法創建”公共利益互聯網”。假設國會在短期內不太可能介入,目前我們只能依靠技術公司領導人的判斷甚至自身利益,同意保護個人權利、公共利益和信息生態系統的共同行業標準,最終保護民主。
Twitter曾經在一定程度上是分享數據和社區標準的典範,但現在不是了。出發點一直很明確:需要更大程度的透明度,了解算法如何設計和內容決策如何作出。這將給研究人員、記者、法官、公民社會和政策制定者更多權力參與形塑健康的公共廣場。即使我們驚嘆於新機器人朋友能寫一首詩或預測蛋白質摺疊,但沒有人類帶來的經驗和價值觀,解決方案很可能會失敗,尤其是這些技術讓我們更容易去人性化對方。