美國還沒有準備好應對AI驅動的虛假信息時代——但中國已經準備好了

2019年,一位名叫李必成的中国研究人员闡述了他的想法,關於利用AI操縱公眾輿論。 一個“智能代理”網絡 – 一支由AI控制的假網絡人格軍隊 – 可以就中共關心的問題(如其處理COVID-19大流行的方式)充當足夠真實的角色,以塑造共識。就在幾年前,李在其他文章中曾經寫道,中國應該提高其進行“網絡信息欺騙”和“網絡輿論引導”的能力。

李並非異數。事實上,他是終極內行人士,在中國人民解放軍頂級信息戰研究所擁有悠久的研究生涯。他通過中國軍方頂級學術期刊發表了利用AI操縱社交媒體的願景。他與中國人民解放軍唯一已知的信息戰單位311基地有聯繫。因此,他的文章應被視為AI輔助的中國影響行動洪流的預兆。

正如Meta最近在其季度對抗威脅報告中披露的,西方互聯網平台已經被與中國政府有關聯的群體發布的親北京內容淹沒。根據Meta報告,超過50萬Facebook用戶關注了這個更廣泛的中國網絡中的至少一個假帳戶 – 該網絡依靠設在越南和巴西的點擊農場來擴大其影響力。該報告還稱,中國網絡已花費約3000美元的廣告費用,以進一步推廣其帖子。然而,這個努力似乎仍由人類運營,並且實際效果微乎其微。國務院最近的一份報告也強化了這一觀點。

但是生成式AI為這種努力提供了變成更有效的東西的可能性,從而對美國和其他全球民主國家造成更大的危害。我們的研究表明,中國已經準備好採用這項新技術。上個月,微軟報告它跟蹤的一些與中國有關的行為者在3月開始使用AI生成的圖像。這證實了我們的擔憂,我們預計會有更多這樣的情況。

現在,由於生成式AI的作用,中國在社交媒體上的操縱將在純量上更大,而且成本更低,並且可能具有更好、更可信的內容。傳統方法需要僱用人來在內容農場工作以創建或發布內容,然後花錢在社交媒體上推廣和推送它,而使用生成式AI,成本相對固定,範圍高度可擴展:建立一次,讓它在網絡上填充內容。

構建這種模型的成本已經非常低廉,並且 – 如同許多技術 – 還會越來越低廉。正如Wired最近報導的,一位化名為Nea Paw的研究人員能夠創建一個完全自主的帳戶,在互聯網上發帖,連結到文章和新聞媒體,甚至引用特定記者 – 除了所有這些都是假的,完全是使用AI生成的。Paw只用了公開可用的現成AI工具。它只花了他400美元。

這種更像人一樣行事的生成AI為中共(以及俄羅斯、伊朗等其他壞角色)提供了潛力,實現長期以來塑造全球對話的願望。

2021年5月,中共中央總書記習近平在中共政治局每月集體學習會議上重申了黨對這一宏偉目標的關注。在那裡,他說中國應該“為中國的改革、發展和穩定創造有利的外部輿論環境”,部分是通過開發更吸引人的宣傳敘事和更好地按特定受眾定制內容。習還強調,自他2012年上台以來,北京已提高了我們國際輿論努力的“引導力”。換句話說,習對中國已經影響全球輿論的程度感到滿意,但他認為中共還有工作要做。

習這些年來一直在談論技術如何實現他的願望。在2019年的一次較早的政治局集體學習會議上,習說有必要研究AI在新聞收集、製作、發佈和反饋中的應用,以提高引導輿論的能力。更廣泛的黨政機構已經著手實現習的願景,包括建立“AI編輯部”。

中國軍方研究人員至少從2005年開始就在努力創建他們有時稱為“合成信息”的東西。這種信息可以用於許多目的,包括生成有關對手的“爆炸性政治新聞”。例如,中國在2017年被指控進行了一次虛假信息運動,聲稱台灣政府將嚴格規範宗教服務,這在台灣島內引發了政治風暴。

中國軍方研究人員經常抱怨人民解放軍缺乏必要數量具有足夠的外語技能和跨文化理解的工作人員。然而,現在生成式AI為人民解放軍提供了以前無法做到的工具,那就是以人類質量操縱社交媒體。

社交媒體平台和美國政府可以並應該採取步驟開始減輕這一威脅。但所有這樣的策略都必須基於生成式AI已無所不在且不太可能被普遍規範的現實。

儘管如此,社交媒體平台應加大力度打擊現有的虛假帳戶散佈虛假信息,並使惡意行為者(無論是外國的還是國內的)更難開設新帳戶。與此同時,美國政府應考慮最近對中國和俄羅斯實施的先進硬件出口管制在即將到來的修訂中是否可以改進,以更好地捕捉訓練核心AI大語言模型所需的硬件。 一旦開發出來,這些模型就更難以規範。

美國政府和社交媒體平台認識到這一威脅,並