1945年7月16日,世界永遠改變了。曼哈頓計劃的“三位一體”測試,在羅伯特·奧本海默的指導下,首次賦予人類消滅自己的能力:一枚原子彈在新墨西哥州洛斯阿拉莫斯以南210英里的地方成功引爆。
1945年8月6日,炸彈投向廣島,三天後又投向長崎,釋放出前所未有的破壞力。第二次世界大戰的結束帶來了脆弱的和平,卻也陰影籠罩著這個新的存在威脅。
雖然核技術承諾帶來豐富能源的時代,但它也使我們進入了一個核戰爭可能導致我們文明的終結的未來。我們技術的“爆炸半徑”已經增加到全球規模。越來越明顯,治理核技術以避免全球災難需要國際合作已經迫在眉睫,需要建立強大的機構來處理這個問題。我們必須抓緊時間建立健全的機制。
1952年,11個國家建立了歐洲核子研究組織(CERN)並賦予它“在純粹基礎科學[核]研究方面的合作”的任務,明確CERN的研究將用於公共利益。國際原子能機構(IAEA)也於1957年成立,以監測全球鈾儲量並限制擴散。在其他機構的幫助下,這些機構幫助我們在過去70年生存下來。
我們認為,人類再次面臨技術“爆炸半徑”的增加:先進人工智慧的發展。如果不受約束,這項強大的技術可能會消滅人類;但如果安全利用,它可能會改善世界。
人工通用智慧的幽靈
專家一直在對人工通用智慧(AGI)發展敲響警鐘。傑出的AI科學家和主要AI公司的領導者,包括OpenAI的Sam Altman和Google DeepMind的Demis Hassabis,簽署了AI安全中心的聲明稱:“減輕來自AI的滅絕風險應該與流行病和核戰爭等社會規模風險一樣,成為全球優先事項。”幾個月前,另一封呼籲暫停大型AI實驗的公開信獲得了超過27,000人的簽名,包括圖靈獎得主Yoshua Bengio和Geoffrey Hinton。
這是因為一小群AI公司(OpenAI、Google Deepmind、Anthropic)正在致力於創建AGI:不僅僅是ChatGPT這樣的聊天機器人,而是“在大多數經濟活動中自主並超越人類”的AI。投資者兼現任英國基礎模型特別工作組主席伊恩·霍加思將這些稱為“神似AI”,並敦促政府減緩構建它們的速度。甚至這項技術的開發者自己也預期它會產生巨大的危險。OpenAI背後的ChatGPT的CEO說超人機器智慧(SMI)的發展可能是對人類持續存在的最大威脅。
世界領導人呼籲建立一個國際機構來應對AGI的威脅:一個AI領域的“歐洲核子研究組織”或“國際原子能機構”。 6月,拜登總統和英國首相孫納克討論了這樣一個組織。聯合國秘書長安東尼奧·古特雷斯認為我們也需要一個。鑑於國際社會日益增長的合作意願以應對AI風險,我們需要具體說明如何建立這樣一個機構。
“AI領域的歐洲核子研究組織”會是什麼樣子?
多邊人工通用智慧聯盟(MAGIC)將是世界上唯一專注於安全優先研究和開發先進AI的高級且安全的AI設施。與歐洲核子研究組織一樣,MAGIC將允許人類將AGI開發從私人公司手中取出,交到一個國際組織手中,以推動AI的安全發展。
MAGIC在高風險的先進AI研究和開發方面將具有排他性。禁止其他實體獨立進行AGI開發將是非法的。這將不會影響絕大多數AI研究和開發,只專注於與AGI相關的前沿研究,這與我們目前已經處理其他危險研發技術的方式類似。致命病原體的工程研究要麼被完全禁止,要麼限制在非常高的生物安全保護水平實驗室內進行。與此同時,絕大多數藥物研究都由FDA等監管機構監督。
MAGIC將只關注預防高風險的前沿AI系統的開發 – 神似AI。 MAGIC完成的研究突破只有在被證明絕對安全後才會與外界共享。
為了確保高風險的AI研究仍然安全並受到MAGIC嚴格監督,應制定全球禁令,禁止使用超過一定計算能力的AI(這裡有一個很好的概述,說明為什麼計算能力很重要)。這與我們已經在國際上處理鈾的方式類似,鈾是用於核武器和能源的主要資源。
在沒有競爭壓力的情況下,MAGIC可以確保這項革命性技術所需的充分安全和保障,並將利益分配給所有簽署國。 歐洲核子研究組織的存在證明了我們如何通過MAGIC取得成功。
美國和英國處於完美的位置,可以促進這一多邊努力,並在今年11月舉行的首屆全球人工智慧高峰會之後開始創建。
避免AGI存在的風險是艱鉅的,將這項挑戰留給私人公司是非常危險的賭注。我們不允許個人或公司為私人使用開發核武器,我們也不應該允許這發生在危險的強大AI身上。我們設法沒有用核武器毀滅自己,通過建立一個新的全球可信機構,我們再次可以確保我們的未來,但前提是我們不要坐以待斃。我們必須將先進AI的開發交到一個新的全球可信機構手中,為每個人創建一個更安全的未來。
二戰後的機構通過控制核開發幫助我們避免了核戰爭。當人類再次面臨新的全球威脅——無控制的人工通用智慧(AGI)時,我們再次需要採取行動來確保我們的未來。