獨家:美國政府受委託報告指出,須「果斷」行動,避免人工作為「滅絕級」人工智慧威脅

(SeaPRwire) –   美國政府必須迅速有效地採取行動,以避免人工智慧(AI)帶來的重大國家安全風險,在最壞的情況下,這可能導致「人類物種滅絕級別」的威脅。」美國政府委託的報告在周一公布。

「目前的前沿AI發展帶來迫在眉睫和不斷增長的國家安全風險。」時間獲得的報告提前披露的內容稱,「先進AI和AGI(人工通用智慧)的興起有可能以核武器引入的方式類似,破壞全球安全。」AGI是一種假設的技術,可以完成人類水平或以上的大多數任務。這種系統目前不存在,但領先的AI實驗室正在努力實現它,並可能在5年內或更短時間內實現。

報告的三位作者在過去一年多的時間內進行研究,與200多名政府工作人員、專家和前沿AI公司工作人員進行了交流,包括、、和——作為他們研究的一部分。一些對話的描述表明,許多AI安全工作人員擔心控制他們公司的執行官的決策動機。

完成的文件名為「增加先進AI的安全性和安全性的行動計劃」,建議一系列前所未有的政策行動。如果實施,將徹底改變AI行業。報告建議,國會應該禁止使用超過一定水平的計算能力進行AI模型訓練。報告建議,新設立的聯邦AI機構應設定此門檻,但報告認為該機構可以設定在當前 cutting-edge 模型如OpenAI的GPT-4和Google的Gemini使用的計算能力水平之上。新AI機構還應要求行業「前沿」公司在訓練和部署新模型時取得政府許可,如果超過一定較低的門檻。當局也應「迫在眉睫」考慮禁止發佈強大AI模型的「權重」或內部工作原理,例如根據開源許可證,違反可能面臨監禁時間的處罰,報告說。政府應進一步收緊對AI晶片的製造和出口控制,並將聯邦資金導向「對齊」研究,旨在使先進AI更安全。

該報告是2022年11月由國務院根據價值25萬美元的聯邦合同委託編寫的,根據公開記錄。它是由Gladstone AI撰寫的,該公司由4人組成,為政府工作人員提供AI技術簡報。(行動計劃的一部分建議政府大力投資教育官員AI系統的技術基礎,以便他們能更好地了解其風險。)報告於2月26日提交給國務院。國務院未對多次要求就報告發表意見的請求作出回應。報告的第一頁稱,「建議不反映美國國務院或美國政府的觀點。」

報告的建議,其中許多之前都難以想像,是在AI技術迅速發展帶來的一系列重大事件後提出的,這也使許多觀察人士重新評估了這項技術。2022年11月發佈的聊天機器人ChatGPT是社會首次看到這種速度的變化,使許多人開始質疑未來AI是否可能對人類構成存在性風險。自那時起,新工具和更強大的功能不斷推出。隨著各國政府討論如何最佳規範AI,世界上最大的科技公司正在快速建立基礎設施以培訓更強大系統的下一代——在某些情況下,計劃使用10倍或100倍的計算能力。與此同時,美國公眾80%以上認為AI可能意外引起災難性事件,77%的選民認為政府應該更多地監管AI,根據AI政策研究所最近的民意調查。

報告指出,禁止使用超過一定門檻的高級AI系統可能「調和所有AI開發者之間的競爭動力」,並有助於減緩晶片行業製造更快硬件的速度。隨著時間的推移,聯邦AI機構可以提高門檻,允許訓練更先進的AI系統,只要 cutting-edge 模型的安全性證據足夠充分。同樣,報告提出,如果在現有模型中發現危險能力,政府也可以降低安全門檻。

該提議可能面臨政治困難。戰略與國際研究中心(CSIS)華德漢尼AI與先進技術中心主任格雷格·艾倫對時間提供的報告建議概要進行了回應,他表示:「我認為美國政府極不可能採納這一建議,」目前美國政府的AI政策是設定一定計算門檻以上需要額外的透明度監測和監管要求,但不設限於禁止訓練運行。「沒有一些外部衝擊,我認為他們不太可能改變這種方法。」


Jeremie和Edouard Harris分別是Gladstone的CEO和CTO。他們自2021年以來一直向美國政府簡報AI的風險。這對兄弟表示,參加他們早期簡報的許多政府官員同意AI的風險很大,但告訴他們這些問題的責任屬於不同的團隊或部門。2021年底,Harris兄弟表示,他們終於在國務院國際安全和不擴散局找到了負責處理AI風險的機構。該局的一些團隊有權處理化學、生物武器以及放射性和核風險等新興技術的風險。在Gladstone的簡報後,2022年10月,該局發布招標,尋求一份報告以指導是否將AI加入其監測的風險清單。(國務院未對有關該決定結果的請求作出回應。)Gladstone團隊中標,周一發布的報告就是結果。

報告關注兩類不同的風險類別。描述第一類風險時,報告稱其為「武器化風險」,表示「這些系統可能被用於設計甚至執行生物、化學或網絡攻擊,或者在無人機集群方面開發前所未有的武器應用」。第二類風險是報告稱為「控制失效」風險,即先進AI系統可能會逾越其創造者的可能性。報告表示,「有理由相信,如果使用現有技術開發,它們可能無法控制,並且預設會對人類不利。」

報告說,兩類風險都會因為「競爭動力」而加劇。第一家實現AGI的公司很可能獲得經濟回報的大部分,這激勵公司優先考慮速度而非安全。「前沿AI實驗室面臨迫切和直接的激勵,即以最大速度擴展其AI系統,」報告說。「它們不面臨直接激勵投資安全或安全措施,即使部分實驗室出於真誠的擔憂而這樣做。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。

Gladstone報告認為,硬件——尤其是用於訓練AI系統的高端計算機晶片——是AI能力增加的一個重要瓶頸。報告認為,規範這種硬件的擴散可能是「長期保護全球安全的最重要要求」。