拜登的人工智能行政命令為何只能走到此為止

拜登總統本週簽署了一項全面性的人工智慧行政命令,旨在應對技術可能帶來的威脅,但一些專家表示,這項法規在實際操作上仍有未解決的問題。

該命令要求各機構重新考慮其對人工智慧的方法,旨在解決國家安全、競爭和消費者隱私相關的威脅,同時促進創新、競爭和人工智慧在公共服務中的應用。

該命令最重要的元素之一是要求開發最強大人工智慧模型的公司披露安全測試結果。週二,商務部長賴蒙多在Twitter上告訴CNBC,根據行政命令「總統指示商務部要求公司告訴我們:他們採取了什麼安全預防措施,讓我們可以評估這是否足夠。我們計劃對這些公司負責。」

該63頁的行政命令但是沒有明確規定,如果一家公司報告其模型可能存在危險,將面臨什麼後果。專家在這一問題上意見分歧——一些人認為,該行政命令僅提高透明度,而其他一些人認為,政府可能對發現安全問題的模型採取行動。

這使一些專家得出結論,白宮在解決某些人工智慧問題上面臨行政權力的限制。

前瞻性指導

在命令發布前的一場虛擬簡報會上,一名高級官員表示,總統指示其團隊找到每一個槓桿並全面使用,根據安全與新興技術中心戰略與基礎研究資助總監Helen Toner的參與,這一說法是準確的。

該命令的大部分內容都是指示其他機構和機構開展研究或制定更詳細的指導方針。例如,管理和預算辦公室有150天時間發布指導,指導聯邦機構如何在管理人工智慧帶來的風險的同時推進創新。

行政命令的成功實施取決於聯邦政府內部的強大政治支持。這一點使得本次行政命令比大多數行政命令更有可能產生影響,根據美國科學家聯盟新興技術與國家安全領域的Divyansh Kaushik副主任表示。

前總統唐納德·川普在2019年也發布了一項人工智慧重點行政命令,旨在維護美國在人工智慧領域的領先地位。Kaushik表示,由於缺乏高級官員的全面支持,導致只有一個部門——衛生及公共服務部門實施了與行政命令相符的人工智慧政策。相比之下,拜登政府的行政命令「得到總統辦公室、幕僚長辦公室和副總統辦公室等最高層的支持」,Kaushik說。

計算能力限制

該命令的一些部分很可能會立即產生影響,例如改變高技術移民規則。這些旨在通過增加可用的人工智慧人才來提高美國創新能力,其中一些規則將在90天內實施。

另一項很可能對人工智慧行業產生更直接影響的規定,是對開發或計劃開發雙用途基礎模型的公司實施的一系列要求。這些模型能夠處理多種任務,可能會對國家安全構成威脅,正如英國政府最近在人工智慧安全峰會前發布的一份報告中所概述的。這些公司需要將其人工智慧開發計劃告知美國政府,採取的物理和網絡安全措施以及任何安全測試結果。

商務部長負責定義哪些人工智慧模型的危險性足以符合這些要求。目前,專家不知道如何定義此類模型,根據新美國安全中心執行副總裁兼研究主任Paul Scharre表示。

與此同時,如果模型的訓練計算能力超過1兆兆兆兆次運算的閾值,這些要求將適用。目前沒有任何人工智慧模型採用這麼大的計算能力進行訓練。公開可得的人工智慧模型GPT-4的訓練計算能力估計為此閾值的5分之1,根據研究組織Epoch。但是,在過去十年中,人工智慧模型訓練所需計算能力每六個月就雙倍增加,根據Epoch報告。

一名拜登政府官員表示,閾值設定得足以排除當前模型,但很可能會包括下一代頂尖模型,根據Scharre參與簡報會後表示。

計算能力是一個「粗略的代理指標」,政策制定者真正關注的則是模型的能力,Scharre表示。但Kaushik指出,設定計算閾值可能會刺激人工智慧公司開發性能相近但計算能力低於閾值的模型,尤其是如果報告要求有可能泄露商業秘密或知識產權的風險。

總統權力的限制

即使對超過計算閾值的模型,行政命令也只明確要求公司告知紅隊安全測試結果,即安全審計人員通過對抗方式嘗試發現人工智慧模型中的問題。為提供法律依據,拜登政府援引了國防生產法,該法可允許總統影響國內行業,以促進國家安全。

如果一家公司報告其人工智慧模型在必要的安全測試中失敗,將發生什麼情況完全不清楚,根據安全與新興技術中心戰略與基礎研究資助總監Helen Toner表示。

「基本理念是,有少數幾家公司在建立這些非常複雜的人工智慧系統,而這些公司告訴政府:’我們不知道我們的系統可以做什麼,我們認為它們可能很危險。’所以政府說:’好的,你必須告訴我們更多信息,我們必須更好地瞭解。’」Toner說。

美國創新基金會高級經濟學家Samuel Hammond認為,政府將採取行動,要麼防止該模型的部署,要麼甚至下令將其刪除。「國防生產法近年來已被用於強制公司生產它們不願生產的東西,也可以強制公司停止生產它們不願生產的東西。」Hammond說。「其權力