美國軍隊每天都會信任世上最強大的武器交給全球各地駐紮的數以十萬計服役人員操作,其中大部分人年齡都在30歲以下。軍隊透過三個層面來減低這些先進科技在年輕和經驗不足使用者手中的潛在風險:他們規管科技本身、使用者和他們的單位。政府有機會對人工智能採取同樣的做法。
視乎任務性質,服役人員必須成功完成課程、學徒訓練和口試,才獲授權駕駛船隻、操作武器,甚至在某些情況下進行維修工作。每個資格都反映了有關系統的技術複雜程度、可能的危險性和使用者獲授的決定權限。更重要的是,即使合格人士也可能會感到疲勞、無聊或壓力大,軍隊設有標準操作程序和核對清單,以確保行為保持一致和安全—例如外科醫生也採用同樣做法。
軍隊減低風險的策略不只著眼於個人,也涵蓋單位層面。例如「航母資格考核」不只考核個別飛行員,也要通過航母及其所屬航空聯隊(飛行員小組)的聯合表現才能通過。單位資格考核強調團隊合作、共同責任,以及多個角色在特定環境下的整體運作。這可以確保每位團隊成員不只熟練自己的工作,也完全了解他們在更廣泛背景下的職責。
最後,軍隊會根據任務性質和個人職責或資深程度,將權限分開和明確交由不同人士負責。例如,一名水面戰鬥官擁有發射武器的授權,但在發射某些類型武器前,仍須向艦長請求批准。這項檢查可以確保具有適當權限和認識的人有機會處理特定風險類別—例如可能升級衝突或減少某種重要武器庫存的風險。
這些軍隊應對風險的策略應啟發人工智能監管的討論,因為我們已在其他非軍事領域看到類似方法取得成功。資格考核、標準操作程序和明確權限分工已經與技術和工程規範一同,在醫療、金融和警務等行業發揮補充作用。雖然軍隊有能力強制執行這類資格制度,但這些框架也可以在民間領域有效實施。推動其採納可以透過展示此類工具的商業價值、政府規管,或利用經濟誘因。
資格制度的主要優點是只允許經過審查和培訓的使用者接觸可能危險的人工智能系統。審查過程有助減低惡意分子的風險,例如可能利用它製作假冒公眾人物文字或視頻、或騷擾私人公民。培訓有助減低善意但不完全了解這些科技的人士可能會錯誤使用它們的風險,例如一名律師在法庭使用ChatGPT準備法律論文。
為進一步提升個人使用者的問責性,某些資格考核,例如設計定製生物體,可能需要使用者具有唯一識別碼,類似全國醫療提供者識別碼或駕駛執照號碼。這可以讓專業組織、法庭和執法機構有效追蹤和應對人工智能濫用個案,提供法律系統熟悉的問責機制。
將個人資格考核與機構資格考核相結合,可以建立更堅實的多層監管制度,尤其是用於執行重要職能的高性能系統。這強調人工智能安全不只是個人責任,也是機構責任。這種資格考核方式也支持制定明確職責,只將尤其重要的決定權限交由合資格和獲授權人士,類似證券交易委員會規管誰可以從事高頻交易業務。換言之,使用人工智能不只是要熟悉如何使用,也要了解使用的適當時機和權限來源。
資格考核和核對清單還有其他次要效益。設計、管理和監察它們將創造就業機會。國家以及州政府可以成為資格考核機構,專業組織可以負責安全標準的研究和制定。人工智能公司也可能從支持個別系統的資格培訓計劃中獲得經濟利益。
推行人工智能使用資格或許可證制度的構思提出了吸引但也複雜的機遇和挑戰。這個框架有可能大幅提升安全性和問責性,但也會面對障礙和潛在缺點,其中第一個可能障礙是它可能阻礙這些工具的使用和實踐者群體的多樣性。資格制度也需要 bureaucratic 管理成本,不同管轄區可能設立不同資格也可能無謂地阻礙創新和有效的全球人工智能市場。當然,對於有害目的的惡意分子,資格考核可能只會使情況更複雜,而非必然防止。
需要將這些缺點置於背景下進行評估。在缺乏周詳的資格考核等規管方法的情況下,我們只能依賴對工程方法的規管—這種過程本身也會變成官僚和緩慢,永遠無法單獨解決問題。
雖然許可證或資格制度在提升安全責任方面可能有顯著效益,但其實施細節、倫理和實際挑戰都需要審慎考慮。然而,考慮過程不應延遲資格制度的推行,因為這些科技正迅速擴散。
政府和專業團體現在可以開始為優先行業或應用領域指定或指定可信賴機構,讓它們的首要任務是收集和分析人工智能損害個案。人工智能事件或自動駕駛車輛事故報告資料庫,可以幫助監管機構更好了解隨著時間發展的風險,從而制定培訓和資格制度。
除了首先記錄損害之外,監管機構需要開始試驗資格機制,分享學習經驗以進行迭代改進。可以在不同地點和不同市場同時試行多個試點,並行學習以更好地評估不同規管方法的成本效益。與此同時,我們需要繼續開展教育計劃,提高公眾對人工智能的認識。