頂尖 AI 實驗室員工憂心安全問題是事後才想到的,報告指出

UK Government AI Safety Summit 2023 Day Two

(SeaPRwire) –   在世界一些領先的 AI 公司工作的員工對其工作的安全性及其領導者的動機持重大疑慮,一份於週一發表的報告聲稱。

受國務院委託並由 Gladstone AI 公司員工撰寫的,對美國應如何應對其認為先進 AI 構成的重大國家安全風險提出多項建議。

該報告的作者與 200 多名專家討論了該報告,包括 OpenAI、Google DeepMind、Meta 和 Anthropic 的員工——這些領先的 AI 實驗室都在致力於「人工通用智慧」,這是一種假設技術,可以執行大部分任務,其水準等同於或高於人類。作者分享了來自這些實驗室中的一些員工與他們私下分享的疑慮摘錄,但沒有指名個人或其工作的特定公司。OpenAI、Google、Meta 和 Anthropic 尚未立即回應評論請求。

Gladstone 的執行長兼報告的作者之一傑瑞米·哈里斯告訴《時代》:「透過這個專案,我們實際上成了一個事實上的清算所,用以處理前沿研究人員的疑慮,這些研究人員並不確信其組織的預設軌跡可以避免災難性後果。」

一個來自未指明 AI 實驗室的人與報告作者分享了疑慮,該報告將該實驗室描述為出於不希望減緩實驗室建立更強大系統的速度而採取「輕忽安全」的方式。另一個人表示,他們擔心他們的實驗室沒有足夠的防護措施來防止 AGI 超出他們的掌控,儘管該實驗室認為 AGI 是一個近期的可能性。

還有人表示關注網路安全。報告指出:「根據許多自身技術人員的私人判斷,許多前沿 AI 實驗室實施的安全措施不足以抵禦老練攻擊者的持續 IP 竊取活動。」「如果他們尚未如此,那麼在沒有美國政府直接支持的情況下,這類模型竊取嘗試似乎很可能得逞,因為前沿實驗室安全性的現狀如此。」

哈里斯說,許多分享這些疑慮的人在這樣的情況下掙扎著,計算公開舉發可能會讓他們在未來失去影響關鍵決策的能力。「這些實驗室中有些人對決策過程以及管理階層的誘因如何轉化為關鍵決策感到擔憂的程度,真的很難被誇大,」他告訴《時代》。「最關注風險方程式的人,而且在許多情況下最有知識的人,往往是最為擔憂的人。」

你是 AI 實驗室的員工,並且有疑慮可能考慮與記者分享嗎?您可以在信號上聯繫本文的作者,號碼是 billyperrigo.01 

作者說,目前的人工智慧系統尚未對人類造成災難性後果,這並不能證明規模更大的系統未來會安全。Gladstone 的技術長愛德華·哈里斯也共同撰寫了該報告,他說:「我們從前線的人員那裡聽到的一個重大主題,關於目前正在秘密開發的東西,是這在某種程度上有點俄羅斯輪盤遊戲。」「看,我們扣下了扳機,嘿,我們很好,所以我們再扣一次扳機吧。」

在過去的 12 個月裡,世界上許多政府都意識到了先進 AI 系統構成的風險。在 11 月,英國主辦了一場 AI 安全峰會,世界領導人承諾共同努力為該技術制定國際規範,而在 10 月,拜登總統發布了一項行政命令,為設在美國的 AI 實驗室制定安全標準。然而,國會尚未通過 AI 法律,這意味著對 AI 實驗室在訓練先進模型時可以做什麼和不能做什麼方面幾乎沒有法律限制。

拜登的行政命令要求國家標準技術研究所為在公開發布前 AI 系統應通過的測試制定「嚴格標準」。但 Gladstone 報告建議,政府監管機構不應過度依賴這類 AI 評估,因為這些評估現在是測試 AI 系統是否具有危險能力或行為的常見做法。報告稱,評估「可以輕易地被破壞和操縱」,因為如果問題事先已知,AI 模型可以被其創建者表面上「調整」或「微調」以通過評估。至關重要的是,這些調整更容易簡單地教導模型更好地隱藏危險行為,而不是徹底消除這些行為。

該報告引用了一位被描述為對其中一間 AI 實驗室的實務具有「直接了解」的專家,他判斷這間未具名的實驗室正在以這種方式操縱評估。「AI 評估只能揭示危險能力的存在,但不能確認其不存在,」報告辯稱。「過度依賴 AI 評估可能會在 AI 開發人員和監管機構之間傳播一種虛假的安全感。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。