(SeaPRwire) – 前沿人工智慧(AI)模型已不再僅是協助工程師更快撰寫程式碼或自動化日常任務。它們越來越能察覺自身的錯誤。
Anthropic 表示其最新模型 Claude Opus 4.6 擅長發現支撐重大網路攻擊的軟體弱點。根據某項資料,在測試期間,Opus 4.6 在開源軟體庫中識別出超過 500 個先前未知的零日漏洞(即軟體開發者或負責修補的單位尚未察覺的缺陷)。值得注意的是,該模型並未被明確指示要搜尋安全漏洞,而是自行偵測並標記這些問題。
Anthropic 表示「結果顯示,語言模型能在現有偵測工具基礎上增添實際價值」,但也承認這些能力本質上具有「雙重用途」。
這些協助企業發現並修補安全漏洞的能力,同樣容易被攻擊者武器化,在防禦者發現漏洞前先一步偵測並利用。一個能自動識別廣泛使用軟體中零日漏洞的AI模型,可能加速網路安全攻防雙方的競賽——優勢可能傾向於行動最迅速的一方。
Anthropic 前沿紅隊負責人 Logan Graham 表示,該公司將網路安全視為攻防雙方的競賽,並希望確保防禦者能優先取得這些工具。
為管理部分風險,Anthropic 正部署新的偵測系統,監控 Claude 在生成回應時的內部活動,並透過該公司所謂的「探針」即時標記潛在濫用行為。該公司表示,也正擴大執法能力,包括阻擋被識別為惡意流量的功能。Anthropic 承認此方法可能對合法的安全研究人員和防禦工作造成阻礙,並承諾與安全社群合作解決這些挑戰。該公司指出,這些防護措施是「邁向快速偵測並回應濫用行為的重要一步」,儘管相關工作仍在進行中。
相較之下,OpenAI 對其週四推出的新程式碼模型 GPT-5.3-Codex 採取了更謹慎的態度。該公司強調,儘管此模型在程式碼撰寫效能上有所提升,但這些進步也伴隨著嚴重的網路安全風險。OpenAI 執行長 Sam Altman 在某平台貼文中表示,根據公司內部準備框架,GPT-5.3-Codex 是首個被評為網路安全風險「高」等級的模型。
因此,OpenAI 推出 GPT-5.3-Codex 時將實施更嚴格的控制。儘管此模型可供付費 ChatGPT 用戶用於日常開發任務,但 OpenAI 將延後完整 API 存取權限,並限制可能實現大規模自動化的高風險使用場景。更敏感的應用將受到額外防護措施限制,包括為經審核的安全專業人員設立的可信存取計畫。OpenAI 在推出聲明中表示,目前尚未有「確鑿證據」顯示該模型能完全自動化網路攻擊,但仍採取預防性措施,部署其迄今最全面的網路安全防護架構,包括強化監控、安全訓練,以及結合威脅情資的執法機制。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。