(SeaPRwire) – 本月稍早,知名人工智慧研究員 Andrej Karpathy 在 X 上爆紅。他曾是 OpenAI 的創始員工之一,後來擔任 Tesla 的人工智慧主管。這本身並不那麼不尋常。Karpathy——他現在是一名獨立的人工智慧研究員,也是 Eureka Labs 的創辦人,該公司聲稱正在為人工智慧時代創建一種新型學校——在 X 上擁有 190 萬粉絲,他的聲譽使得他關於人工智慧的任何言論幾乎都被視為真理或預言。
但這篇貼文是關於他進行的一項實驗,他讓一個人工智慧編碼代理執行一系列實驗,以找出如何改進小型語言模型的訓練。他讓這個人工智慧代理連續運行了兩天,在此期間它進行了 700 次不同的實驗。在這些實驗過程中,它發現了 20 項優化,縮短了訓練時間。
Karpathy 發現,將相同的 20 項調整應用於一個更大但仍然相當小的語言模型,使其訓練時間加快了 11%。Karpathy 將他為進行這項實驗而建立的系統稱為「autoresearch」。
Shopify 的共同創辦人兼執行長 Tobias Lütke 在 X 上發文表示,他嘗試使用 autoresearch 來優化公司內部數據上的人工智慧模型,指示代理改進模型的品質和速度。Lütke 報告說,讓 autoresearch 運行一夜後,它進行了 37 次實驗,並帶來了 19% 的性能提升。
許多人關注的是,autoresearch 接近於科幻小說中最初提出的自我改進人工智慧系統的概念,一些人工智慧研究人員熱切渴望,而另一些人則深感恐懼。人們擔心,「遞歸式自我改進」(即人工智慧以一種循環的方式不斷優化其自身的代碼和訓練)可能導致人工智慧安全研究人員有時稱之為「硬起飛」或「智慧爆炸」。在這些情境中,人工智慧系統迅速提高其自身性能,導致其超越人類認知能力並擺脫人類控制。
Karpathy 的實驗並非如此。autoresearch 設置的核心人工智慧代理並非在改進其自身的訓練設置,而是在調整一個不同、更小且複雜程度較低的人工智慧模型的訓練代碼和初始神經網路設置。但 Karpathy 正確地指出,他的實驗對於未來人工智慧實驗室如何進行研究具有重大意義,這可能會加速他們的進展。
「所有大型語言模型前沿實驗室都會這樣做。這是最終的魔王戰。」Karpathy 在 X 上寫道。他承認「當然,在規模上會複雜得多」,因為他的 autoresearcher 只需擔心調整一個包含在 630 行 Python 代碼中的模型和訓練過程,而前沿人工智慧模型的訓練代碼庫則要大得多。「但這樣做『只是工程』,而且會奏效。」他繼續說道。「你啟動一群代理,讓它們協作調整較小的模型,將最有前途的想法推廣到越來越大的規模,而人類(可選地)在邊緣貢獻。」
他說,雖然他目前建立的 autoresearch 系統是為單一代理設計的,以沿著單一路徑持續改進一段代碼,但未來他設想多個人工智慧代理將能夠並行探索不同的優化和不同的實驗。「autoresearch 的下一步是,它必須是代理之間大規模的異步協作。」他寫道。「目標不是模仿一個博士生,而是模仿一個由他們組成的研究社群。」
Karpathy 還說了關於 autoresearch 的另一件事,這讓許多人感到興奮。「*任何*你關心的、可以合理高效評估的指標(或者有更高效的代理指標,例如訓練一個較小的網路)都可以由代理群進行 autoresearch。」他寫道。「值得思考你的問題是否也屬於這個範疇。」
一些評論員指出,autoresearch 的基本組成部分可以用於許多其他代理系統來優化一個過程。Janakiram & Associates 的首席分析師 Janakiram MSV 在科技出版物 The New Stack 中將此稱為「Karpathy 循環」。它有三個組成部分:一個代理,可以訪問並修改單個文件;一個單一的、客觀可測試的指標,代理可以為之優化;以及每個實驗可以運行的固定時間限制。他還強調,Karpathy 在 autoresearch 中給予人工智慧代理的指令,對於任何與人工智慧代理互動的人來說,也是很好的範例。Karpathy 使用的純文本文件包括了代理應該做什麼的清晰指令、限制(告訴代理不應該做什麼或改變什麼),以及停止標準(指示每個循環應該運行多長時間以及代理何時應該停止循環並報告其結果)。
但一些批評者表示,Karpathy 所做的不過是重新發現了 AutoML 過程的一部分,Google、Microsoft 和其他人工智慧實驗室的研究人員已經使用多年。AutoML 也使用優化循環和一系列實驗來找到用於人工智慧的最佳數據、最佳模型架構,並調整該模型架構。但它不使用能夠閱讀人工智慧研究論文並提出改進假設的人工智慧代理。AutoML 系統傾向於依賴隨機變異或各種演化算法來決定嘗試哪些更改。
Karpathy 回應了其中一些評論,稱某些 AutoML 方法,例如神經網路架構搜索(一種自動優化人工智慧模型設計的方法),遠不如他的 autoresearch 強大。「當時的神經網路架構搜索是如此弱的版本,以至於相比之下它完全屬於無用的一類。」他寫道。「這是一個*真正*的大型語言模型,可以編寫任意代碼,從先前的實驗中學習,並可以訪問互聯網。兩者根本無法相比。」
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。