Meta的人工智能首席科學家Yann LeCun談人工一般智能、開源和人工智能風險

(SeaPRwire) –   Meta 的首席人工智能科學家,在星期日因其對人工智能領域的貢獻,獲得了 TIME100 Impact Award,這是他漫長的列表中獲得的另一個獎項。

在迪拜舉行的頒獎典禮前,LeCun 坐下來與 TIME 討論了實現「人工通用智慧」(AGI)的障礙、Meta 的開源方法的優點,以及他認為人工智能對人類構成生存威脅的「荒謬」說法。

TIME 於 1 月 26 日與 LeCun 進行了對談。此對談經過濃縮內容,並經過編輯,以利更清楚理解。

現今科技界的許多人認為,在大規模的運算能力和更多數據上訓練大型語言模型 (LLM) 將會獲得人工通用智慧。您同意嗎?

令人訝異的是 [LLM] 運作的方式,如果您在大規模上訓練它們,但它非常有限。我們看到如今這些系統產生幻覺,它們並未真正理解真實世界。它們需要大量數據才能達到最終不是那麼高明的智慧程度。而且它們無法真正的推理。除了它們受訓過的東西之外,它們無法計畫任何事情。因此它們不是人們所謂「AGI」的道路。我討厭這個詞。它們很有用,毫無疑問。但它們不是通往人類智慧層面的道路。

您提到您討厭「AGI」這個縮寫詞。這是馬克·祖克柏在 1 月使用過的詞彙,當時他宣佈 Meta 正朝著建構人工通用智慧為組織的主要目標之一的方向前進。

那裡有很多誤解。因此 FAIR [Meta 的基礎人工智能研究團隊] 的任務是人類智慧層面。這艘船已經啟航了,我輸掉了這一仗,但我不想稱之為 AGI,因為人類的智慧一點也不普遍。智能生物具有人工智能系統目前不具備的特性,例如理解物理世界;規劃一系列動作來達到目標;以可能需要很長時間的方式進行推理。人類、動物有我們用作工作記憶的大腦特殊區域。LLM 沒有那個。

嬰兒在生命的前幾個月中學習世界是如何運作的。我們不知道如何 [以人工智能的方式] 這麼做。一旦我們有了透過只是觀察世界運轉來學習「世界模型」的技術,並將這項技術與規劃技術結合起來,也許再與短期記憶系統結合起來,那麼我們可能會擁有一條通往,不是通用智慧,而是讓我們稱之為貓級智慧的道路。在我們達到人類的層面之前,我們將必須經歷更簡單形式的智慧。而我們離那裡還很遠。

在某些方面,這個比喻是有意義的,因為貓可以觀察世界,並學習最先進的 LLM 根本無法學習的東西。但之後,貓無法獲得人類知識的完整摘要歷史。這個比喻受到多大的限制?

這裏有個非常簡單的計算。大型語言模型受過網路中公開提供的完整文字,大致上是這樣。通常,那是 10 兆個符號。每個符號大約是兩個位元組。所以受訓數據量是 2 乘以 10 的 [乘方] 13 個位元組。然後您說,天啊,這令人難以置信,人類需要 170,000 年才能讀完這些內容。這只是難以置信的大量數據。但之後您與發展心理學家交談,他們告訴您 4 歲的孩子已經清醒 16,000 小時了。然後您可以嘗試量化它在四年期間接收了多少資訊到它的視覺皮層。視覺神經大概每秒 20 百萬位元組。所以每秒 20 百萬位元組,乘以 60,000 小時,再乘以每小時 3,600 秒。那等於 10 的 [乘方] 15 個位元組,是 170,000 年的文字內容的 50 倍。

對,但是文字編碼了人類知識的完整歷史,而 4 歲孩子獲得的視覺資訊僅編碼了關於世界、基本語言和類似事物等基本 3D 資訊。

但你說的是錯的。人類知識的絕大部分都無法以文字表達。它在你大腦的潛意識部分裡,你在學會說話前生命的第一年裡學到的。大部分知識都與我們對世界及其運作方式的體驗有關。這就是我們所說的常識。LLM 沒有這些,因為它們無法訪問它。所以它們可能會犯下非常愚蠢的錯誤。這就是產生幻覺的原因。我們完全認為理所當然的事情,對於電腦來說卻非常複雜,難以複製。因此 AGI 或人類智慧並不近在眼前,它將需要一些非常深層的感知變化。

我們來談談開源。您在您的職業生涯中一直都是開放研究的倡導者,Meta 也採用了一項政策,有效地公開其最強大的大型語言模型,最近公開的是。這個策略讓 Meta 在 Google 和 Microsoft 之間獨樹一幟,而後兩者並沒有公開其最強大系統的所謂權重。您認為 Meta 的方法在它的人工智慧變得越來越強大,甚至接近人類智慧層面時,是否仍然合適?

最優先的答案是肯定的。它背後的原因是,在未來,每個人與數位世界的互動,以及更廣泛的知識世界,都將由人工智能系統來調解。它們基本上將會擔任始終陪伴著我們的人類助理的角色。我們不會再使用搜尋引擎。我們只會向我們的助理提問,它將幫助我們解決我們日常生活中的問題。因此我們整個資訊飲食都將由這些系統調解。它們將構成所有人類知識的儲存庫。而您無法對專有的、封閉的系統有這種依賴,尤其是考量語言、文化、價值觀、全世界各地利益核心等因素的多樣性。這就像是您說,您可以讓某個西岸美國的商業實體製作維基百科嗎?不行。維基百科之所以有效,是因為它是眾包的。因此人工智能系統也將會是如此,他們必須在世界上所有人的共同協助之下接受訓練,或至少進行微調。而人們只有在他們能夠投稿到廣泛可用的開放平台時,才會這麼做。他們不會為專有系統這麼做。因此未來的發展必定是開源的,至少是因為文化多元性、民主、多元性。我們需要一位多元的人工智慧助理,就像我們需要一份多元報紙一樣。

您經常聽到的批評之一是,開源可能會讓非常強大的工具落入濫用它們的人手中。而且如果攻勢能力與防禦能力之間存在某種程度的不對稱,那麼這對整個社會而言可能非常危險。是什麼讓您確信那將不會發生?

關於這一點有很多說法,基本上都是完全的幻想。事實上剛剛由 RAND Corporation 發表了一份報導,他們研究了根據目前的系統,對於心懷不軌的人想出生物武器配方而言,它讓這件事變得容易了多少?答案是:沒有。原因是因為目前的系統並沒有那麼聰明。它們接受的是公開數據的訓練。因此基本上,它們無法創造新的東西。它們會從公開數據中重複它們經過訓練的內容,這意味著您可以從 Google 中獲得它。人們一直在說:「天啊,我們需要規範 LLM,因為它們將會非常危險。」這根本不正確。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。

而現在未來的系統是一個不同的故事。因此也許一旦我們獲得超級智慧的強大系統,它們將幫助科學界、幫助醫學界、幫助商業,將會透過同時翻譯消除文化障礙。因此有很多好處。因此存在一個風險效益分析是:盡量保密這項技術是否富有成效,希望能躲過壞人不會拿到它