擔心有自我意識的人工智慧?看章魚就知道了

A two-month-old octopus (Octupus Vulagar

(SeaPRwire) –   就像候鳥準時飛回卡皮斯特拉諾,近代 AI 的新突破也伴隨著「奇點」一類恐懼的死灰復燃,即計算機不受人類控制的技術創新失控。但擔心 AI 會把人類丟進垃圾堆的人可以看看大自然,瞭解當前 AI 能做到什麼和做不到什麼。看看章魚就知道了。現存的章魚是進化奇觀,他們可以變成幾乎任何形狀,並配備了武器庫和隱形偽裝,以及根據挑戰決定使用哪種武器和偽裝的顯然能力。然而,儘管經過數十年的努力,機器人技術仍無法複製這一系列能力(這不足為奇,因為現代章魚是經歷 1 億代進化後的適應性遺產)。機器人技術在創造出 HAL 方面還有很長的路要走。

章魚是一種軟體動物,但它不僅僅是複雜的發條玩具,意識也不僅僅是存取龐大的資料庫。對動物意識最具革命性的看法或許來自已故動物認知研究先驅唐納德·格里芬。幾十年前,格里芬告訴我,他認為範圍很廣的物種都具有一定的意識,僅僅是因為這在進化上是有效的(他在許多會議上重複了這一論點)。所有倖存下來的物種都代表了對生存和繁殖問題的成功解決方案。格里芬認為,鑑於威脅和機會的組合複雜且不斷變化,自然選擇讓即使是最原始的生物具備一定程度的決策力更有效,而不是為每個物種準備所有可能性。

這很有道理,但需要一個警告:格里芬的論點(尚未)達成共識,並且有關動物意識的爭論已經持續爭論了几十年。無論如何,格里芬的假設為理解 AI 的侷限性提供了有用的框架,因為它強調了在複雜多變的世界中硬連線應答的不可能性。

格里芬的框架也提出了挑戰:環境中對挑戰的隨機反應如何促進意識的增長?同樣,看看章魚就能找到答案。頭足類動物已經適應海洋超過 3 億年。它們是軟體動物,但隨著時間的推移,它們失去了外殼,長出先進的眼睛、異常靈活的觸手以及一個複雜的系統,使它們能夠在短時間內改變其皮膚的顏色,甚至質感。因此,當章魚遇到掠食者時,它具有探測威脅的感官裝置,並且它必須決定是逃跑、偽裝自己,還是用一團墨汁迷惑掠食者或獵物。增強每種這些能力的選擇性壓力,也偏愛那些對觸手、顏色等擁有更精確控制的章魚,並且也偏愛那些大腦使章魚能夠選擇哪個系統或系統組合來部署的章魚。這些選擇性壓力可以解釋為什麼章魚的大腦是所有無脊椎動物中最大的,並且比蛤蜊的大得多、複雜得多。

這裡還有一個概念發揮了作用。它被稱為「生態過剩能力」。這意味著有利於特定適應的情況,例如,有利於章魚偽裝系統發展的選擇性壓力,也可能有利於擁有額外神經元來控制該系統的動物。反過來,使控制該能力成為可能的意識可能超越其在狩獵或躲避掠食者中的用處。意識就是這樣從完全實用的、甚至機械的起源中產生的。

儘管聽起來很平凡,但產生現代章魚的信息量大於全球所有計算機的總容量,即使所有這些計算機都專門用於生產一個會決策的章魚。今天的章魚物種是涉及所有可想像的挑戰組合的數十億次實驗的成功產物。這些數十億的生物每時刻都在處理和反應數百萬條信息。在 3 億年的過程中,這累積了一個難以想像的大量試錯實驗。

儘管如此,如果意識可以從純粹的實用能力中產生,並由此產生個性、性格、道德和馬基雅維利行為的可能性,為什麼意識不能從當前正在創造的各種實用 AI 演算法中產生?同樣,格里芬的範式提供了答案:雖然自然可能會朝著意識發展,讓生物處理新穎情況,但 AI 的設計者選擇全面採用硬連線方法。與章魚不同,今天的 AI 的確是一款非常先進的發條玩具。

在我 2001 年寫的

中,研究人員早就開始嘗試製造機器人頭足類動物了。章魚生物學和行為的領先專家羅傑·漢隆參與了這項工作,根據他的說法,進展並不順利。 20 多年後,各種專案已經創造出了章魚的某些部分,例如具有觸手許多特徵的軟機械臂,而現在有許多專案正在開發用於深海探測等任務的特殊用途類章魚軟體機器人。但真正的機器人章魚仍然是一個遙不可及的夢想。

在 AI 目前走上的道路上,機器人章魚仍然只是一個夢想。而且,即使研究人員創造出真正的機器人章魚,章魚儘管是自然界的奇蹟,但它並非《信標 23 號》中的巴特或哈莫尼,也不是《她》中迷人的作業系統薩曼莎,甚至也不是斯坦利·庫布里克《2001 年:太空漫遊》中的 HAL。簡而言之,AI 近年來採用的硬連線模型對於計算機達到人機共情是一個死胡同。

要解釋原因需要回到 AI 炒作的早期。在 1980 年代中期,我諮詢了 Intellicorp,它是第一批將 AI 商業化的公司之一。Thomas Kehler 是一位物理學家,他聯合創立了 Intellicorp 和隨後的幾家 AI 公司,他見證了 AI 應用從幫助航空公司動態定價座位的專家系統到為 Chat GPT 提供動力的機器學習模型的發展歷程。他的職業生涯就是 AI 的活歷史。他指出,AI 先驅們花費了大量時間嘗試開發模式和程式設計技巧,讓計算機像人類那樣解決問題。他認為,一個可能表現出常識的計算機的關鍵,是要理解背景的重要性。麻省理工學院的馬文·明斯基等 AI 先驅設計了將給定背景的各種物件組合成計算機可以詢問和操縱的東西的方法。事實上,這種封裝數據和感官信息的範例可能類似於章魚在決定如何狩獵或逃跑時大腦中發生的情況。Kehler 指出,這種程式設計方法已經成為軟體開發結構的一部分,但它並沒有產生出有感覺的 AI。

原因之一是 AI 開發人員隨後轉向不同的架構。隨著計算機速度和記憶體大幅擴展,可存取的數據量也隨之增加。AI 開始使用大型語言模型,即在大量數據集上訓練的演算法,並使用基於機率的分析來「學習」數據、詞語和句子如何共同運作,以便應用程式隨後能夠對問題產生適當的回應。簡而言之,這是 ChatGPT 的管道。此架構的一個限制在於它是「脆弱的」,因為它完全依賴於訓練中使用過的數據集。正如另一位 AI 先驅羅德尼·布魯克斯在技術評論的一篇文章中所寫,這種機器學習不是海綿狀學習或常識。ChatGPT 沒有能力超越其訓練數據,從這個意義上說它只能提供硬連線應答。它基本上是功能強大的預測性文字

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。