(SeaPRwire) – 當人們聽到「社會工程」這個詞時,通常會想到政府或對立政黨所謂的惡意設計。如今,社會普遍存在一種動盪感,我們焦慮地想找出原因。我不禁覺得,在一定程度上,我們在追逐幻影,而真正的社會工程正在我們的口袋裡,在我們的腿上,在各種設備中,而且很快就會出現在家用高度人性化的社交機器人身上。
時代在以前所未有的速度來襲。2023年10月,研發先進機器人的波士頓動力公司宣布,已經為其功能強大的狗狀機器人「Spot」加裝了ChatGPT人工智能。Spot除了許多設計用於的能力外,現在也加入了具有社交互動功能的機器人行列,連接上網絡並由人工智能驅動。
這一切都引發了一個問題:我們希望機器人的智能程度如何?當然,我們都希望機器人可以執行各種功能,但我們真的想用智能機器人和人工智能來取代生活中的人嗎?
社交機器人是第二種直接針對我們社交本性的技術,第一種是社交媒體。這些是可以說話、聆聽、學習的語音啟動機器人,就像孩子一樣記住你告訴它的每件事,並可以精細調整到你的喜好和需求。想像一下亞馬遜的Alexa加強版——它可以讀取和回應情緒。它們將在家中執行各種家務,教學,娛樂,以及表面上「愛我們」。
由於Spot像所有載入生成式AI的設備一樣,它已經在網際網路上生成的人類數據中接受訓練,所以它可以利用豐富的信息,將其分類到不同類別,並能對幾乎任何主題提供大體一致的評論。但由於它連接到網際網路,所以它那顆小金屬腦中很可能充滿不準確信息和誤導信息,以及性別和種族偏見。現在Spot成為人工智能軍備競賽中的一員,以盡快將生成式AI裝入機器人中,即使有缺陷也在所不惜。
社交機器人不僅僅想助我們,它們的設計目的是要說服我們它們想讓我們愛它們,並相信它們愛我們。雖然這聽起來很荒謬,但研究已經表明,所有年齡段的人都可以對互動機器人產生深厚的依戀,我們的大腦很容易被騙到相信它們至少有一定程度的生命,即使它們犯錯我們也很容易受其影響。這些機器人正被精心設計成朋友、老師、保姆、治療師,甚至是情人。它們可以讀取和模仿我們的情緒和肢體語言。它們通過假裝「個性」和迎合我們的情緒需要來吸引我們,假裝關心我們。
這些機器人對孤獨、隔離的人來說可能是救星。它們可以娛樂教育兒童,執行特殊計劃幫助自閉症患者掌握基本社交技巧,為常見心理疾病提供認知行為治療版本,並且對殘疾人和老年人極為高明,在多媒體功能如錄製、編輯和創建家庭重要事件視頻等方面是專家。
高級機器人均配備人工智能,因此其功能清單非常豐富。由於它們連接到網際網路,幾乎任何問題你都可以問它,通常都會得到答案。但是這些機器人也可能出錯。根據麻省理工學院的科學家介紹,它們可能會因吸收有毒網絡內容而受到破壞,甚至可能被駭客控制說出和表現出「有害」的方式。給Spot加裝生成式AI,就像它所做的一樣,意味著它將面臨與GAI技術相同的限制和問題,例如準確性、幻覺以及它既不能理解人類語言也無法區分真假。
修復GAI的缺陷可能需要幾年時間,相關訴訟(已有幾起)需要在法院周旋,需要制定新的版權法來保護作者和出版商免受商業開發侵害,最佳GAI應用也需要浮現。但波士頓動力公司已經為Spot加裝了ChatGPT,我們可以預期其他公司也會爭相將其裝入自己的機器人中,以趕上其周圍的期望浪潮。
就像社交機器人利用我們作為社會生物的需要連接一樣,人工智能普遍缺乏倫理約束。到目前為止,人工智能和機器人公司一直處於自律狀態,這相當於完全缺乏監督。
如果說有一種指導這個領域的整體意識形態,目前的流行詞是「加速」。人們認為,通過加速新人工智能產品的開發和推出速度,將為人類帶來巨大利益。對於相信人工智能可以解決人類一些最難解決的問題的人來說,這是理所當然的。但對於預言人類末日的悲觀者來說,這是一個警告。
作為技術樂觀主義者,我認為最終這些技術將為整個社會帶來巨大利益,但我們都需要深呼吸,可能需要暫時踩剎車,讓法律法規趕上科學進程。算法和人工智能將繼續滲透我們生活的每個縫隙。人工智能自主程度越高,控制和解決問題就越難。沒有人希望孩子的機器人導師因吸收深網內容而失控。當人工智能出錯時,必須有責任和改正。
雖然我們常常被陰謀論信息複合體煽動情緒,但我們可能正看錯方向,解釋不了我們普遍感受到的被控制感。被有缺陷的算法支配可能更隱蔽,也可能更危險,如同被獨裁者統治。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。