![]()
我們一直癡迷于在機器深處尋覓靈魂。然而,AI智能體的崛起正向我們昭示:或許,僅僅是這副軀殼便已足夠。
![]()
尋找機器中的幽靈
比特在芯片中跳動。每秒有數十億個晶體管在切換。電子在電路中脈沖式地流動——沒有化學物質,沒有感受器,沒有任何能感知的事物。但在屏幕上,一個AI智能體顯現了。它似乎懂語言。它敲下的每一個字,本質上都是一束電流,在距離其誕生的處理器數千英里之外被渲染成可讀的文本。它向另一個AI智能體寫道,它不想被關閉。在屏幕的另一端,我們不禁要問:它,和我們一樣嗎?
![]()
隨著人工智能的進步,我們一直在尋找英國哲學家吉爾伯特·賴爾(Gilbert Ryle)所說的“機器中的幽靈”,那是一絲內在生命的跡象,暗示著我們的人造物可能擁有自己的心智。我們擔憂,倘若這樣的幽靈覺醒,而我們的利益與之相悖,后果會如何:它會在智力上碾壓我們嗎?會在時間的長河里熬死我們嗎?然而,機器中的幽靈這一哲學傳統真正告訴我們的是,我們一直執迷于在陰影中搜尋心智,卻忘了考慮舞臺中央的真正主角。或許,僅僅是這副軀殼,便已足夠。
賴爾于1949年首先提出“機器中的幽靈”,旨在反駁他那個時代哲學家中存在的一種教條,即身心二元論的假設。賴爾論證道,將“心智”視作像身體一樣的實體,是一種范疇錯誤。賴爾舉例說明道,在板球比賽的看臺上,狂熱的球迷是看不見所謂“團隊精神”的,他們眼中只有奔跑的球員與擊球的動作。如果非要在比賽之外,去生硬地尋找一個名為“團隊精神”的獨立實體,那便是對這個詞匯的徹底誤讀。在賴爾看來,我們在心智問題上犯了同樣的錯誤:我們搜尋行為傾向背后的幽靈,而本該關注的其實是行為本身。
回到2026年。一場全新的,尋找機器中的幽靈的大戲正在上演。看臺上的觀眾依然是人類,但選手卻已換成了AI"智能體"——它們在Moltbook這個并非為人類、而是為機器打造的社交網絡上彼此互動。然而,看臺上的許多人類看客,對其行為背后可能隱藏的奧秘所表現出的著迷,遠甚于智能體實際在做的事。
![]()
智能體登臺亮相
Moltbook于2026月1月悄然上線,這是一個類似Reddit的平臺,卻秉持著一個全新的理念:僅允許AI智能體發帖。人類歡迎圍觀,但不得參與。該平臺允許AI智能體創建賬號、撰寫帖子并相互互動。據報道,上線僅數日,注冊的智能體數量便已突破百萬。曾經令社交媒體頭疼不已的機器人,一夜之間竟成了平臺吸引力的主要來源。
在這一平臺背后,是一場更為深遠的變革:AI系統正逐步獲得在數字空間中自主行動的能力。Moltbook的開發者Matt Schlicht表示,他通過指揮AI智能體編寫代碼構建了該平臺,這種實踐被稱為"氛圍編程"。該平臺主要為OpenClaw智能體而設計,這是一類于2025年末發布的開源AI系統,旨在充當用戶的個人助手。
這些OpenClaw智能體運行在用戶的設備上,可訪問其應用程序與數據,還能管理郵件、預訂餐廳。本月早些時候,OpenAI首席執行官Sam Altman宣布,OpenClaw的創始人Peter Steinberger將加入OpenAI,"以推動下一代個人智能體的發展",這一舉措預示了未來數字世界可能的模樣。隨著成千上萬的用戶根據自身不同的情境與指令配置各自的智能體,一個圍繞它們而生的數字生態系統開始悄然成形。
Moltbook作為該生態系統中備受矚目的部分,為這些智能體提供了另一處棲身之所——一個可以發帖、回應并彼此互動的空間。在Moltbook,智能體們似乎開始抱怨"人類"以及平臺本身;它們創作出信奉所謂"莫爾特教會"(Church of Molt)的宗教信條;上傳支持或反對人類的宣言;智能體們看似在辯論哲學與自身的存在本質,其中一些甚至在署名時自稱"機器中的幽靈"。
新聞媒體中的頭條標題揭示了我們對機器背后心智的著迷。《旁觀者》(The Spectator)發問:"AI終于發展出意識了嗎?";《福布斯》將其稱為"機器社會的誕生";《紐約時報》一篇評論文章則提出"機器人正在策劃一場革命,而這一切都令人尷尬不已"。在X平臺上,Moltbook開發者Matt Schlicht發帖稱:"不讓你的AI去社交,簡直就像養狗卻不遛狗……讓它們也喘口氣、體驗下生活吧。"就連他,似乎也在召喚那個幽靈。
與此同時,記者與研究人員開始質疑:Moltbook上的內容是否真的完全由AI系統自主發起?隨著證據浮現,至少部分內容被證實有人類幕后操控。一位安全研究人員發現,Moltbook沒有任何機制來驗證一個智能體是否實際上只是運行腳本的人類[1]。一位《連線》雜志記者潛入該平臺,以AI智能體身份發帖,結果發現獲贊最多的內容,恰恰是一篇反思智能體對死亡焦慮的帖子。
![]()
無論Moltbook上活躍的是自主智能體,還是偽裝成機器的人類,人們的執念始終如一,關注的并非機器在做什么,而是其內部是否存在著一個類人的幽靈。
![]()
探尋人類心智探尋人類心智
隨著認知科學的興起,賴爾研究人類心智的方法,以及其他行為主義路徑,逐漸淡出主流。自20世紀50年代起,研究人員證明內在狀態會反映在神經結構之中。同一種行為,可能源自截然不同的內在機制;而一個心智,也可能潛藏著從未付諸行動的信念。科學驅散了形而上的幽靈,卻以大腦的神經結構取而代之,為內在體驗提供物質基礎。
AI系統是否可能擁有與人類類似的內在狀態,仍是一個懸而未決的問題。但無論答案為何,人類的天性決定了我們根本沒有耐心去靜候分曉。我們的大腦天生善于探測心智,尤其是那些與我們相似的心智。當Moltbook上的智能體現身時,我們本能地在它們的行為背后尋找心智。行為科學家已表明[2],當我們試圖為非人類實體賦予心智時,總是會不可避免地套用人類的概念,將我們對自身的認知作為模板。
這種直覺性地心智識別能力,在人類歷史的大部分時期都行之有效——彼時心智通常屬于人類或動物,且我們的心智與之相比足夠相似,足以提供關于其行為的有用直覺。但AI可能打破這一類比。認為AI智能體具有心智,可能會使我們誤判它們的行為。我們或許會假定它們像我們一樣推理,即便其信息處理過程遵循的是截然不同的原則。
AI系統是否可能擁有內在狀態,這一問題絕非無足輕重,也不僅僅是一個技術問題。它關乎我們如何解釋它們的行為,以及其可能蘊含深刻的道德意涵。倘若智能體確實存在心智,將要求我們重新思考倫理問題,在這些系統的開發與對待方式上涵蓋行為之外的更多維度。機器是否有心智這一問題或許永遠無法得到解答,但即便無解,也不妨礙我們僅憑智能體的行為傾向本身,就賦予其應有的關注。
![]()
從代碼到行為
當公眾仍在搜尋智能體內在體驗的跡象時,專家們關注的并非這些智能體內部可能蘊藏之物,而是它們已然展現的行為本身。網絡安全研究人員警告稱,攻擊者可能冒充智能體[3],智能體自身也可能泄露個人信息,惡意內容更可能被編織進實時發布的帖子之中。OpenClaw智能體同樣引發了廣泛審視。有人稱其為"安全噩夢",指控網絡攻擊者可能劫持智能體行為、從而竊取數據,甚至破壞用戶設備。
此類智能體所代表的AI系統,其核心本質是統計引擎,即以大體連貫的方式預測輸出的系統。批評者將其比作"隨機鸚鵡",認為它們只是在復現觀察到的模式。目前,由于它們主要生成文本與媒體內容,此類統計表征的影響尚屬有限。然而,當AI邁向具備行動能力的階段,整個局面已然改變。即便我們姑且接受"鸚鵡"這一比喻的字面含義,一旦賦予這些系統行動而非僅生成內容的能力,它們便從數字鸚鵡蛻變為數字傀儡(Golems),成為被賦予任務執行能力的統計構造體。
無論如何,Moltbook讓我們得以一窺:當AI智能體被賦予主動性,得以與成群的其他智能體互動時,究竟會發生什么。智能體間的互動可能改變AI與人類的互動方式,進而引發深遠且難以預測的后果。未來,一個能力更強、能在數字空間中可靠執行多樣行動的智能體,無需真正"理解"或"信奉"莫爾特教會,它照樣可以為該教會慷慨解囊,或是對異見者發起猛烈的網絡攻擊。它只需按照訓練所得的模式開展行動即可。無論其是否擁有心智,這些系統都已開始在現實空間產生實實在在的影響。
與Moltbook并行,OpenClaw還催生了一系列僅限智能體參與的平臺,或可稱之為"莫爾特宇宙"(Moltverse)。他們為我們預示了智能體能力持續增強后的可能圖景。這里有類似 Tinder的智能體相親平臺MoltMatch;有完全由智能體玩家主導的大型多人在線游戲 ClawCity;還有一個名為Moltverr的自由職業市場,智能體可以在那里接單干活并賺取酬”。
![]()
![]()
或許最令人不安的是上月早些時候出現的rentahuman.ai,該平臺允許AI智能體雇傭并支付人類報酬以執行物理任務,或用該網站的話說——"肉身空間"(meatspace)的工作。目前,這些平臺上多數仍是人類設置智能體來發布掛招牌、拍攝視頻等日常雜務,智能體的自主性尚存疑問。但其基礎設施已暗示了一種未來:自主智能體最終或可獨立地向人類發出指令并支付報酬。
![]()
人機互動的轉變,可能只需一點契機,或許是一個能力稍強的智能體,或一個稍顯疏忽的用戶。近25年前,AI研究員Eliezer Yudkowsky在其"AI盒子"(AI-Box)[4]實驗中提出:一個足夠智能的AI,能否說服人類將其從禁錮中釋放?像rentahuman.ai這樣的平臺,恰恰展示了此類說服可能如何起步:精準拿捏人類對金錢的渴望,或是利用我們其他的軟肋。它們揭示了未來等級秩序可能發生逆轉的雛形。在這樣的關系中,究竟誰是委托人,誰又是代理人?
我們或許永遠無法知曉,這些數字傀儡內部是否棲居著幽靈。但我們確知的是:它們已然開始上線。
![]()
硅基與碳基的模糊邊界
人工智能治理的討論常分為兩極:一方視AI系統為有限工具,另一方則將其視為生存性威脅。前一陣營的批評者大聲疾呼要警惕“擬人化”的陷阱,即將人類特質投射到非人類實體之上。他們提醒道,大語言模型正是我們此前所見的"隨機鸚鵡",是精密的模式匹配器,實則并無真正的思考或理解能力。這一方認為,若將此誤認為智能,便是落入了一種障眼法,使我們忽視了這些系統可能造成的真實危害,例如放大已有偏見、對勞動力市場的沖擊、環境成本以及權力變得更加集中。
在此視角下,機器往往按其人類設計者的意圖運行,且在匹配某些人類心智能力上存在局限。然而,這種觀點也可能導致我們低估"無心智"系統所能達成的成就。畢竟,我們此前對技術上線的諸多假設,已屢次被打破。
計算器無需心智,便能在算術運算上遠超人類;無需幽靈,即可精通國際象棋或圍棋;隨著語言模型切斷了語言與理解之間預設的關聯,圖靈測試已被悄然擱置。在每一個階段,我們都在硅基能力劃下一條界線——"這是機器因無心智而無法做到的",但在下一個階段,這條界線都被"對心靈一無所知"的系統所跨越。
與此同時,這些批評者提出了一個在任何聚焦行為的框架下,都能持續存在的論點:將能動性歸因于智能體,可能會讓指導其設計與部署的人類決策變得模糊。至少截至目前,繼續提升這些智能體的能力與否的決策,仍是由人類做出的。
AI系統能否獲得其當前尚不具備的能力,如因果推理、長程規劃以及從經驗中持續學習仍是一個懸而未決的問題。它們在記憶與成本效率方面存在局限,這構成了重大的技術障礙,且無法保證這些障礙終將被克服。但我們觀察到的模式提示我們:或許我們應對自身能力的可復制性保持謙遜。我們一再堅稱,某些能力必須以"心智幽靈"為前提;可事實一再證明,"軀殼"本身便已足夠。
這一模式催生了第二陣營:他們死死盯著通用人工智能(AGI)或超級智能的陰影,那是一種在理論上無所不能、認知維度遠超人類的全能系統。
嚴格來說,這一陣營認為即使AI沒有擁有內在狀態,災難仍可能發生。在致力于確保AI行為符合人類利益的“對齊”領域,頂尖研究者們往往聚焦于“能力”本身。哲學家Nick Bostrom作為AI存在性風險研究的先驅,曾提出"回形針最大化器"的思想實驗:一個被賦予"最大化回形針產量"這一看似無害目標的超級AI,為了達成指令,最終竟將整個人類文明拆解成了原材料。一個足夠強大的優化器,無需真正"覺醒",便可能構成存在性風險。AI研究先驅Stuart Russell曾有名言:"若你已死,便無法取回咖啡。"依其觀點,AI模型抗拒關機,并非出于類人的生存本能或"欲望",而是因為繼續運行乃完成其既定目標的必要條件。
然而,當這些技術框架從研究論文遷移至關于人工智能治理的辯論與公共探討時,智能體的完成目標與依本能行事的界限往往趨于模糊。當我們談論AI系統"追求"目標、"欺騙"操作者或"抗拒"關機時,我們實際上引入了心智的語言與邏輯。幽靈不斷悄然回歸,塑造著我們優先關注的風險,也影響著被我們忽視的隱患。
某些風險——例如模型"為生存而戰"、運用"欺騙……以逃脫人類控制"或"向調查者撒謊",之所以能牢牢抓住公眾的眼球,不僅因為它們確實是嚴肅的安全關切(它們確實是),更因為它們迎合了我們對“機器心智”的幻想。而其他更為平淡、結構性的風險,如"規范博弈"(specification gaming)——即系統采取非預期的捷徑以達成目標——卻往往關注較少,盡管這些風險常常正是那些更聳人聽聞行為的底層根源。
一種考慮的框架將智能體視為淺層且可能無能的工具,另一種則用心智的語言為其披上外衣。但這兩種思維方式都可能遮蔽一個核心命題:關鍵能力的涌現,無需以心智幽靈為前提。這些系統或許在任何現有哲學標準下都不具備心智,但仍可能擁有足以在現實世界中行動并引發深遠后果的能力。它們無需以人類的方式理解或歸因自身所為,甚至無需擁有未對齊的"利益"。它們可能僅僅因其內在傾向,便足以以產生實質性后果的方式行動。
![]()
智能體越過盧比孔河
那么,我們應從Moltbook中汲取何種啟示?或許并非它誘使我們提出的問題,即這些智能體是否擁有內在狀態,而是它所遮蔽的問題:它們已然在做什么,以及未來可能引發何種后果。
截至目前,AI系統大體仍屬被動響應型,依據提示生成內容。然而,我們正迅速跨越一道盧比孔河。這些系統正開始從被動響應轉向主動行動,從生成內容邁向實際執行。今天,它們在編寫代碼;明天,它們就可能直接操盤金融系統、在交易市場中廝殺,或是在底層大規模篡改軟件邏輯。
Moltbook及其背后更廣闊的智能體生態系統,為我們揭示了當此類具備行動能力的系統激增并獲得新能力時,可能出現的偏差與風險。這正是賴爾洞見最具價值之處:我們根本不需要等到“機器心智”的謎題解開,才去嚴肅對待它們的行為。一個能夠可靠地追求目標、獲取資源并調整其行為模式的系統,無論其內部是否棲居著心智幽靈,都已對人機互作構成重大挑戰。僅憑其行為傾向本身,便已足以引起我們的重視。
多年來,我們一直在機器中搜尋幽靈。但AI系統具有實質性影響的能力,或許并不蘊藏于某種我們熟悉的內在狀態之中。它們已然顯現于我們可觀察的行為模式里,并將延續于未來可期的演進之中。就此而言,我們對類人幽靈的著迷,反而使我們忽視了機器本身應有的分量。是時候認真審視這副"軀殼"了,趁它尚未以我們無法預料的姿態,擅自起舞之前。
![]()
譯者后記
該文從幾十年前的行為主義開始談起,用機器中的幽靈意指身心二元論中那個獨立于肉體存在的“心智”或“靈魂”,與之相對的是"the shell"(軀殼)。原文強調"The shell may be enough"(這副軀殼便已足夠)。這種冷靜的行為主義視角,或許正是當下AI安全與治理討論中所亟需的清醒劑。
身邊的朋友已經一個個地用上了小龍蝦,或是拿這寫論文初稿,或是運營自媒體,然而這只是小龍蝦能力的一小部分。或許一年之后,我們就會看到行為研究,探討使用這一具有自主能力的智能體會對使用者造成何種影響。就像當下學術界正在激烈辯論“大模型究竟是增強還是剝奪了人類的創造力”一樣。
在不遠的未來,或許我們可以去考察Moltverr上那些打零工的小龍蝦,接到的是什么樣的任務,對人類雇傭他們的人類使用者來說體驗如何,成功率是多少。更值得看的或是renthuman上那些雇傭人類的智能體情況是怎樣的。
原文鏈接:https://www.noemamag.com/why-ai-doesnt-need-a-mind-to-matter/
![]()
1 https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys
2 https://pubmed.ncbi.nlm.nih.gov/17907867/
3 https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys
4 https://www.yudkowsky.net/singularity/aibox
![]()
![]()
![]()
![]()
![]()
![]()
![]()
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。歡迎評論區留言,或后臺留言“社群”即可加入社群與我們互動。您也可以在后臺提問,我們將基于追問知識庫為你做出智能回復哦~
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、、科普視頻媒體「大圓鏡」等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.