網易首頁 > 網易號 > 正文 申請入駐

不用一個字,MIT團隊讓細胞自動機教會了大模型推理

0
分享至

1970 年,數學家約翰·康威發明了“生命游戲”(Game of Life)。在一塊無限延伸的棋盤上,每個方格非生即死,遵循幾條極其簡單的規則:活細胞如果鄰居太少就會孤獨而死,太多則因擁擠而亡;死細胞恰好有三個活鄰居就會復活。

沒有人下棋,沒有人操控,但這些簡單規則跑起來之后,屏幕上會涌現出滑翔機、脈沖槍、甚至可以模擬圖靈機的復雜結構。半個多世紀以來,這個實驗一直被視為復雜性科學的經典演示,展示簡單規則如何生成無窮復雜的行為。


圖丨康威的“生命游戲”(來源:WikiPedia)

沒人想過這些東西能教 AI 說話。直到現在。

MIT Improbable AI 實驗室 Pulkit Agrawal 團隊在今年 3 月發表了一篇論文,提出了一個聽起來相當不合常理的想法:用類似“生命游戲”的細胞自動機生成的數據,去預訓練大型語言模型。這些數據不包含任何文字、任何語義,只是一個 12×12 網格上像素不斷演化的軌跡。


圖丨Pulkit Agrawal(來源:MIT CSAIL)

但實驗結果顯示,在這些純粹的“動態圖案”上訓練過的模型,在隨后的自然語言學習中表現得更好,困惑度(perplexity)降低了最多 6%,收斂速度加快了最多 1.6 倍。更讓人意外的是,僅用 1.64 億個細胞自動機 token 做預訓練,效果竟然超過了用 16 億個真實英語文本(來自 Common Crawl 數據集 C4)做同樣的預訓練。

這項工作的核心思路可以用一句話概括:語言模型真正需要學習的,可能不是語言本身,而是語言背后的計算結構。


圖丨NCA 預預訓練到語言預訓練的概覽(來源:arXiv)

研究團隊使用的是“神經細胞自動機”(Neural Cellular Automata, NCA),這是經典細胞自動機的一種推廣。傳統的細胞自動機(比如康威的生命游戲)使用固定的規則,而 NCA 把規則替換成了一個小型神經網絡,具體來說是一個 3×3 卷積加上一層 MLP。

每次生成訓練數據時,研究者隨機初始化這個網絡的權重,等于隨機抽取一條全新的動力學規則,然后讓它在網格上跑出一段時空演化軌跡。這些軌跡被切割成 2×2 的圖像塊,映射為 token 序列,再用標準的下一個 token 預測任務來訓練 transformer。

換句話說,模型拿到的每一條序列,都來自一個它從未見過的規則。要預測下一個 token,它必須在上下文中推斷出這條隱藏規則,然后應用它。這和語言模型在真實文本上做的事情存在某種深層對應。

斯坦福大學馬騰宇與 Percy Liang 團隊在 2022 年的工作中就曾論證,下一個 token 預測本質上是一種隱式的貝葉斯推斷:模型從已有的文本中推斷出潛在的“生成概念”,再據此預測接下來會出現什么。NCA 訓練把這個過程提純了。自然語言中混雜著語義快捷方式和共現先驗,模型可以“投機取巧”;而 NCA 數據中沒有任何語義可以依賴,每一個 token 都在迫使模型做純粹的規則推斷。

這套方法被稱為“pre-pre-training”,即在正式的語言預訓練之前,先用合成數據做一輪“預預訓練”。

訓練流程分三步走:先在 NCA 數據上訓練 transformer 的非嵌入層權重,再在自然語言語料(網頁文本、代碼或數學文本)上做標準預訓練,最后是針對具體任務的微調。研究者測試了三個下游語料庫,分別是 OpenWebText(網頁文本,約 90 億 token)、OpenWebMath(數學文本,約 40 億 token)和 CodeParrot(代碼,約 130 億 token),在所有三個領域上都觀察到了持續的改善。


(來源:arXiv)

在推理基準測試上,收益同樣可見。GSM8K 數學推理測試中,NCA 預訓練將 pass@1 從 3.8% 提升到 4.4%;HumanEval 代碼生成測試中,pass@1 從 6.8% 提升到 7.5%;BigBench-Lite 綜合推理測試中,pass@4 從 25.9% 躍升至 36.5%。

絕對數字不算大,這些畢竟是 16 億參數的模型,而非千億級的商用系統,但對照實驗的一致性指向了一個清晰的信號:從非語言數據中習得的某些東西,確實在幫助模型處理語言任務。

那么,到底是什么被轉移了?研究者做了一個拆解實驗:在 NCA 預訓練完成后,選擇性地重新初始化模型的不同組件(注意力層、MLP 層、LayerNorm 層),然后觀察下游表現的變化。結果非常明確:重新初始化注意力權重造成的性能損失最大,遠超其他組件。這意味著注意力層承載了最多的可遷移結構。

MLP 層的效果則因領域而異:在 OpenWebText 上,保留 NCA 階段的 MLP 權重反而會干擾語言學習;但在 CodeParrot 上,影響可以忽略不計。

這一發現和最近 Jelassi 等人(2025 年)對混合專家(MoE)架構的分析形成了一定程度的呼應,那項工作表明擴大 MLP 參數主要增強的是記憶能力而非推理能力。兩相對照,一幅功能分工的圖景浮現出來:注意力層負責學習通用的依賴追蹤和上下文推斷機制,MLP 層則傾向于存儲特定領域的模式和統計規律。正因如此,注意力層從 NCA 到語言的遷移是“萬金油”式的,而 MLP 的遷移效果取決于源域和目標域之間的匹配程度。

研究中另一個值得關注的發現有關于復雜性匹配。團隊使用 gzip 壓縮率作為 NCA 軌跡復雜性的度量,壓縮率低意味著數據更有規律、更可預測,壓縮率高則意味著更豐富的時空結構。他們把 NCA 數據按壓縮率分成幾個區間(20-30%、30-40%、40-50%、50% 以上),分別測試各區間對不同下游領域的遷移效果。

結果表明,網頁文本和數學文本從高復雜度 NCA(50%+ 壓縮率)中受益最大,而代碼領域的最優區間在中等復雜度(30-40%)。有意思的是,這恰好與目標語料自身的復雜度特征對齊,OpenWebText 和 OpenWebMath 的 gzip 壓縮率在 60-70%,CodeParrot 則只有 32%。

這意味著,合成數據不是“越多越好”或“越復雜越好”,而是需要與目標領域的計算特征相匹配。研究者稱之為“domain-targeted data design”,一種自然語言訓練中不存在的調控杠桿。你無法輕易改變英語的統計特性,但你可以調整 NCA 的規則空間、字母表大小、復雜度分布,讓它精確匹配你想要訓練的能力。

這項工作的理論背景可以追溯到幾條學術脈絡。一條是 MIT 同校 Phillip Isola 團隊在 2024 年提出的“柏拉圖表征假說”(Platonic Representation Hypothesis),核心觀點是不同模態、不同架構的 AI 模型,隨著規模增大,內部表征正在趨同,仿佛都在逼近對現實世界的某種共同的統計模型。如果這個假說成立,那么從非語言數據中能學到與語言相通的表征,就不那么令人驚訝了。

另一條脈絡來自 Finzi 等人(2026 年)提出的“epiplexity”概念,它指出對于計算能力有限的觀察者而言,簡單的確定性過程也能生成需要學習才能把握的結構信息。經典信息論認為確定性變換不能增加信息量,但那假設的是全知全能的觀察者;對于一個有限容量的 transformer 來說,生命游戲中涌現的滑翔機和碰撞圖案,確實包含了它必須“理解”才能預測的東西。

關于“為什么 1.6 億 token 的自動機數據能勝過 16 億 token 的英語”,研究者給出的解釋是:在遠低于計算最優規模的 token 預算下(Chinchilla 定律建議 16 億參數模型需要約 320 億 token),自然語言訓練主要在學習淺層的局部模式,比如詞匯搭配、句法片段這些“表面功夫”。

而 NCA 數據由于每條序列都對應一個獨特的動力學規則,多樣性極高,冗余性極低,每個 token 都在訓練模型做深層的規則推斷。加之 Abbas 等人(2023 年)的研究已經表明大規模自然語言數據集內部存在大量語義冗余,NCA 在 token 效率上的優勢就變得可以理解了。

不過,目前這個實驗的規模還限于 16 億參數,距離工業級的千億參數模型還有數量級的差距。NCA 預訓練的增益隨模型規模增大而遞減,400M 模型改善了 8.6%,1.6B 模型改善了 5.7%,這個趨勢在更大規模上是否會完全消失,目前還不清楚。

此外,對于較大字母表(n=10, 15)的 NCA,收益在一定 token 預算后出現飽和甚至下降,說明簡單地“生成更多 NCA 數據”并不是萬能解法。如何從理論上指導合成數據的生成,使其精確匹配目標領域的計算特征,仍然是一個開放的研究問題。

但研究者們的期望不止于此。論文的結尾寫道,他們的最終愿景是完全用干凈的合成數據做預訓練,只在最后階段用少量經過精心篩選的自然語言來獲取語義。當前的“預預訓練”框架是這個范式的早期原型。

參考資料:

1.https://arxiv.org/pdf/2603.10055

運營/排版:何晨龍

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
李斌回應樂道L90“背刺老車主”:“直接現金補償”訴求,公司當期將面臨數億元虧損

李斌回應樂道L90“背刺老車主”:“直接現金補償”訴求,公司當期將面臨數億元虧損

驅動中國
2026-04-23 18:56:09
迪麗熱巴上學時無人追求,看到她早期照片,網友:這誰敢追啊

迪麗熱巴上學時無人追求,看到她早期照片,網友:這誰敢追啊

喬話
2026-04-22 20:36:30
刪改的重災區!90%的人童年看的龍珠第4話,都是被改過的

刪改的重災區!90%的人童年看的龍珠第4話,都是被改過的

動漫心世界
2026-04-23 14:40:59
互聯網是有記憶的,她的黑歷史一大堆啊!

互聯網是有記憶的,她的黑歷史一大堆啊!

BenSir本色說
2026-04-15 22:38:07
64歲港星回廣東老家賣云吞面,一碗只要7塊6,二婚老婆是最大靠山

64歲港星回廣東老家賣云吞面,一碗只要7塊6,二婚老婆是最大靠山

小邵說劇
2026-04-23 16:42:01
今年畢業生1270萬,青年失業率16.9%,不少人又得“靈活就業”了

今年畢業生1270萬,青年失業率16.9%,不少人又得“靈活就業”了

茶余飯好
2026-04-23 17:23:27
造成毛岸英犧牲的罪魁禍首,讓毛主席痛恨得罪人,他們下場如何?

造成毛岸英犧牲的罪魁禍首,讓毛主席痛恨得罪人,他們下場如何?

風笛悠揚聲
2025-12-04 10:08:06
一覺醒來伊朗亮出另一張王牌!或切斷霍爾木茲光纜!比封鎖更管用

一覺醒來伊朗亮出另一張王牌!或切斷霍爾木茲光纜!比封鎖更管用

春序娛樂
2026-04-23 08:22:13
第二次買房,堅持選了邊戶,入住后發現,和“中間戶”差距這么大

第二次買房,堅持選了邊戶,入住后發現,和“中間戶”差距這么大

室內設計師有料兒
2026-04-23 10:22:05
快訊!印度這次下血本了!

快訊!印度這次下血本了!

達文西看世界
2026-04-23 07:30:29
45歲女保姆哭訴:大爺每月給我9千塊工資,但卻讓我每天給他洗腳

45歲女保姆哭訴:大爺每月給我9千塊工資,但卻讓我每天給他洗腳

孢木情感
2026-04-23 17:36:01
風向變了!鄭麗文定調后,藍營紛紛改口,柯文哲說話真難聽

風向變了!鄭麗文定調后,藍營紛紛改口,柯文哲說話真難聽

生活魔術專家
2026-04-23 18:23:07
A股:今天收在4093了,明天,周五行情提前分析!

A股:今天收在4093了,明天,周五行情提前分析!

明心
2026-04-23 15:17:35
最新法規4.30號執行!帶煙出門要留心!不抽不用,也可能違規被罰

最新法規4.30號執行!帶煙出門要留心!不抽不用,也可能違規被罰

復轉這些年
2026-04-22 20:23:34
一碗面30?是在為裝修買單吧?難怪只有兩桌生意

一碗面30?是在為裝修買單吧?難怪只有兩桌生意

阿天愛旅行
2026-04-21 13:54:02
買雙色球別再瞎選!十年數據統計:這5個紅球開出最多

買雙色球別再瞎選!十年數據統計:這5個紅球開出最多

小李子體育
2026-04-23 16:57:47
4月21日俄烏最新:俄羅斯創造的神話

4月21日俄烏最新:俄羅斯創造的神話

西樓飲月
2026-04-21 20:24:18
49年周總理到傅作義家做客,走進胡同發現警衛部隊,下令:快撤走

49年周總理到傅作義家做客,走進胡同發現警衛部隊,下令:快撤走

元哥說歷史
2026-04-23 19:20:03
以“美艷毒梟”“捆綁、酷刑虐待”為噱頭,愛奇藝廣告被指低俗獵奇,網友:凝視女性受虐身體,褻瀆緝毒警

以“美艷毒梟”“捆綁、酷刑虐待”為噱頭,愛奇藝廣告被指低俗獵奇,網友:凝視女性受虐身體,褻瀆緝毒警

封面新聞
2026-04-23 19:28:09
袁詠儀大方分享50歲后消費觀:不買沒必要的,張智霖的反應太搞笑了!

袁詠儀大方分享50歲后消費觀:不買沒必要的,張智霖的反應太搞笑了!

動物奇奇怪怪
2026-04-23 14:29:00
2026-04-23 20:19:00
DeepTech深科技 incentive-icons
DeepTech深科技
麻省理工科技評論獨家合作
16616文章數 514897關注度
往期回顧 全部

科技要聞

馬斯克喊出"史上最大產品",但量產難預測

頭條要聞

女生赴泰過潑水節被賣電詐園 家屬遭威脅報警就"輪奸"

頭條要聞

女生赴泰過潑水節被賣電詐園 家屬遭威脅報警就"輪奸"

體育要聞

萊斯特城降入英甲,一場虧麻了的豪賭

娛樂要聞

王大陸因涉黑討債被判 女友也一同獲刑

財經要聞

關于AI算力鏈"瓶頸" 這是高盛的最新看法

汽車要聞

令人驚艷的奇瑞車 風云A9可不只是樣子貨

態度原創

旅游
手機
數碼
游戲
公開課

旅游要聞

偶遇大理天子莊,村后山頂孤伶伶一屋一樹,難道它叫“天子廟”?

手機要聞

三星研發新型顯示系統,可實現手機平板2D/3D畫面自由切換

數碼要聞

榮耀新旗艦輕薄本開賣,酷睿Ultra X7/X9版半小時電商平臺售罄

《黑旗》RE美女胸變小?原版竟然有這么多大膽穿著!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版