![]()
最近看了一條新聞,韓國教育廣播公司公布了一項AI教育實驗結果,一句話概括就是,AI得來終覺淺,絕知此事要躬行。
這項實驗是今年底在韓國京畿道金浦市一所高中進行的,老師給學生布置作業,要求他們在閱讀指定書籍并撰寫讀后感。
參與實驗的一部分學生被引導完全依賴ChatGPT這樣的生成式AI來完成任務。為了測試AI的替代程度,這些學生完全沒有閱讀原著,而是通過向AI輸入指令,生成了一篇邏輯通順的讀后感,并提交了作業。
不過,在作業提交僅1分鐘后,研究人員對學生進行訪談。結果發現,83.3% 的學生無法回憶起自己剛剛“寫”下的任何核心觀點、金句或文章結構,可謂是零記憶提取。
在隨后的測試中,這些學生幾乎無法從自己的文章中復述出任何細節。文章雖然是他們提交的,但在大腦中卻沒有留下痕跡。
參與實驗的另一部分學生,則用傳統的方法,堅持自己閱讀、思考,并完成讀書報告的學生,在數天后依然能清晰地闡述書中的邏輯,證明了傳統手搓式學習的靠譜。
01
認知外包就是精制糖果,一點點侵蝕大腦
紀錄片中,韓國研究人員在實驗過程中使用了腦電圖(EEG)等監測設備,對比了自主思考寫作和使用AI代寫時大腦的活躍度。結果顯示,使用AI時,大腦負責處理高級邏輯的區域幾乎沒有電流活動,這種狀態被專家描述為認知上的空轉。
實驗中那 83% 的學生表示,點擊提交按鈕的那一刻,大腦就像清空了回收站一樣,因為他們沒有經歷過從無到有的痛苦構建過程。
認知外包的副作用比我之前想象的要嚴重多了。從過去記筆記的小本子,到谷歌地圖,再到現在豆包、元寶、ChatGPT這樣的大模型,他們都可以幫助我們減少大腦認知負擔,可以視為是典型的認知外包工具。
上述實驗中,當使用大模型的學生意識到,生成內容這個任務可以完全交給外部工具時,負責深度加工、邏輯整合、自我監控的區域(如前額葉皮層)活躍度大幅下降。
在ChatGPT的幫助下,學生潛意識里把自己從思考者變成了搬運工。因為沒有經歷“提取信息-轉化邏輯-語言編碼”這個痛苦的內化過程,大腦認為這些信息是不重要的噪音,因此拒絕將其存入長時記憶。
長期使用認知外包工具的人,首先會患上知識的幻覺。簡單說,就是用戶會誤以為能搜索到的信息就是我掌握的知識。
耶魯大學研究人員在2015年就做過搜尋效應實驗,研究者讓一組參與者通過谷歌搜索問題,另一組則不允許使用網絡。結果發現,即便搜索組并沒有真正記住答案,他們在評估自己對無關領域(比如,為什么云彩是白的?)的了解程度時,信心顯著高于對照組。
其次,過度依賴搜索引擎、大模型提供答案,大腦會自動卸載那些它認為可以隨時在外部找到的信息,導致長時記憶萎縮。
在哈佛大學與哥倫比亞大學在2011年進行的保存實驗中,參與者被要求向電腦輸入一些事實。一組被告知“電腦會保存這些信息”,另一組被告知“信息會被刪除”。隨后進行的記憶測試顯示,認為電腦會保存信息的一組,對內容的記憶效果極差。
和我們的肌肉一樣,大腦如何不進行思維鍛煉,也會變懶、變弱。
MIT媒體實驗室EEG腦電圖實在2025年7月發布的一項研究顯示,研究者記錄了學生在自主寫作與ChatGPT輔助寫作時的腦電波。結果顯示,AI組在前額葉皮層負責深度思考和決策的活躍度極低。更令人驚訝的是,在連續使用AI數周后,這些學生在沒有AI輔助的情況下,其腦電活躍度也無法恢復到基準水平。
02
失去批判性,意味著什么?
火的出現讓我們的胃萎縮了,互聯網的出現讓我們的記憶力減退了。而大模型的普及,正在嘗試替代人類的前額葉皮層,也就是代理人類形成邏輯、作出決策。
Halpern批判性思維測評(Halpern Critical Thinking Assessment, HCTA) 被公認為是測量批判性思維最權威的工具之一,由美國著名心理學家戴安·哈爾彭(Diane Halpern)開發。
2025年,由斯坦福大學與哈佛大學心理學系聯合開展,利用HCTA量表對全球超過2000名(其中核心樣本為666名高頻使用AI的專業職場人)受試者進行了為期一年的跟蹤,這也是該測評體系自誕生以來最重要的一次針對性迭代研究。
與傳統的選擇題不同,HCTA 采用“開放式問答+多項選擇”的組合。開放式部分,要求受試者自己構建論點、解釋現象。多項選擇部分,考察受試者在已有選項中識別邏輯謬誤的能力。核心變量是,受試者每日調用生成式AI(如ChatGPT、Claude)處理工作/學習任務的時長與頻率。
研究發現,在高頻使用AI的人群中,這五個維度的表現呈現出明顯的不對稱衰減:
言語推理方面,由于AI傾向于給出平鋪直敘、極度理性的解釋,導致長期依賴者失去了捕捉言外之意和語言復雜性的敏感度,受試者在識別諷刺、隱喻或模糊修辭方面的能力大幅下降。
分析論證方面,80%的高頻使用者在沒有AI輔助的情況下,雖然能夠識別別人的漏洞,卻無法在20分鐘內完成一個邏輯閉環的商業提案。
假設檢驗方面下滑最嚴重,受試者表現出極強的“權威偏見”,即傾向于相信AI給出的第一個結論,不再主動尋找反面證據或設計控制變量。
可能性與不確定性判斷方面,受試者對概率的直覺變得鈍化。因為AI往往以極其篤定的語氣回答問題,受試者習慣了標準答案,而失去了在灰度地帶進行權衡的決策能力。
決策與問題解決方面,陷入路徑依賴。面對全新的、AI訓練庫里沒有的問題,受試者往往表現得無從下手。
03
職場智力斷層已經出現
Halpern批判性思維測評實驗一個更殘酷的發現是,00后一代的批判性思維水平遠低于80后,AI導致的智力斷層已經出現。
具體測試數據顯示,17-25歲的AI原生一代(也就是我們熟悉的00后),在HCTA的總分比35-45歲的群體(大概是80后一代)低了整整28%。研究者擔憂,這預示著一種代際智力斷裂。
Halpern 2025年的研究,提示這樣一種殘酷的現實,批判性思維不是一種學會了就永遠擁有的知識,而是一種不練就會萎縮的肌肉。
當AI原生一代們在職業早期過度依賴AI,雖然產出效率高,但也跳過了通過痛苦思考構建底層邏輯的過程,他們可能會在30歲左右遇到嚴重的認知瓶頸,因無法形成需要對復雜問題的決策、風險評估和架構設計能力,失去上升通道。
在Reddit、脈脈上,資深經理們關于新入職員工的AI 依賴癥的吐糟也開始增多。正如加州大學教授 Anastasia Berg 所警告的:“沒有 AI 輔助,他們甚至無法獨立開啟一項任務。”
那些徹底將思考外包給AI的人,將淪為數字藍領,他們的工作極易被下一個更便宜的AI補丁所取代。那些學會了AI工具,且保有批判性思維的老兵,將成為真正的超級個體,他們既用AI加速,更用人腦把關,這是目前更具競爭力的形態。
哈佛大學和斯坦福大學在 2025 年的一項聯合研究,他們基于 LinkedIn 和 Revelio Labs 的 6200 萬員工數據,發現了一個明確的趨勢,AI 更偏向資深員工。
他們的調查發現,自 2023 年第一季度以來,積極采用 AI 的公司,其初級職位縮減了 7.7%。相比之下,資深員工,也就是需要擁有復雜決策能力的崗位卻異常穩固。
職場智力斷層不僅是指 AI 讓所有人變笨,而是指它剝奪了新人從笨變聰明的進化路徑。
上述研究表明,咨詢業、市場研究、法律助理和基礎編程等行業受損最重。以前需要 5 個初級員工處理的調研數據、合同審核、代碼測試,現在由 1 個資深專家帶兩個 AI 助理就能完成。
這導致了所謂的方尖碑式結構,公司不需要底層的初級人才,這直接掐斷了人才培養的學徒期。
04
集體失智風險大增
今天,數億中國人已經離不開大模型。中國互聯網絡信息中心發布《生成式人工智能應用發展報告(2025)》 顯示,截至2025年6月,我國生成式人工智能用戶規模達5.15億人,普及率為36.5%。
生成式人工智能已經出現某種寡頭壟斷局面。根據研究機構Quest Mobile發布的《2025下半年AI應用交互革新與生態落地報告》,在12月8日至12月14日,豆包周活躍用戶數在全市場AI原生App中居榜首,達1.55億,DeepSeek、元寶分別位居第二、第三,周活躍分別為8156萬、2084萬。
當你習慣了讓豆包和DeepSeek幫你思考,你也就失去了定義世界的話語權。當數億人都在向同一個邏輯模型索取建議時,整個社會的思維多樣性正在萎縮,思維走向集體平庸。
大模型的本質是預測下一個最可能的字,也就是說,它更多是一種鸚鵡學舌式的智能。它給出的是最大公約數式的、符合統計學邏輯的平庸答案。
當人們在寫周報、寫情書、做決策都參考豆包或DeepSeek時,人類的獨特性、偏見、甚至天才的錯誤都在消失。社會正在變成一個由AI生成的、邏輯嚴密但缺乏靈魂的平滑體。
創造力源于知識的跨界碰撞。如果知識都在AI里,而不存在于人類的大腦神經連接中,那么這種碰撞就永遠不會發生。當一代新人只會根據AI建議做決策時,社會將失去應對黑天鵝事件的能力。
如果這種趨勢持續到2026年,我們將面臨一種真實的社會風險,當AI產生幻覺提供錯誤知識,而數億用戶因缺乏底層知識儲備而無法識別時,錯誤信息會像病毒一樣在社會常識中固化。
05
人人可以學得會的認知健身課
面對數億人陷入認知外包導致的智力萎縮,主動構建一套認知健身方案,已成為2026年打工人的必修課。
解鈴還須系鈴人。我請Gemini給出了一套方法,它的核心不是拒絕AI,而是通過增加必要的難度來防止前額葉皮層的退化。
方法一,堅持思考先行的原則。(如果你實在記不住下面三條,最好記住這條。)
面對任何復雜任務,如寫方案、分析數據、決策,在打開豆包或DeepSeek之前,強制自己進行15分鐘的裸腦思考。在向AI提問前,先在心中預設一個答案草稿。當你有了預期,你與AI的關系就從抄作業變成了對答案,這能極大提升你的批判性觀察力。
方法二,增加認知摩擦。
原理是模擬Halpern測評中的“主動構建”能力,強化長時記憶。讀完AI給出的建議后,關掉屏幕,嘗試用自己的語言向一個外行(或假想對象)解釋清楚這個邏輯。如果你解釋不出來,說明該知識并未進入你的大腦,只是停留在屏幕上。
方法三,構建底層知識硬核。
每周挑選一個核心概念(如復利效應、幸存者偏差、博弈論),結合AI,進行手動的深度拆解。減少對“一分鐘帶你看懂XX”這類信息的消費,主動尋找那些讓你感到燒腦的內容。因為,只有讓你感到痛苦的知識消費過程,才更有可能是有效的認知健身。但這并不意味著,你一定要去讀一本三四百頁的書,其實你去觀看一條半小時以上深度視頻可能也有類似的效果。
方法四,強化元認知監控。
面對AI給出的第一個答案,永遠問一句:還有其他可能嗎?或這個邏輯在什么極端情況下會失效?。盡可能多地參與線下討論、即興辯論和復雜的線下社交。這些場景瞬息萬變,AI無法實時代勞,是鍛煉大腦實時反應和綜合評判能力的好場景。
正如舉重能讓肌肉強壯,思考的重負能讓智力常青。在2026年,當滿大街的人都穿著駱駝羽絨服、用著同樣的Gemini、豆包、DeepSeek模型時,你大腦中那幾條親自打磨出來的神經通路,將是人類最昂貴的奢侈品,也是最后的護城河。
![]()
繼續看
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.