大家比較的,可能已經不再只是模型強不強、代碼好不好,而是它能不能把經歷變成經驗,把“記住”變成“會用”。
作者 | 王啟隆
出品丨AI 科技大本營(ID:rgznai100)
大家最早討論 OpenClaw 時,記憶幾乎總被當成它和普通聊天機器人的分界線。
它有 workspace,有 MEMORY.md,有 daily memory,也有一整套試圖把智能體變成“長期協作者”的結構。和那些一問一答、對話結束就幾乎歸零的模型相比,它看上去更像一個能持續做事的系統。
但很快,記憶也成了圍繞它最密集的抱怨來源。
不會經常存,不會穩定取,反復讀、反復壓縮、反復試錯。明明已經踩過的坑,下一次還會再踩一遍;明明已經講過的背景,過一輪任務又得重新交代。記憶原本是它最被期待的一部分,最后也成了它最早暴露問題的一部分。
![]()
近日筆者整理文章時,正好遇到了 OpenClaw 在對話中途因上下文過載突然“斷線”。這就像一個原本和你并肩趕路、聊得熱火朝天的摯友,在眨眼間眼神忽然空洞。他依然維持著那個禮貌的坐姿,卻在下一秒開口時,用那種客氣而冰冷的陌生語調問你:“你好,請問有什么可以幫您?”
在那一刻,你們共同度過的幾個小時,連同那些默契與共鳴,都被徹底格式化成了一片白噪音,實在是細思極恐。
這當然不只是 OpenClaw 的問題。當 Agent 開始真正進入長期任務、長期協作,甚至多 Agent 配合的場景之后,一個更底層的分界線開始浮現:大家比較的,可能已經不再只是模型強不強、代碼好不好,而是它能不能把經歷變成經驗,把“記住”變成“會用”。
聚焦 OpenClaw 引爆的智能體革命,我在 CSDN 最新一期《AI 進化論》直播里,對話了兩位能解答這些問題的專家:記憶張量 MemTensor 應用算法負責人、MemOS OpenClaw 項目技術負責人唐波和奇點智能研究院 AI 輔助軟件開發咨詢師、《氛圍編程》作者伍斌。
![]()
這一期,我們表面上聊的是記憶系統,實則是在拆解下一代 Agent 走向“長期主義”的底層邏輯。這也是這一季《AI 進化論》系列策劃的初衷——從起源、技術、產品、安全到未來,深度拆解 OpenClaw 引爆的智能體革命,為每一位試圖在 Agent 時代尋找坐標的開發者提供一份“生存指南”。
![]()
OpenClaw 最強的地方,為什么也成了它最大的短板?
王啟隆:為什么到了這一輪的 Agent 發展,大家又重新開始認真討論記憶的問題?如果往前看幾年,大家關心的就是模型能力本身,在 Benchmark 上打榜。現在大家真正發現 Agent 要進入 workflow,光能回答問題還不夠,它還得能延續偏好、上下文,以及已經踩過的坑和得到的結論。
唐波:做 Memory 這件事很早,從 2023 年我們把 Memory 訓練到基座模型,一直到現在做了很長時間。為什么現在 Memory 變得愈發重要?關鍵在于 OpenClaw 把 Agent 推到了大家的面前,讓大家對任務的執行有了更多的理解。
OpenClaw 在執行過程中,面對的是非常長期的任務,不像以前我們一問一答就結束了。那時直接用一些簡單的 RAG 方法,也可以檢索到它以前記過的簡單東西。但是現在 OpenClaw 已經到了任務級別。
在執行任務的過程中,有很多內容,比如代碼、腳本、過往的執行情況,例如探查到哪個文件夾之類。在反復相似的任務執行過程中,它去記住這些東西是很重要的。這不只是說我之前看過什么東西,而是說“之前我遇到了這些情況,或者解決了這個問題,對我后續任務的執行有多大影響”。它應該像人一樣去理解,而不是簡單地記住。
從“記住”到“會用”之間有很大不同。以前我們都要求絕對的匹配,完全一樣的詞才能檢索出來,或者講過某一個事情才能把它召回。但現在更多的是要在任務級別,或者在更長程的任務里面,形成一種相似的借鑒和依賴,來啟發模型完成從“記住”到“會用”的過程。
伍斌:我是從使用工具的角度來看。在我去年出版《氛圍編程》的時候,大模型的能力還不是很強。今年就不太一樣了,大模型能力越來越強,再用氛圍編程寫代碼時,可以做的事情也越來越多。
很多小伙伴可能會忽視掉,比如換一個話題,需要新建一個會話,但他們會把所有不相關的內容都放在一個 session 里面,這會導致模型出現幻覺,輸出質量非常差的結果。隨著模型越來越強大,工作越來越復雜,使用大模型的時間越來越長,該怎么樣去管理好這種記憶,是一個必然要面對的問題。
![]()
從“記住”到“會用”,中間差的到底是什么?
王啟隆:記憶算是現在 Agent 相比我們常用的 ChatBot 的顯著優點。但比較有趣的是,OpenClaw 現在最大的問題也是記憶。為什么 Agent 對記憶的需求現在會明顯增強?以及 OpenClaw 是在哪一方面做得不好,導致它的記憶問題成了一大缺陷?
唐波:OpenClaw 本身對記憶這層做的工作還是蠻多的。最開始它的記憶都放在文件夾里面,做了一些壓縮,然后讓模型去讀。早期出現的問題是:
第一,它不會經常去存東西。每天的聊天記錄是以文檔方式放進去,存到一個 .md 文件里,就像寫日記一樣記流水賬。在核心記憶和文件里,你必須明確告訴它“存”,它才會寫到文件夾里面去。不會經常存,而且檢索調用的頻次也不是很高,這是第一個問題。
第二個問題是,之前的 Memory 無論如何會去讀最近兩天的文件,這個量其實非常大。如果你用 OpenClaw 比較多,一天就能積累非常多的內容。這就導致它不斷觸發壓縮存儲的策略,需要去加工,消耗的 Token 就會比較多。
不經常存,也不穩定地取,就會導致有些問題它反復去試錯。其實這個問題它已經碰到過,但是這一次它沒有獲取到記憶,導致反復試錯,也包括跟人之間的交互。這就會導致Token 消耗變得很多,讓大家感覺 OpenClaw 怎么那么費錢。同時,有的時候感覺跟它說過了,它怎么又不記得了?或者因為它要反復讀最近兩天的內容,導致響應時間變長,反復壓縮又導致 Token 消耗大幅上漲。
總結下來,現有的 OpenClaw 記憶效率沒有那么高;其次,圍繞記憶從“看到”、“知道”到“學會”、持續演進,以及群體協作方面,做得還不是很好。
它不是簡簡單單說我之前看過什么東西,而是說之前我遇到了這些東西,或者解決這個問題,對我后續任務的執行有多大的影響。應該像人一樣,而不是只是簡單地記住它。從“記住”到“會用”之間是有很大不同的。就像你和 AI 說:“我之前已經跟你講過類似的東西,你怎么就記不得呢?”以前我們都是要求絕對的匹配,完全一樣的詞檢索出來,或者講過某一個事情把它召回。
但現在更多的是要在任務級別,或者在更長程的任務里面,形成一種相似或職務上的借鑒和依賴,來啟發模型從“記住”到“會用”的過程。
王啟隆:這種目標究竟是 Agent 技術,還是演進到一種持續學習、經驗壓縮和自我更新的能力?這也正是直播開始前提出的討論:如何讓 Agent 從“記住”(Remember)走向“學會”(Learn)。想請兩位老師定義一下,Agent 怎么樣才算“學會”?
唐波:Agent 的“學會”,我們現在的定義是,相似的任務它知道怎么去解決。學會的邏輯在于能夠舉一反三,遇到相似的事情能快速處理掉。舉個具體例子,它在查文件夾時,看到里面都是視頻,那么下次查文檔就不會再去看一遍了。學會的標志就是以前踩過的坑,在新的任務下不會再重蹈覆轍,這非常重要。
伍斌:“記憶”就好比有個地方存著,類似于從數據庫里去取。“學會”是智能體知道了這個知識,碰到情況就去調用工具干活。如果它能干活,并且知道以前踩過的坑,這就是學會了。
唐波:但實際上像我們學數學,不是說那個公式你看過就完全理解了。更多的是首先看清楚公式是什么,接著理解它是什么,然后再把這個知識跟過往的知識融會貫通。以后在相似的場景下,你才能夠觸發。這個事情非常重要,直到現在 OpenClaw 也沒有解決。如果要讓我們的 Agent 從“記住”到“學會”,并且持續演化,這是非常重要的一環。
王啟隆:很多開發者覺得 AI 不是不聰明,而是每次都得重新解釋,重復帶 AI 進入上下文,這是每天最煩的損耗。想切換到伍斌老師的視角,在您的工作中,有沒有哪些事情讓您明確覺得,沒有記憶系統,AI 永遠只能打下手,做不了真正的長期協作者?
伍斌:我體會挺深的。寫了《氛圍編程》這本書之后,我開始嘗試拿它做一些感興趣的應用。去年 LangChain、LangGraph 比較熱的時候,我用它做了一個智能體,幫我孩子選大學專業,需要去網上搜“十四五”規劃,挑選國家重點投資的專業。
這個事情要經過多輪對話,先澄清訴求,提出方案,再去執行。當時我沒有 Memory 的概念,以為大模型能支持,結果發現不行。第一輪對話之后,第二輪它就把前面全忘掉了。后來只能把前面的所有對話再發一遍。這就像你請了個新實習生,結果發現他是個失憶者,每次都要跟他講架構和規范,非常煩。這讓我印象非常深刻。
![]()
記憶真正難的,不是存下來,而是在對的時候調出來
伍斌:OpenClaw 有一個優勢,它的所有記憶都在你的 workspace 下面。一般來說會有一個大寫的MEMORY.md文件,把你希望它記住的長期內容、要點,比如踩過的坑,讓它整理存進去。還有一個目錄下面,按照時間戳來存日常的 memory,它會自動調用最近兩天的 memory。雖然是粗粒度,但至少能讓你看到。
它的弊端是沒有過濾或處理,一股腦就把兩天的記錄,或者所有的 memory、tools、agents 都讀了進來,這會占用很多上下文。
唐波:MemOS 提供了云上版本和本地版本。先講一下大家關注比較多的本地版本是怎么解決這個問題的。記憶進來以后,MemOS 本身會對它進行壓縮,提煉這究竟是一件什么樣的事情。其他記憶系統可能是一片一片先把對話內容分片放進去,因為太長檢索效果會下降。MemOS 的做法在這個部分是一樣的,我們會把片段內容先壓縮,然后再放進去。壓縮做的 summary 只是故事的概要。
當來一個 query 去檢索相關的東西,它會先精準命中片段并召回。召回以后交給大模型,大模型會覺得這只是一個片段的信息。如果片段信息不能支持解決當前的 query,它就會去調用我們提供的工具,把這個記憶或者任務的全部內容拿出來:當前做這件事情的背景是什么,是怎么做的,拿到了什么結果。
如果它覺得這是一個很復雜的系統工程,之前涉及過更困難的事情,它就會看以前做這件事情沉淀了哪些 Skill,是不是不需要反復試錯。那就把 Skill 拿過來,按照 Skill 去執行即可。
整個 AI 執行過程中的信息,我們認為都是有用的。更重要的是怎么把正確的記憶調出來,這是至關重要的。所以我們做了記憶的版本。召回的時候,先召回相似的語義。如果有多個節點,我們再去看當時場景下用什么樣的記憶最合適。我們認為所有的信息都是有意義的,更重要的是在 query 的時候,通過時間、人物或具體 context 去判斷,當前應該用哪條記憶。
王啟隆:我現在“養蝦”也輸入了幾千萬 Token 了,經常在想記憶膨脹之后,上下文越來越多怎么辦?我現在看到 MemOS 進入界面后,有一個很新穎的點,就是記憶可以自動管理。想問一下你們是怎么做記憶篩選的?包括不同會話、不同日志,從技術層面可以講一下嗎?
唐波:整個 AI 執行過程中的信息,我們認為都是有用的。大家討論記憶遺忘這個事情,假設給你永久過目不忘的能力你要不要?我相信所有人都愿意要。所以我們認為所有東西都是有用的。應該發揮電腦本身的優勢,什么都能查到,只是應該在合適的地方和時間,把正確的記憶調回來。
我們不會把記憶刪掉,繁雜或重復的都會放進去。只是在檢索的時候,我們會對記憶做版本管理,對重復的記憶做標注。召回的時候,先召回相似的語義。如果有多個節點,我們再去看當時場景下用什么樣的記憶最合適。
![]()
你以為你在省事,其實你只是換了一種管理方式
王啟隆:我最近還有個直觀感受,沒裝 MemOS 之前,很多時候在做機械的事,不停地給 AI 補充背景 context,變成了“人給 AI 干活”。
裝上之后以為可以輕松一點,全放給 AI 做。但其實人還是要干活,只是換了種做法:開始想哪些東西值得沉淀成 Skill,哪些是臨時信息,哪些值得整理成任務。這會不會反過來要求人未來學會另一種能力,不只是提問,還要學會管理上下文、管理經驗、管理協作方式?
伍斌:我體會挺深的。寫了《氛圍編程》這本書之后,我開始嘗試拿它做一些感興趣的應用。這個事情要經過多輪對話,先澄清訴求,提方案,再去執行。當時我沒有 Memory 概念,以為大模型能支持,發現不行。第一輪對話之后,第二輪它就把前面全忘掉了。后來只能把前面的所有對話再發一遍。
這就像你請了個新實習生,結果發現他是個失憶者,每次都要跟他講架構和規范,非常煩。這讓我印象非常深。
唐波:目前人還是承擔很多工作,當然我們希望讓 AI 去做自動化的決策。我們希望記憶系統足夠好,就像雇的秘書一樣,給個眼神就知道該給什么東西。以后給一個 prompt,或者一句話讓他寫材料,他應該知道老板今天干了什么事、背景是什么,并自動補上。
這個事情目前還沒做得很好,還在嘗試做 prompt 的自動化注入,以及跟場景的自動匹配。核心邏輯是,因為有了 MemOS,有了你的記憶,它從而更加懂你。指令發出后,它能根據場景和背景信息注入相關內容,不用你手動敲。我們希望實現的效果是:第一,有了記憶系統,驅動大模型的方式更快,輸入的字更少;第二,它更了解你,輸出的內容你會更滿意,不用反復修改。
![]()
多個 Agent 共享記憶,會更聰明,還是更混亂?
王啟隆:我進入 MemOS Viewer 界面之后還有一些感受。第一感覺是我的會話居然打通了。以前我的兩個會話是各司其職的,一個寫文章,一個寫提綱,記憶是分開的,比較干凈。結果接入 MemOS 后,我發現他們倆開始“串臺”了,其中一個會話也知道另一個會話發生的過程。
現在這樣共享長期記憶,協作效率可能會提升,但是角色的邊界、上下文可能也被沖淡了。想問一下你們是怎么解決這個問題的?
![]()
唐波:同一個 Agent 的多個會話,默認是打通的。因為一個 Agent 只有一個 prompt 文件,我們認為它的角色是一樣的,所以默認把系統記憶打通了。
如果是不同的 Agent 之間,記憶是完全孤立的,A 智能體和 B 智能體之間記憶不會串臺。如果你想讓這兩個智能體協作怎么辦?可以在后臺操作,如果你覺得這條記憶需要共享給其他智能體,只要共享出去就好了,其他智能體就能檢索到這條記憶。
伍斌:我是這樣想的。剛才說的只是單人場景,今年應該是多智能體協作的年代了。隨著智能體增多,任務越復雜,可能要并行多個智能體協作。每個智能體好比是一個人,比如一個產品經理、一個開發,他們對同一個記憶的理解可能不一樣。該怎么評判哪個智能體的記憶權重更大?遵循誰的記憶來做取舍?
唐波:這兩個記憶理論上在解決這個問題上都是有用的,但場景不一樣。A 同學執行的電腦可能是個裸機,很多軟件沒安裝,確實要執行很多步。B 同學可能相關的軟件依賴都已經配置好了,下來就能用。這兩個記憶都有用。
解決這個問題,更多的是要看 context 之間的匹配程度。每一條記憶都有它所屬的背景。現在的做法是先把背景信息重建出來,通過背景信息衡量記憶之間的匹配程度。我們也做了很多記憶效能的分配和匹配,看在當前的 context 下,什么樣的記憶最有用。哪怕看起來都是解決同一個問題,實際上背景信息的重建有天然的差別。
MemOS 本地版本提供的方法是,首先可以組一個局域網,把信息共享上去,其他人在檢索時能拉到共享的東西。第二,檢索信息后可以加工成 Skill,推到團隊共享里,實現團隊技能的共同進步。用戶可以決定怎么把記憶共享出來,也可以提供對應的 Skill。如果系統處于群體智能感知狀態,它會看當前大家做什么任務,自動挑選工具把當前的記憶、task 或技能發到局域網里,實現自動化。
王啟隆:很多人一聽多 Agent,會自動覺得分工更多、更協同、更聰明。但其實多 Agent 不一定是把智能體簡單的 1+1,可能是把復雜度乘以 N。
![]()
群體智能真正難的,不是共享,而是治理
伍斌:我能想到的坑,除了前面說到的哪個記憶權重更高,還有一個問題:哪些記憶是過時的,怎么判斷?人是有遺忘的,會把當前相關的記憶調出來,以前的就遺忘掉。但對于大模型來說,靠什么機制遺忘掉目前不相關的記憶?
唐波:現在的解決方案做了一些時間衰減。第一是加版本;第二是召回時對記憶做時間上的衰減。老的記憶權重會低很多,這也是業界比較通用的方案。要實現更精準的識別,還是要依靠模型的 ICL (In-Context Learning) 能力去判斷。人也一樣,回憶相關事情時會想哪個跟當前情況更匹配。所以還是依靠模型 ICL 能力的提升,以及記憶片段構建的背景信息。
王啟隆:多個 AI 一旦共享長期記憶,雖然會更聰明,但會不會慢慢失去原本分角色、分任務的邊界,以及上下文的干凈度?比如一個 Agent 學到了壞經驗,帶著錯誤繼續協作,導致錯誤在系統里被放大。系統會不會有自我糾錯、自我找 Bug 的能力?
唐波:這個情況完全存在。共享記憶最困難的是隱私安全問題。信息共享給 A、B、C、D,對 AI 來說無所謂,但共享給 B 可能就有問題。比如公司老板和 HR 討論人事信息,在 HR 內部流通沒問題,放在普通員工那里流通就是大問題。
另外在應用層,信息被帶偏的問題目前還稍微好一點。每條信息都有其存在的價值和使用場景。只要想辦法把 context 構建得足夠全,大概率就知道信息應該在什么情況下使用。另外,我們構建了記憶的效用,Skill 或記憶是有版本的。如果執行出錯,模型會反思環境反饋的結果,發現記憶過時了,然后在執行過程中反向糾錯,記憶就會構建成 V2 版本。
伍斌:記憶是不是也要 Review 一下?或者讓智能體幫我們 Review,然后人再去看哪些記憶是有害的,進行干預。
唐波:我們針對這個做了兩點工作。第一,下個版本會在夜間 12 點,把當天的記憶拎出來,篩選 Review 一下哪些重要、哪些有問題,同時構建 To-Do 事項,把今天回憶一遍,列出要做的事,并修正錯誤信息。第二,在 Viewer 記憶頁面上,支持用戶刪掉或修改錯誤的記憶。
王啟隆:感覺權限開放得越多,Agent 越厲害。未來做 Agent 的記憶系統,會不會變成一個權限設計的問題,而不只是存儲的問題?
伍斌:權限應該做到架構里去,而不是一個外部系統。現在是智能體時代,AI 能夠去干活了。如果它 7x24 小時幫你干活,聽起來不錯,但如果干的是離譜的活,你也沒盯著它,就會捅很多婁子。所以權限是非常重要的話題,記憶也應該和權限結合起來,而不是什么人都能看到所有人的記憶。
![]()
真正拉開 AI 差距的,不再只是模型,而是持續學習能力
王啟隆:如果讓兩位用一句話判斷我們這次的直播主題:未來真正拉開 AI 差距的可能不再是哪家模型更大、更會聊天,而是哪一種新的系統能力?你們會怎么回答?
唐波:我覺得下一步讓模型能夠持續學習和演進才是最重要的。現在大模型訓完,智能就停留在那里,雖然衍生了各種 ICL 能力、RAG、記憶系統,仿佛不會忘記現在發生的事。但進一步的能力提升,比如糾錯、演進的能力,才是下一個 Agent 或智能再提升的核心關鍵點。
伍斌:我不想說未來幾年,我想說今年。我希望我用的智能體至少能知道我想要什么。我說一句話,它應該知道上下文和意圖,而不是讓我反復重復以前說過的話。把這一點做好,今年就是一個非常大的成果。
唐波:模型訓練完后能力已經基本確定了,但就像人大學畢業后還會學習很多東西。通過與現實環境交互,獲得反饋,對環境的認知會提升。這并不是說基礎能力提升了多少,而是你見過了、了解了、反思了,自然能舉一反三。
所以我們希望 Memory 在 Agent 時代,能強調如何用記憶提取經驗,再反向用經驗引導模型決策,讓 AI 像人一樣思考和工作。這可能是 AI 在大模型完成訓練后,再次學習成長的一個重要關口。
我們希望記憶系統足夠好,就像雇的秘書一樣,給個眼神就知道該給什么東西。以后給一個 prompt,或者一句話讓他寫材料,他應該知道老板今天干了什么事、背景是什么,并自動補上。現在啟動大模型很容易就要寫四五千字的 prompt,因為有太多背景信息和要求要給它。我們希望 OpenClaw 有了記憶系統后,能夠自動填充這些。最終希望用戶打字越來越少,拿到任務的速度越來越快,因為模型懂你。
結語
Agent 到底有沒有可能從一次次任務里慢慢長出經驗?
對用戶來說,最直接的需求也許很簡單:別再讓我每次都從頭講起,就夠了。
對系統來說,真正困難的也許是另一面:怎么把已經發生過的事,變成下一次還用得上的判斷。這也是為什么,記憶會在這一代 Agent 里變得越來越重要——它不再只是“記住了什么”,而開始決定一個智能體能不能真的成為長期協作者。
但當 Agent 跨越了這道技術鴻溝,真正成為我們身邊的“長期協作者”時,另一場更猛烈的風暴也將隨之而來:當 Agent 能自主執行任務,傳統的 App 還需要存在嗎?流量與分發的規則將如何改寫?如果多個 Agent 開始在局域網內共享記憶與技能,企業的商業機密與系統安全又該由誰來兜底?作為普通開發者,我們又該如何在巨頭林立的生態中找到自己的位置?
這些正是 CSDN《AI 進化論》系列接下來要深度拆解的命題。
聚焦 OpenClaw 引爆的智能體革命,本期探討只是全系列的一環。在接下來的數期直播中,我們將繼續邀請行業頂尖專家、大廠技術負責人與獨角獸創始人,層層揭開 Agent 時代的終極謎題,歡迎關注 CSDN 視頻號,追蹤后續的精彩直播。
![]()
【活動分享】"48 小時,與 50+ 位大廠技術決策者,共探 AI 落地真路徑。"奇點智能技術大會是由深耕多年的「全球機器學習技術大會」重磅升級而來。2026 奇點智能技術大會將于 4 月 17-18 日在上海環球港凱悅酒店正式召開,大會聚焦大模型技術演進、智能體系統工程、OpenClaw 生態實踐及 AI 行業落地等十二大專題板塊,特邀來自BAT、京東、微軟、小紅書等頭部企業的 50+ 位技術決策者分享實戰案例。旨在幫助技術管理者與一線 AI 落地人員規避選型風險、降低試錯成本、獲取可復用的工程方法論,真正實現 AI 技術的規模化落地與商業價值轉化。這不僅是一場技術的盛宴,更是決策者把握 2026 AI 拐點的戰略機會。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.