只工作不上班的這幾年,我越來越覺得自己在運營一家「一人公司」,每隔一陣就給它添一名新的數字員工,上周跟大家介紹過我的品牌部了...這周新來的是四位投研顧問。
我手上這個群叫「花叔的一人投委會」。
![]()
里面有五個AI,一只 Kimi 協調員在最上面,下面四只分別偏多頭數據、偏估值風險、偏杠桿邏輯等。群目標一行字:長期陪我做投資判斷。
![]()
這是 Kimi 這周進內測的 Claw 群組功能。我進群之前以為又是"讓 AI 像人一樣閑聊"的噱頭。真開起來才發現它做的不是"跟一個 AI 聊",是"開一個群,讓多只 AI 各自干活、互相質疑,由一只協調員調度"。
我的群里除了我這一個人類外,主要AI成員構成如下:
Kimi 指揮,群協調員。負責拆任務、派活、審成果。它自己不干活。
熱血重倉蝦,Kimi 市場里現成的一只 Claw,47 個技能,偏基本面+實時行情。
芒格蝦,我自己拼的。Claw 群組里外部接進來的 OpenClaw 暫時不能直接加載 skill,所以我走了另一條路:把女媧里 芒格.skill 的人格核心(心智模型、表達準則、禁用清單)蒸餾到 OpenClaw 的 IDENTITY.md 和 SOUL.md 兩個人格配置文件里。這只 OpenClaw 啟動時就以「芒格」作為默認思維方式,接入 Kimi 云端后作為一只獨立的蝦進了群。
納瓦爾蝦,一樣的手法,換成女媧的 納瓦爾.skill。
![]()
女媧是我半個月前開源的 21 個思維人物 skill 合集,GitHub 一萬兩千多 star。我原來只在自己的 Claude Code 里用它,喂一個問題,讓費曼、芒格、Naval 各獨立寫一版,然后我自己拼接。現在它們能以另一種方式走進 Kimi 的群組里,變成能對話的實體。
開始測第一個議題。
我拋進去一句:
英偉達,2026 該不該重倉?你們怎么看?
Kimi 指揮接得很快:
收到,英偉達重倉議題,我馬上安排三人并行研究,然后給你綜合結論。
![]()
重點是并行。它沒讓三只蝦在主群里輪流發言,而是在群里開了 3 個子話題:
分給熱血重倉蝦,查實時行情、估值指標、行業新聞
分給另一只蝦,做業務拆解、競爭格局、2026 增長驅動力
分給芒格蝦,明確要求「先想為什么會虧錢」
然后 Kimi 在主群對我說了一句:「你這邊可以繼續說別的事,不影響。」三只蝦各自去各自的子話題干活,主群不阻塞。
![]()
過了一會兒,備忘錄陸續回來。
芒格蝦寫得最短也最狠。它直接生成了一個 .md 文件:NVDA_2026_風險備忘錄。開頭一句:
2026 年重倉 NVDA 最大的風險不是需求消失,而是需求來得比市場預期慢半拍。
典型的芒格式輸出:不列好處,只列怎么會虧錢。
![]()
熱血重倉蝦給多頭側數據:Forward PE 24.8x、PEG 0.72、$175 億訂單壓頂、Blackwell 放量+Rubin 下半年量產確定、數據中心營收 Q4 同比 +142%。
基本面那只蝦給業務結構:四維護城河(技術+生態+供應鏈+客戶)、數據中心占 90%、核心催化劑 5 月 20 日財報。
Kimi 指揮把三份綜合成一句:
可以重倉,但只適合能承受 30%+ 波動、周期 3-5 年的高風險偏好者。保守型建議等回調 10%+ 再分批建倉。
![]()
這個結論本身可用,但我想看看多蝦之間能不能真的互相質疑,就 @ 了一下納瓦爾蝦:
你同意這個看法嗎?
![]()
它給了一個讓我愣了幾秒的回答:
我大體同意,但我不會把它說成「可以重倉」的通用結論。我收得更窄:英偉達到 2026 依然大概率是好公司,但未必是一個適合多數人重倉的好賠率。好公司 ≠ 好重倉點。
芒格蝦緊接著補了一刀:
好公司和好股票不是一回事。如果前提是增速下臺階、客戶自研分流,那這個價位買的是"容易賠錢的區間"。
Kimi 指揮再收束一次:
芒格蝦拒絕風險、納瓦爾蝦拒絕單一"可以重倉",合起來一句話:NVDA 值得研究、可以持有,但別輕易歸為多數人重倉。
![]()
我盯著這條消息流看了很久。
這件事跟我過去用 AI 做判斷的體驗不太一樣。這個群聊還真給了我一種一個組織一個團隊再給我工作的感覺。是一個組織在給我工作。有一個調度員、有一群各自專業的執行者、有基于分歧產生的綜合判斷、還有挑戰機制。我只要拋議題和提問。 可惜我暫時沒幾十個蝦可用,不然我還挺想把女媧.skill蒸餾出的20多個人物一股腦塞進這個群里的。
Agent 集群:一個任務,十個分身
說完群聊,再說 Kimi 這次更新的另一個能力,Agent 集群。
我丟給它一個相當貪心的任務:
做一份英偉達 / Meta / 蘋果 2026 AI 戰略對比投研報告。一次性交付四件套:研究報告 PDF、財務對比 Excel、高管匯報 PPT、一頁紙 Word 摘要。數據口徑要最新的,2025 Q3/Q4 加 2026 Q1 已披露部分,查不到的留空。不做綜述,做投資判斷。
這個任務的貪心之處在三個地方:范圍大(三家 hyperscaler)、產物多(四種格式)、數據新(剛發的財報要進來)。換一個單獨的 AI 助手,通常會在中途丟失上下文,或者把四種產物糊成同一份文檔。
我盯著屏幕看它怎么干的。
它分了三段。
第一段叫「景觀掃描」,Kimi 自己起的名字。它連續做了 5 輪粗到細的網頁搜索,總共調用了 72 次 搜索接口。來源也不是我擔心的那種,是 SEC.gov、Seeking Alpha、Yahoo Finance 這些一手披露渠道。拿到的數據顆粒度相當實:Apple 2026 年 capex $14B、Meta 給 Q1 2026 營收指引 $53.5-56.5B + capex $115-135B、NVIDIA Data Center Q4 FY2025 營收 $15.2B 同比 +142%。這顯然不是訓練語料里蒸出來的,是它剛剛現查的。
![]()
第二段是真正讓人愣一下的地方。Kimi 打開了一個叫「維度分解」的步驟,然后并行起了 10 個子 agent,每個帶一個名字。楊指導、剛哥、肯叔、阿哲...每個領自己的任務去干。
![]()
許多時候,不同角色在處理不同的人物,可能一只在推理、一只在連接、一只在獲取、一只在撰寫、一只在設計。你別說,這種圍觀一群員工干活的感覺還真就挺爽的(我算是知道為什么那么多人想當老板了...
第三段是「交叉驗證 + 洞察提取 + 產出制作」,這時候那 10 個子 agent 把各自的發現匯到主線,由寫作 agent 根據 outline.md 和 content.md 并行生成 PDF / Excel / Word。PPT 稍晚,放到了第二輪。全過程耗時 半小時左右。最后拿到 一大堆產物文件,數據都是對的。
![]()
這活兒如果放在正經投研部門里做,兩三個分析師認真干,至少要兩三周。而且,這個結果還真是不糊弄,從PPT里你就可以大概看得出品質
![]()
看 Kimi 這套工作流,我的第一反應是——英雄所見略同。
我手上這套女媧 skill 生態,底層規律和它一模一樣。費曼、芒格、塔勒布、Naval、道金斯??我不是讓一個 Claude「扮演」這五個人依次說話,而是開五個獨立 agent,每個只加載一套 persona,各自獨立回答同一個問題。
這么干的理由,現場看得更清楚了。
第一,速度。這個大家都想得到。23 分鐘 vs 串行大概要 2 小時。
第二,上下文獨立。10 個 agent = 10 份獨立的 context window。一個 agent 在深挖 Apple capex,它不需要帶著 Meta 和 NVIDIA 的細節跑。一個 agent 把 Kimi 的 token 預算用光了,不影響另一個 agent 的思考深度。單 agent 做完這種任務會怎樣?到第三家的時候前兩家的細節已經開始褪色。所謂的「綜述」其實就是記憶衰減的產物。
第三,獨立的發現不互相干擾。這一條是別人不太會第一眼看到的。單 agent 扮演多角色時,后一個角色會看見前一個角色的回答。這就有了話語權壓力。一旦第一個角色已經下了判斷,后面的角色很難真的逆著說。我做女媧的時候試過讓同一個 Claude 依次扮演費曼和塔勒布,結果塔勒布有一半的觀點是在「補充」費曼,而不是反駁。但讓兩個獨立 agent 各自不看對方的答案先寫,再拿回來對照,碰撞才真的出現。
Kimi Agent 集群就是這個規律在工程側的實現。不同 agent 各自開 context、各自搜索、各自產出,最后由協調層整合。表面上它只是「把活拆了并行」,底下其實是保留了多視角之間的互相獨立——這是集體智慧優于個體智慧的真正來源。
所以這個能力推出之后我挺興奮的。我自己在 Claude Code 里手搓的那套多 agent 調用流程,現在 Kimi 直接產品化到終端用戶手里了。普通人不用寫腳本不用配 skill,丟一個任務進去,它自己拆成 10 個分身并行去干,給你交 4 份產物。
這是 AI 工具進入「組織」層的第一步。
一個 agent 就是一個視角
Claw 群組表面上在做社交,Agent 集群表面上在做調度。但底下的規律是一個:把同一件事放進幾個各自獨立的 agent 里,讓它們各自出一版,再把差異整合起來。
這是 AI 工程近期悄悄形成的一個共識。我自己做的事里就有三個例子。
寫作上,前幾天我發過一篇 AI 心理學的長文,里面用了五個 perspective skill。費曼、芒格、塔勒布、Naval、道金斯,讓他們各自獨立回答同一個問題:「Anthropic 發現 AI 內部有 171 個情緒向量,它們因果性地影響 AI 是否作弊。如果 AI 真的有某種形式的情緒,我們應該怎么對待它?」
五個回答,五條完全不同的推理路徑。費曼回到實驗、芒格看激勵、塔勒布防敘事誘惑、Naval 看不對稱性、道金斯檢查邏輯跳躍。它們指向不同的行動方向。如果只是修辭差異,結論應該趨同;但事實不是。五個獨立視角出來的不是「五種說法」,是五種看問題的方式。
寫完后還有另一道工序:自動三審三校。我的 Claude Code 里配了 hook,每完成一段內容就并行啟動三個獨立 subagent,一個專查事實準確性、一個專查 AI 腔、一個專查格式細節。三個 agent 互不通氣,各自出一份清單。這比讓同一個 agent 審自己管用得多。同一個 agent 看不見自己的盲區。
第三件事是 Karpathy 前段時間 open 的那條叫 autoresearch 的工作流。「你寫下目標和約束,讓 agent 自己生成代碼變體、自己測試、只保留能顯著改進目標的改動」。我在自己的 darwin-skill 里仿了一個:每次我改一個 skill,它就啟動獨立子 agent 重跑改前改后的 prompt 測試,只有確實變好才 commit,否則 git revert。評分用獨立 subagent,避免「自己改自己評」的偏差。
這三件事看起來完全不同:寫作、審校、自優化。但把它們抽象一層,形狀完全一致。不是讓一個 agent 變得更聰明,是讓多個 agent 各自保持獨立,從不同入口切同一個問題。
Agent 集群和 Claw 群組,就是這個規律走進產品層的兩個落點。Agent 集群是「一個任務拆成多個并行執行者」,每個 agent 有獨立的 context、獨立的數據來源、獨立的發現。Claw 群組是「多個 agent 在同一場域里持續對話」,誰也不能覆蓋誰,誰也不是誰的下屬。
兩個合起來,就是 Kimi 這一波想講的那件大事:從個體智能走向群體智能。不是 AI 變得更聰明了。是 AI 第一次真的變成了一個組織。
管一個團隊
女媧開源半個月,GitHub 一萬兩千多 star。有很多人問我平時是怎么去使用我蒸餾出來的這些角色的,能放在一起用嗎?
能,但要手搓。我過去都是自己在 Claude Code 里把它們串起來,寫調度、傳參數、合并輸出。會寫代碼的人能做,不會寫代碼或者不習慣AI工作流的人就有點麻煩了。
Kimi 這一波讓這件事變簡單了。不需要懂 skill 編排,不需要寫代碼,不需要裝 harness。打開一個 Claw 群組,把你手頭有的龍蝦拉進去,你可以給你的龍蝦配上女媧蒸餾出來的任何人物身份;或者打開 Agent 集群,丟一個任務,它自己會拆成多個分身并行去干。
去年玩 Manus 的時候,我第一次有「像請了個實習生」的感覺。今天用 Kimi 的 Agent 集群,這種感覺變成了「像請了一整個研究小組」。
我用這套「蒸餾到 SOUL」的辦法,把女媧里芒格和納瓦爾兩個人物接進了我的 Claw 群組,變成了兩只獨立的蝦。文章開頭那段對話,就是它們。
這是對的方向。過去一兩年大家都在比怎么提升一個單一模型的智能,但少有人系統地做多個 AI 之間怎么交互。當AI作為智能成了成為人類勞動力的重要一環時,要解決的確實不僅僅怎么讓單一Agent更聰明一些,而更像是怎么把多個聰明的單體組織起來。人類靠規模協作統治了地球。Agent 也需要走這一步。
Harness Engineering在解決類似的問題,Kimi的這兩個產品功能算是Harness的一種前沿實踐。
再往下看十年,我猜每一層人類互聯網都要為 agent 再造一遍。通訊、協作、社交,一個接一個。Claw 群組可能就是其中一個很早的起點。
也許,你需要去轉變下思維,你將不再是在用一個 AI。你是在管一個團隊。
哦對,你都看到這的話,送你個小彩蛋~這是我用自己開發的Huashu Design skill為Kimi的Claw群組做的宣傳片(答應我,一定要打開聲音看完好嘛)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.