上周Andrej Karpathy發了一條推,1500萬人看了。
![]()
又是Andrej。又是新概念。
這次他說自己最近把大量的LLM算力從寫代碼轉向了「建知識庫」,把論文、文章、代碼倉庫等原始資料扔進一個目錄,讓LLM自動編譯成一個markdown wiki,然后在這個wiki上做問答、生成幻燈片、做數據可視化。他的wiki已經積累了100多篇文章、40萬字,可以回答各種復雜的研究問題。
最后他說了一句:
I think there is room here for an incredible new product instead of a hacky collection of scripts.(這個方向應該有一個真正的產品,而不是一堆拼湊的腳本。)
我轉發之后,有不少人來找我問:「能不能出個教程?」「Obsidian怎么配?」「一定要用Claude Code嗎,用xxx行不行?」
說實話我自己用Claude Code搭類似的工作流不難,但每次有人問我「怎么搭」,都卡在同一個地方:Karpathy的方案需要命令行、需要寫腳本、需要配Obsidian插件,每一步都在勸退不會vibe coding的人。尤其是,問我這些問題的,恰恰都是不會寫代碼,也對Vibe Coding工具不熟悉的人,學生、白領、內容創作者。
這讓我想起之前在即刻寫過的一件事:我收藏了2000篇文章,再也沒打開過。評論區最多人說的一句話是「一樣」。微信收藏、瀏覽器書簽、筆記軟件、稍后讀App,到處散落著落灰的內容。不是沒時間讀,而是收藏的那一刻,大腦已經產生了「我處理過了」的錯覺。
「看過」和「理解」之間隔著一道溝。Karpathy用代碼填了這道溝,但大多數人需要的是一個產品,不是一套腳本。
所以看到網易有道新出的產品--有道寶庫的時候,我挺在意的。它做的事情和Karpathy那套工作流幾乎一樣,把資料扔進去,AI自動理解、整理、關聯,然后你可以追問、生成思維導圖、做PPT、生成播客——但它是一個打開瀏覽器就能用的產品,不是一堆腳本。
之前測過有道龍蝦,那是幫你干活的AI Agent。這次寶庫的定位不一樣,更像一個思考伙伴,幫你把散落的資料變成可以深度理解的知識。
我決定按Karpathy的工作流框架,拿有道寶庫跑一遍自己的真實調研場景,看看一個產品化的方案到底能做到什么程度。
我選的調研主題是謝賽寧和AMI Labs。
最近張小珺做了一期將近7小時的馬拉松訪談,采訪的是謝賽寧。他是迄今為止對我來說認知沖擊最大的一期播客。謝賽寧和Yann LeCun共同創立了AMI Labs,剛完成10.3億美元的種子輪融資,估值35億美元,僅25人,連產品都還沒有。訪談里聊到了世界模型、兩次拒絕Ilya、和何愷明的友誼、以及「硅谷被LLM催眠了」這個判斷。這是一個信息量極大、涉及人物關系和技術爭論的復雜話題,正好用來測試知識庫的真實深度。
先把資料扔進去
Karpathy的第一步是把原始資料索引到一個raw/目錄,用Obsidian Web Clipper把網頁轉成markdown,再用腳本下載相關圖片。
有道寶庫的做法更直接:創建一個知識庫,把各種格式的資料直接導入。
![]()
我把這幾份資料扔了進去:張小珺對謝賽寧的訪談網頁鏈接、AMI Labs融資報道(36kr)、以及謝賽寧的4篇論文PDF——DiT、Cambrian-1、Solaris,加上LeCun的世界模型路線圖。
有道寶庫支持的來源挺雜的,PDF、Word、網頁鏈接都是基本操作。還有個我沒預期到的功能:添加資料彈窗里有個「學術」搜索入口,直接在里面搜論文,搜「transformer DeepSeek」能出來58條結果,標注了引用數和期刊,直接加入知識庫,連下載PDF這步都省了。
![]()
一共導入了6份資料,覆蓋中文訪談、英文論文、新聞報道三種格式,導入都很順。
然后開始追問
Karpathy說他的wiki積累到一定規模之后,可以對著它問各種復雜問題,LLM會自己去翻資料、研究、給出答案。
進入知識庫,有道寶庫自動給出了一份內容總結,把6份資料橫跨的主題梳理了出來,技術路徑、人物關系、世界模型的核心主張,都覆蓋到了,判斷基本準確。
然后我開始追問。
我問的第一個問題是:「謝賽寧是怎么從DiT發展到Solaris的,這之間的關系是什么?」
![]()
回答拉出了DiT到Cambrian再到Solaris的技術演進路徑,每句話后面跟著引用角標,對應具體是哪篇論文的哪個段落。
這里有個體驗和Karpathy的方案根本不同:有道寶庫的每句回答都跟著引用標注,點一下就跳到原文的具體段落。
![]()
Karpathy的wiki是LLM編譯的markdown文件,他需要自己去驗證內容對不對。有道寶庫把「溯源」這件事產品化了,不需要你自己翻原文對照,點一下引用標注就能看到出處。
這和用ChatGPT等對話式AI顯然很不一樣。那些工具是拿整個互聯網的知識回答你,你不知道它是從哪得出的結論。有道寶庫的邏輯不同,它只看你上傳的資料,每句話都能溯源。可以大幅度避免LLM的幻覺問題。
不是說它絕對不會理解錯,而是它把證據鏈擺在你面前了。對不對你自己判斷,證據就在手邊。
做調研、寫文章的時候,這種確定感很重要。
讓資料長出新形狀
光靠問答還不夠。真正的知識內化,是把零散信息重組成你自己能用的結構。
Karpathy說他不喜歡在終端里看純文字結果,而是讓LLM生成幻燈片、圖表,然后在Obsidian里查看。有道寶庫在這塊走得更遠——腦圖、信息圖、PPT、播客,每種輸出格式都有自定義要求的入口,不是盲目生成,而是按你的方向重組。
先試思維導圖。
![]()
我在自定義要求里寫了具體方向:以謝賽寧為中心,梳理人際關系網絡和技術演進路徑,重點突出人物關系的戲劇性。生成結果標題是「謝賽寧AI人脈技術路徑與AMI Labs世界模型愿景」,三級結構,把LeCun、何愷明、Ilya的關系,以及MoCo到MAE到DiT到Cambrian到Solaris的路徑都拉出來了。
![]()
這是基于多份資料的跨文檔整合,不是某一篇文章的復述。生成完可以直接編輯,AI梳理的結構不一定完全準確,但給了一個可以改的起點,比從空白開始順多了。
再試信息圖。
![]()
四個模塊把DiT、Cambrian-1、Solaris、AMI Labs的脈絡串了起來,內容基本準確。每個模塊的核心論點有道寶庫抓得不錯,比如Cambrian-1那條「打破語言偏見,對抗當前AI過度依賴語言先驗的局限」,這是原論文的核心主張,提煉準確。中文渲染這塊體感明顯,一張圖里能有這么多中文字符,但卻沒有亂碼的,這個細節算是解決了很大的痛點。
還可以直接變成播客
Karpathy的工作流里有幻燈片、有圖表,但沒有音頻。
對內容創作者來說,「聽」是一種很不一樣的內化方式。很多東西看的時候以為懂了,但耳朵在聽的時候腦子才真的在處理。如果能有一期專門講你正在研究的話題的播客,知識就不只是躺在文檔里。
NotebookLM兩年前靠播客功能出圈。
2024年9月上線「Audio Overview」,當月用戶增長300%,Q4環比增長120%,移動端月活最終達到800萬。這個數字證明了一件事:AI播客這個形式,需求是真實的。
但中國用戶留下來的不多。不是功能沒用,是摩擦太大:需要科學上網,中文發音錯誤頻發,公眾號、B站這些中文內容源也不太支持。
有道寶庫也做了播客功能,有一個細節我覺得有意思:有音色選擇。
![]()
雙人模式,主持人A可以選「貴氣千金」「智性精英」「冷艷樂手」,主持人B可以選「好朋男聲」「理工學霸」「磁性低音炮」,還有簡潔/深入兩檔時長,加自定義要求。
我在自定義要求里寫了方向:從謝賽寧的人物故事切入,聊DiT怎么變成Sora的基石,再引出世界模型和LLM路線之爭,要像兩個真正關心這件事的人在深夜聊天,而不是念PPT。
生成出來的播客,對話結構清晰,切中的是真正有意思的點。兩次拒絕Ilya這段,兩個主持人有來有回,能感覺出話題的張力。中文發音準確,沒有多音字讀錯。
暫時無法在飛書文檔外展示此內容
當然比不上真人播客的人味。但它能做到一件之前做不到的事:你把資料扔進去,它替你把資料講給你聽——這件事的價值,不在于它有多完美,在于它真的存在。
它比同類多一張牌
測完這些功能之后,我想到一件事:有道做知識庫,比其他人多一張牌。
有道詞典和有道翻譯用了這么多年,這次有道寶庫把這條鏈路打通了。你在有道翻譯里處理過的文章,可以直接導入寶庫繼續研究。這個閉環是「翻譯→導入→深度理解」,別家沒有。
實測過一個場景:把謝賽寧的DiT英文論文扔進去,讓有道寶庫做文檔翻譯。它不只翻了文字,連論文里的圖表、公式截圖也做了翻譯處理。讀一篇密集的英文ML論文,這種帶圖片翻譯的中文版本和原版對照,比單純讓AI總結要扎實得多——你能看到作者的原始表達,同時不被語言本身擋住理解。
對于每天要處理大量英文資料的研究者和創作者來說,這個生態加法是實質性的。
還有個彩蛋
測試快結束的時候,我在產品官網發現了一個東西——有道寶庫有CLI。哈哈,這還挺趕現在優先給AGENT做產品的潮流的。
![]()
我拿這個CLI跑了一個實驗:把本地積累的12篇DeepSeek論文扔進去,讓它生成一期「聽完能搞清楚DeepSeek這兩年在研究什么」的播客。不需要打開瀏覽器,命令行上傳文件,等幾分鐘,一期16MB的雙人AI播客出來了。本地批量文件的知識內化,是純網頁產品做不到的。
![]()
網頁端給普通用戶用,CLI給想要把它嵌入自己工作流的人用。兩個受眾都照顧到了,這個設計挺聰明的。
Karpathy要的那個產品,還沒出現
回到Karpathy那句話:「這個方向應該有一個真正的產品,而不是一堆拼湊的腳本。」
說實話,那個產品還沒出現。
Karpathy描述的不只是「上傳資料然后問答」,他描述的是一套基于Agentic AI的知識管理體系:模型能主動梳理知識圖譜、發現遺漏、跨庫推理、在自己的權重里真正「記住」你研究過的東西。這件事,現有的產品——無論是NotebookLM還是有道寶庫——都還沒做到。底層模型還在快速演進,真正能「主動幫你管知識」的產品,可能要再等一兩個大版本。
但這不是說現在的工具沒用。
對后臺那些問「不會寫代碼怎么辦」的朋友來說,有道寶庫已經是目前門檻最低、能立刻上手的選項之一。 資料導入、有據可查的深度問答、多模態知識重組,核心環節都產品化了。而且在播客、中文支持、詞典翻譯打通這些維度上,它做到了Karpathy的腳本方案做不到的事。
Karpathy那條推下面,點贊最高的回復是:「So basically you're describing NotebookLM?」
不完全是。NotebookLM在國內訪問不便,對中文內容源的支持程度和生成的中文信息展示的準確性也常常出錯,畢竟不是給中國用戶準備的,能力。對中文用戶來說,這個更接近現階段的可用答案。
目前免費內測。如果你也被這條推種草了但不想折騰腳本,可以先去試試。
![]()
體驗鏈接 https://baoku.youdao.com/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.