前腳剛傳來消息,稱谷歌聯合創始人謝爾蓋·布林重啟“創始人模式”,親自督戰并組建精英“突擊隊”,全力提升Gemini在AI編程和自主智能體等關鍵能力上追趕Anthropic等對手。
后腳谷歌就深夜宣布重大更新,推出了兩款基于Gemini 3.1 Pro模型構建的新一代自主研究智能體:Deep Research和Deep Research Max。
不僅在模型底層加強推理能力,還大力推動自主研究智能體向企業級、開發者平臺方向演進,通過API開放、支持私有數據、后臺異步任務等方式,試圖在“AI研究/分析工具”這個高價值場景中搶占先機,應對來自OpenAI(Hermes)、Perplexity等對手的競爭。
![]()
這兩款智能體首次允許開發者通過單次API調用,將開放網絡數據與企業專有信息進行融合,并在研究報告中原生生成圖表和信息圖,同時還可通過Model Context Protocol(MCP)連接任意第三方數據源。
兩款智能體即日起通過Gemini API的付費套餐以公開預覽版形式開放,可通過谷歌于2025年12月首次推出的Interactions API進行訪問。
沒錯,這些新代理目前只能通過API使用,普通用戶在Gemini的App里是享受不到的,就算付費訂閱了也不行。看到更新的消息卻發現自己用不到,有用戶幽怨表示:“谷歌不知何故,持續懲罰著我們這些Gemini App的Pro訂閱用戶……”
![]()
谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)也親自下場在X上吆喝:“當你需要速度和效率時,請使用Deep Research;當你追求最高質量的上下文收集與綜合時,請使用Max版本——它通過擴展測試時計算,達到了DeepSearchQA 93.3%和HLE 54.6%的成績。”
![]()
18個月前,谷歌Deep Research的目標還是要幫助研究生避免被海量瀏覽器標簽頁淹沒。如今,谷歌卻希望它能夠取代投資銀行初級分析師的基礎研究工作。
這兩個目標之間的差距——以及這項技術能否真正彌合這一差距——將決定自主研究代理究竟會成為企業軟件領域的變革性產品,還是僅僅成為又一個在基準測試中光鮮亮麗卻在會議上令人失望的人工智能演示。
01
兩種版本,適配不同工作負載
標準版Deep Research有更低的延遲和更低的成本,適合拼速度的場景。
Deep Research Max則優先考慮深度而非速度。該智能體通過擴展測試時計算(extended test-time compute),進行深入推理、搜索和迭代,最終生成報告。
谷歌指出,異步后臺工作流是其理想使用場景,例如通過定時任務(cron job)在夜間運行,第二天早上就能為分析師團隊交付一份完整的盡職調查報告。
在谷歌自己的基準測試中,Deep Research Max在檢索和推理任務上取得了顯著進步。該智能體能夠從比之前版本更多的來源中獲取信息,并捕捉到舊模型容易忽略的細微差別。
![]()
谷歌也給出了與競對的橫比。
不過,與OpenAI的GPT-5.4和Anthropic的Opus 4.6進行比較并不完全公平。GPT-5.4在自主網絡搜索方面表現優秀,但并未針對深度研究進行專門優化。為此,OpenAI提供了自己的DR智能體,該智能體在2月更新后切換到了GPT-5.2,而非GPT-5.4。OpenAI最強的搜索模型實際上是GPT-5.4 Pro,但谷歌顯然未將其納入對比范圍。
![]()
根據OpenAI的數據,GPT-5.4 Pro在智能體搜索基準測試BrowseComp上的得分最高可達89.3%,而GPT-5.4的得分為82.7%。
基于Anthropic自己的報告,Opus 4.6在BrowseComp上的得分高于谷歌所展示的數值,具體為84%。該得分是在關閉推理功能的情況下取得的,模型的表現反而優于谷歌在API基準測試中所使用的高強度推理設置。
這些差距很可能源于測試方法的不同——模型是通過原始API進行評估,還是被封裝在各實驗室自己的工具鏈中。谷歌的數據未必錯誤,但值得謹慎解讀。無論如何,其呈現方式缺乏足夠的透明度。
02
MCP支持
本次發布中最具影響力的功能,或許是新增了對Model Context Protocol(MCP)的支持。這一功能將Deep Research從一個強大的網絡研究工具,轉變為更接近“通用數據分析師”的存在。
MCP是一種新興的開放標準,用于將AI模型連接到外部數據源。它讓Deep Research能夠安全地查詢私有數據庫、內部文檔庫以及專業的第三方數據服務——整個過程中,敏感信息無需離開其原始環境。
實際應用中,這意味著一家對沖基金可以同時將Deep Research指向其內部交易流數據庫和金融數據終端,然后要求智能體將兩者與來自網絡的公開信息相結合,綜合生成洞見。
谷歌透露,目前正與FactSet、標普(S&P)和PitchBook等公司積極合作,共同設計其MCP服務端,這清晰地表明谷歌正在尋求與華爾街及更廣泛金融服務行業日常依賴的數據提供商進行深度整合。
根據谷歌DeepMind產品經理Lukas Haas和Srinivas Tadepalli撰寫的博客文章,其目標是“讓共同客戶能夠將金融數據產品集成到由Deep Research驅動的工作流中,并通過利用其海量數據宇宙,以閃電般的速度收集上下文,從而實現生產力的飛躍。”
這一功能直接解決了企業采用AI時最頑固的痛點之一:模型在開放互聯網上能找到的信息,與組織實際決策所需的信息之間存在巨大差距。此前,彌合這一差距需要大量定制化工程工作。
而MCP支持結合Deep Research的自主瀏覽和推理能力,將大部分復雜性簡化為一次配置即可完成。開發者現在可以讓Deep Research同時使用谷歌搜索、遠程MCP服務端、URL Context、代碼執行和文件搜索——或者完全關閉網絡訪問,僅在自定義數據上進行搜索。
系統還支持多模態輸入,包括PDF、CSV、圖像、音頻和視頻,作為grounding(grounding上下文)使用。
03
原生圖表
第二個重磅功能是原生圖表和信息圖生成。
之前的Deep Research版本只能生成純文本報告。如果用戶需要可視化,就必須將數據導出并自行制作圖表。這個短板大大削弱了“端到端自動化”的定位。
現在,新一代智能體能夠在報告中原生內嵌高質量圖表和信息圖,以HTML或谷歌的Nano Banana格式動態渲染復雜數據集,使其直接成為分析敘事的一部分。
對于企業用戶——尤其是金融和咨詢行業中需要產出可直接交付給利益相關者的成果的用戶而言——這一功能將Deep Research從一個“加速研究階段”的工具,轉變為能夠生成接近最終分析產品的工具。
![]()
此外,結合新增的協作式規劃功能(允許用戶在執行前審查、指導和優化智能體的研究計劃),以及實時流式輸出中間推理步驟,新系統讓開發者能夠對調查范圍進行細粒度控制,同時保持監管行業所要求的高度透明度。
04
Deep Research正在變成谷歌提供給企業的“基礎設施”的一部分
谷歌的官方博客文章明確指出,當開發者使用Deep Research智能體進行構建時,他們所調用的是“為谷歌旗下多款熱門產品(如Gemini App、NotebookLM、Google Search和Google Finance)提供研究能力的同一套自主研究基礎設施”。這表明,通過API提供的智能體并非谷歌內部版本的簡化版,而是同一套系統,以平臺規模對外提供服務。
這一演進過程進展極為迅速。
谷歌于2024年12月首次在Gemini App中推出Deep Research,作為C端功能,當時由Gemini 1.5 Pro驅動。谷歌將其描述為個人AI研究助手,能夠在幾分鐘內綜合網絡信息,幫助用戶節省數小時工作時間。
2025年3月,谷歌使用Gemini 2.0 Flash Thinking Experimental對Deep Research進行了升級,并向所有人開放試用。隨后升級至Gemini 2.5 Pro Experimental,谷歌報告稱,評測者對它的報告偏好度超過競爭對手的2比1。
2025年12月是重要的轉折點,谷歌推出了Interactions API,首次以編程方式提供Deep Research,由Gemini 3 Pro驅動,并同步發布了開源的DeepSearchQA基準測試。
![]()
驅動本次改進的底層模型是Gemini 3.1 Pro,該模型于2026年2月19日發布。它在核心推理能力上實現了重大飛躍:在評估模型解決新型邏輯模式的ARC-AGI-2基準測試中,3.1 Pro的得分達到77.1%,是Gemini 3 Pro的兩倍多。(作者/小金牙)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.