无主之地2配置高吗|看真人裸体BBBBB|秋草莓丝瓜黄瓜榴莲色多多|真人強奷112分钟|精品一卡2卡3卡四卡新区|日本成人深夜苍井空|八十年代动画片

網易首頁 > 網易號 > 正文 申請入駐

清華系團隊出手!一張 4090 即可「爆改」,1.3B小鋼炮震撼開源

0
分享至


新智元報道

編輯:YHluck

【新智元導讀】端側多模態,卷出新天花板。僅1.3B,性能反超,效率翻倍,一張4090就能「爆改」。剛剛,清華系團隊面壁智能開源了新一代「小鋼炮」MiniCPM-V 4.6,再次證明了在端側AI領域,中國團隊已然站在世界前沿。

想象一下:你將一支筆放進裝滿水的玻璃杯,用手機拍下照片,然后問它:「這個現象的原因是什么」?


幾秒鐘后,手機屏幕上出現了「光的折射」的準確回答和原理解釋,視覺問答表現驚人:

還有機票識別,文字提取精準:

整個過程絲滑流暢,沒有聯網,沒有等待云端服務器的響應,不產生天價token賬單

而實現這一切的,不是云端某個需要排隊等API的千億參數模型,而是一個剛剛開源、僅有1.3B的「小鋼炮」——MiniCPM-V 4.6

5月11日,「國產端側大模型擔當」面壁智能聯合清華大學、OpenBMB開源社區正式開源了新一代端側多模態大模型MiniCPM-V 4.6

MiniCPM-V 4.6一經發布,立即給1B量級多模態模型重新劃定了起跑線,給日趨白熱化的端側AI賽道投下了一枚重磅炸彈!


它不僅在性能上全面超越了阿里 Qwen3.5-0.8B和谷歌Gemma4-E2B-it等同級對手,更在效率上實現了驚人的「反超」——參數更大,跑得卻更快

這波操作,直接打破了行業里「小尺寸=閹割版」的常規認知。

MiniCPM-V 4.6用扎實硬核的數據向行業證明:1B級模型,也可以是性能強悍、足以在端云兩棲部署的工業級武器

此外,在尺寸上,MiniCPM-V 4.6是MiniCPM-V系列模型上有史以來參數規模最小的模型,只有1B左右,但智能密度卻為同尺寸模型范圍內最高,這再次驗證了面壁智能在2024年提出并登上Nature子刊的「密度定律」。

根據Artificial Analysis(AA)榜單評測,MiniCPM-V 4.6 1.3B(非推理版本)的運行僅消耗5.4M token量,僅為Qwen3.5-0.8B(非推理版本,101M)的1/19、Qwen 3.5-0.8B(推理版本,233M)的1/43


Hugging Face:

https://huggingface.co/openbmb/MiniCPM-V-4.6

GitHub:

https://github.com/OpenBMB/MiniCPM-V

Modelscope:

https://modelscope.cn/models/OpenBMB/MiniCPM-V-4.6

Web Demo:

https://huggingface.co/spaces/openbmb/MiniCPM-V-4.6-Demo

APP Demo:

https://github.com/OpenBMB/MiniCPM-V-Apps

性能越級,效率反超

體感是最終標準

Talk is cheap,直接上數據。

在多個主流Benchmark上,MiniCPM-V 4.6的表現突出一個「反常識」。

無論是做通用圖文理解、解數學題,還是搞文檔OCR,它的Instruct版Thinking版基本都是亂殺局,全面碾壓Qwen3.5-0.8B與Gemma4-E2B-it。



在更看綜合實力的Artificial Analysis(AA)榜單上,MiniCPM-V 4.6的得分也表現出色,領先Mistral 3 3B、Qwen 3.5-0.8B等在內的一眾模型一個身位,成為了1B多模態大模型賽道的「新科狀元」!


但真正讓技術圈高潮的,是它的效率!

  • 推理吞吐量:直接干到1.5倍

拿一張4090跑高并發,MiniCPM-V 4.6處理高清圖的吞吐量是Qwen3.5-0.8B 的1.5倍

什么概念?一樣的服務器成本,你能扛住過去1.5倍的用戶流量對于SaaS服務來說,這就是赤裸裸的利潤。


  • 首響延遲(TTFT):延遲曲線被拉直了!

處理31362的超高清大圖,它的首響延遲比對手快了2.2倍。更驚人的是,當圖片分辨率暴漲49倍,它的延遲增長居然不到2.5倍

這條幾乎被「拉直」的延遲曲線,意味著你的4090無論加載多大的圖,用戶體感都差不多——一個字,穩!


這兩個維度共同指向同一個結論:MiniCPM-V 4.6用更短的視覺序列和更小的 KV-Cache,把端側體感與云側ROI同時推到了新的高度。

對端側產品而言,這意味著流暢;對云端工業場景而言,這意味著同等成本下的吞吐翻倍。

參數更大,跑得更快這聽起來就像是物理學不存在了。但這背后,是兩個非常硬核的架構創新。

技術深扒:這效率「外掛」是怎么開的?

為什么一個比Qwen3.5-0.8B參數更大的模型,反而跑得更快?

答案藏在MiniCPM-V 4.6的兩項核心架構創新里:一個是ViT架構創新,另一個是4倍/16倍混合視覺token壓縮率

ViT架構重構

LLaVA-UHD v4開路

傳統ViT(視覺編碼器) 在編碼圖像時,會讓大量冗余視覺token一路跑完全程,造成顯著的算力浪費。

就像個耿直的打工人,收到一堆視覺Token(圖像信息塊),不管有用沒用、全部拉通處理一遍,計算量巨大。

而MiniCPM-V 4.6不當「老實人」,采用了面壁智能聯合清華大學自研的LLaVA-UHD v4技術,在 ViT 內部很早就把沒用的Token給優化掉了,提前完成視覺token的壓縮,算力直接節省約50%

也就是說,僅在圖像編碼這一環節,MiniCPM-V 4.6就比傳統ViT路線少跑了一半的開銷,且性能不掉點。

這也是為什么 MiniCPM-V 4.6雖然參數比Qwen3.5-0.8B略大,卻在推理效率上實現反超的根本原因。

具體是怎么做到的?

主要是LLaVA-UHD v4圍繞兩個方向做了優化:如何更高效地看高清大圖,以及如何更早地減少視覺Token帶來的計算負擔。

一是「切片大法」不傻乎乎地處理整張高清大圖,而是先切成小塊,分而治之。這樣Attention計算量就不會隨分辨率指數爆炸。MiniCPM-V 4.6的研究團隊做了不同尺寸和不同數據量的模型試驗,證明切片相比于全局編碼不掉點——這實際是一個「反常識」的技術突破。

二是「提前壓縮」最關鍵的一步。在ViT剛開始工作沒多久,就用一個精巧的壓縮模塊(Intra-ViT Early Compressor)把Token數量壓下來。這樣一來,后續ViT層的計算開銷節省75%+。


LLaVA-UHD v4 論文鏈接:https://huggingface.co/papers/2605.08985

通過這一設計,視覺Token壓縮可以穩定地前移到 ViT 淺層,在大幅降低后續計算量的同時,仍然保持較好的圖像表征質量和下游任務表現。

這就是MiniCPM-V 4.6「效率反超」的秘密武器:在最耗算力的環節,只干最該干的活。

4倍/16倍混合壓縮

給足開發者選擇權

視覺token壓縮率,影響的是顯存占用、首響延遲、推理吞吐、功耗這些核心效率指標,壓縮率越高,響應速度就越快。

市面上的多模態大模型,絕大部分都焊死在了固定的4倍壓縮MiniCPM-V系列從2024年起就率先支持16倍壓縮,此前支持在4倍/16倍中二選一,但這次MiniCPM-V 4.6實現了魚和熊掌可兼得


  • 4倍模式(精度更高)適合高要求識別任務,如文檔解析、密集文字識別等。跑文檔識別、醫療影像這種任務,一個像素都不能錯。

  • 16倍模式(速度更快)跑手機端實時交互、云端高并發API,速度就是生命線。


這個設計,讓同一個模型既能塞進手機里做你的隨身AI,又能部署在云端扛住千萬級日活兩全其美,開發者便無需做取舍。

這可不是PPT技術。快手的推薦大模型OneRec,扛下主場景25%的流量,就采用了MiniCPM-V系列模型。16倍壓縮的工業級實戰能力,已經被真金白銀驗證過了。


論文地址:

https://arxiv.org/abs/2502.18965

只需一張 4090

為「魔改」而生的開源生態

技術再牛,部署和微調不行、開發者照樣不買賬。

面壁智能這次直接把開發者體驗拉滿了。

最炸裂的一點是:一張消費級的RTX 4090,就能完整跑下全量微調!

這意味著什么?無論是獨立開發者、小團隊還是學術圈,多模態模型的定制化開發,都能用得起MiniCPM-V 4.6,門檻從「服務器集群」直接降到了「一臺高性能PC」。這才是真正的AI普惠!

配套的工具鏈也安排得明明白白!

MiniCPM-V 4.6實現了與當前主流開源生態的全面無縫對接,讓開發者徹底告別繁瑣的環境配置:

  • 微調:原生支持最火的LLaMA-Factory和ms-swift——


微調框架

LLaMA-Factory:

MiniCPM-V-CookBook/finetune/finetune_minicpmv46_zh.md at main · OpenSQZ/MiniCPM-V-CookBook

ms-swift:

MiniCPM-V-CookBook/finetune/finetune_minicpmv46_zh.md at main · OpenSQZ/MiniCPM-V-CookBook


  • 推理:vLLM、SGLang、llama.cpp、Ollama全家桶無縫銜接——


推理框架:

vLLM:

https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/vllm/minicpm-v4_6_vllm_zh.md

SGLang:

https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/sglang/minicpm-v4_6_sglang_zh.md

llama.cpp:

https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/llama.cpp/minicpm-v4_6_llamacpp.md

Ollama:

https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/ollama/minicpm-v4_6_ollama_zh.md

極低的顯存占用、極高的并發吞吐量、完備的上下游工具鏈——可以說MiniCPM-V 4.6天生就是為了被「魔改」而生,是開發者用于構建高并發計算、極速響應的垂直應用的高性價比多模態底座

它把最硬核的底層優化做完,把最靈活的改造空間留給了社區。

端側部署指南

https://github.com/tc-mb/MiniCPM-V-edge-demo/blob/main/README_zh.md

從「被抄襲」到「定義者」

端側 AI 的中國敘事

從2024年4月的V 2.0算起,MiniCPM-V已經走過了6代


截至2026年3月,MiniCPM-V系列在開源社區累計下載量已接近3000萬,多次霸榜GitHub Trending與HuggingFace趨勢榜。

在產業落地端,已先后服務于聯想、吉利、上汽大眾、廣汽、馬自達、紅旗等廠商,覆蓋汽車、PC、手機、智能家居等多場景。

回顧面壁智能的MiniCPM-V系列,你會發現一條非常清晰的進化路徑——追求極致的「智能密度」。

也就是,用最小的代價,干最智能的事。

從2024年面壁智能密度定律登上《Nature子刊》,到MiniCPM-V2.5被斯坦福研究團隊「套殼」引發全球關注,再到今天MiniCPM-V 4.6用1.3B模型重新定義端側效率,面壁智能已經變成端側AI賽道的最大「定義者」。

MiniCPM-V 4.6的發布,不只是一個更強的模型,更是一個信號:端側AI的「妥協」時代,正在結束。

MiniCPM-V 4.6證明了:1B多模態模型可以又強又快又省,也可以同時擔任端側最佳基座和云端高并發利器

面壁在做的事情,從來不是卷參數、卷榜單。

他們在用一種近乎偏執的方式,把AI能力塞進每一塊你能想到的屏幕里——手機、平板、車載屏、智能家居面板、工廠質檢終端……凡是有屏幕、有芯片的地方,都是他們想覆蓋的場景。這便是所謂「智周萬物」。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
CBA賽場絕美女球迷意外走紅!疑似東陽光老板娘,AI真假網友吵翻

CBA賽場絕美女球迷意外走紅!疑似東陽光老板娘,AI真假網友吵翻

譚談社會
2026-05-13 03:53:12
被姚明抱著上奧運的抗震小英雄,曾發誓考上清華,18年后成了這樣

被姚明抱著上奧運的抗震小英雄,曾發誓考上清華,18年后成了這樣

云舟史策
2026-05-13 07:17:23
中央定調!2026年養老金傳來好消息,養老金1500元,漲3%難不難?

中央定調!2026年養老金傳來好消息,養老金1500元,漲3%難不難?

小彬說事
2026-05-13 11:40:55
5月13日,人社部、財政部關于2026年調整養老金通知下發了嗎?

5月13日,人社部、財政部關于2026年調整養老金通知下發了嗎?

小彬說事
2026-05-13 11:39:24
“十年燒烤無人問,一墻書法天下知!”女孩在父親店寫《將進酒》

“十年燒烤無人問,一墻書法天下知!”女孩在父親店寫《將進酒》

一絲不茍的法律人
2026-05-12 21:58:34
復旦解剖326名糖尿病逝者,意外發現:得糖尿病的人,大多有5共性

復旦解剖326名糖尿病逝者,意外發現:得糖尿病的人,大多有5共性

芹姐說生活
2026-05-12 15:38:02
頭皮發麻!廣東飛蟻大爆發 住30幾樓都逃不掉

頭皮發麻!廣東飛蟻大爆發 住30幾樓都逃不掉

看看新聞Knews
2026-05-13 12:04:06
京滬高鐵漲價,罵聲一片

京滬高鐵漲價,罵聲一片

鳳眼論
2026-05-12 16:53:49
特朗普訪華隨行名單:夫人缺席,次子夫婦、魯比奧隨行,黃仁勛作為臨時增加人員登上空軍一號

特朗普訪華隨行名單:夫人缺席,次子夫婦、魯比奧隨行,黃仁勛作為臨時增加人員登上空軍一號

大風新聞
2026-05-13 11:24:16
不少女網約車司機宣布退出女性友好計劃,直言不想接女乘客

不少女網約車司機宣布退出女性友好計劃,直言不想接女乘客

映射生活的身影
2026-05-12 20:56:00
炸鍋!皇馬傳奇公開抵制穆里尼奧,老佛爺發布會當場發飆

炸鍋!皇馬傳奇公開抵制穆里尼奧,老佛爺發布會當場發飆

瀾歸序
2026-05-13 04:10:08
太猖狂!四川凌晨追打事件后續:6人一鍋端,被查女子蠻橫襲警

太猖狂!四川凌晨追打事件后續:6人一鍋端,被查女子蠻橫襲警

奇思妙想草葉君
2026-05-12 16:24:04
人民日報:中美關系回不到過去,但能夠有一個更好的未來

人民日報:中美關系回不到過去,但能夠有一個更好的未來

新京報
2026-05-13 08:11:06
韓網熱帖:用自己的生殖器代替檢查設備插入患者體內 的婦產科醫生

韓網熱帖:用自己的生殖器代替檢查設備插入患者體內 的婦產科醫生

奮斗在韓國
2026-05-12 10:27:58
俄軍前線失控,指揮癱瘓、軍頭林立,1917年式危機陰影重現。

俄軍前線失控,指揮癱瘓、軍頭林立,1917年式危機陰影重現。

高博新視野
2026-05-13 07:30:17
戾氣為何這么重?因為問題無人去解決

戾氣為何這么重?因為問題無人去解決

柴差說
2026-05-12 19:11:42
一季度失業保險基金支出536.6億元,同比增長15.4%

一季度失業保險基金支出536.6億元,同比增長15.4%

爆角追蹤
2026-05-13 10:25:49
29歲克拉克突然去世!疑似因藥物過量死亡 李凱爾等好友悲痛萬分

29歲克拉克突然去世!疑似因藥物過量死亡 李凱爾等好友悲痛萬分

羅說NBA
2026-05-13 05:43:30
打破常規 國內航線燃油附加費5月16日起再上調

打破常規 國內航線燃油附加費5月16日起再上調

財聯社
2026-05-12 16:55:15
恭喜湖人!2860萬續約!八村塁新合同曝光,網友:白菜價

恭喜湖人!2860萬續約!八村塁新合同曝光,網友:白菜價

錢說體育
2026-05-13 10:52:53
2026-05-13 13:43:00
新智元 incentive-icons
新智元
AI產業主平臺領航智能+時代
15198文章數 66864關注度
往期回顧 全部

科技要聞

谷歌劇透安卓重大升級 Gemini深度集成底層

頭條要聞

特朗普訪華隨行名單:夫人缺席 次子夫婦、魯比奧隨行

頭條要聞

特朗普訪華隨行名單:夫人缺席 次子夫婦、魯比奧隨行

體育要聞

14年半,74萬,何冰嬌沒選那條更安穩的路

娛樂要聞

鞏俐用中文宣布戛納開幕,彰顯國際地位

財經要聞

深圳夫妻囤芯片,身家飆漲320億

汽車要聞

吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

態度原創

房產
藝術
本地
時尚
數碼

房產要聞

海口禁摩,3.3萬名車主要慌了!

藝術要聞

果然是經濟強省!浙江縣域第一高樓,高約300米!

本地新聞

用蘇繡的方式,打開江西婺源

沒八卦、純素人、不驚艷,可她贏麻了

數碼要聞

聯發科天璣開發者大會MDDC 2026:官宣天璣AI智能體化引擎2.0

無障礙瀏覽 進入關懷版