網易首頁 > 網易號 > 正文 申請入駐

vLLM v0.17.0來了,Qwen3.5 全系列完美支持,Anthropic API 兼容

0
分享至

關于 vLLM,我之前寫過不少:

今天 vLLMv0.17.0 正式發布


十大核心亮點速覽

我從 Release Notes 里提煉了 v0.17.0 最值得關注的十大核心亮點,按重要程度排列:

1?? FlashAttention 4 集成

這可能是這個版本最讓人興奮的更新。vLLM 現在正式支持FlashAttention 4 后端了。

FlashAttention 一路從 1 到 2 到 3,現在 4 也來了。每一代都在推動 attention 計算的效率極限。FA4 在前代基礎上又做了大量底層優化,對于長序列、大模型的推理性能提升顯著。

如果你在用 H100/H200 或者更新的 GPU 跑大模型推理,升級到 v0.17 應該能明顯感受到速度提升。

2?? Model Runner V2 里程碑:全面成熟

Model Runner V2 是 vLLM 下一代模型執行架構,在這個版本中達到了一個重要的成熟里程碑

  • Pipeline Parallel(流水線并行)

  • Decode Context Parallel(解碼上下文并行)

  • Eagle3 推測解碼+ CUDA Graph

  • Pooling 模型支持

  • 分段 & 混合 CUDA Graph 捕獲

  • DP+EP 推測解碼

  • 全新 ModelState 架構

此外官方還發布了Model Runner V2 的設計文檔,對于想深入了解 vLLM 內部架構的同學,這是一份非常好的學習資料。

簡單來說,Model Runner V2 是 vLLM 的「心臟升級」。它讓 vLLM 在多卡、多節點、各種并行策略下的推理變得更加靈活和高效。

3?? Qwen3.5 全家桶支持

我之前介紹過的方法,vLLM一節都是用的nightly版()

Qwen3.5 模型全系列在這個版本得到了完整支持,包括:

  • 基于GDN(Gated Delta Networks)的全新架構

  • FP8 量化支持

  • MTP 推測解碼

  • 推理解析器(reasoning parser)支持

這意味著你可以直接在 vLLM 上跑 Qwen3.5 的各種版本,享受推測解碼和量化加速的全套優化。

對于國內用戶來說,這可能是最實際的更新之一——Qwen3.5 是目前開源圈里最強的中文大模型之一,但是這一波 vLLM 有點慢了。

4??--performance-mode一鍵性能調優

這個功能太貼心了。之前部署 vLLM,性能調優需要手動設置一堆參數(batch size、調度策略等),對新手非常不友好。

現在只需要一個參數:

vllm serve your-model --performance-mode throughput

提供三種模式:

  • **balanced**:均衡模式,適合大多數場景

  • **interactivity**:交互模式,優先降低首 token 延遲,適合聊天場景

  • **throughput**:吞吐模式,最大化吞吐量,適合批處理場景

不用再去查文檔翻參數了,一個 flag 搞定。這種把復雜度封裝起來的思路,我很喜歡。

5?? Anthropic API 兼容

vLLM 之前一直兼容 OpenAI API 格式,現在開始支持Anthropic API 兼容了:

  • thinking blocks(思考塊)支持

  • count_tokensAPI

  • tool_choice=none選項

  • streaming 和圖片處理修復

這意味著如果你的應用代碼之前是基于 Anthropic Claude API 寫的,現在可以無縫切換到本地 vLLM 部署的模型。API 兼容性做得越來越好,這對于降低遷移成本太重要了。

6?? 權重卸載 V2:預取技術隱藏延遲

對于顯存不夠用的同學,這個更新很關鍵。

v0.17 的權重卸載器引入了預取機制(Prefetching),可以在 GPU 計算的同時,把下一層的權重從 CPU 加載到 GPU,從而隱藏權重加載延遲

此外還支持了:

  • 選擇性 CPU 權重卸載:不用全部卸載,只卸載你指定的層

  • 無需雙倍 pinned memory 的 CPU 卸載:省內存

這對于在消費級 GPU(3090、4090)上跑大模型的同學來說,是實打實的優化。

7?? 彈性專家并行 Phase 2

MoE(Mixture of Experts)模型是當前大模型的主流架構(DeepSeek-V3/V3.2、Qwen3 MoE、Llama 4 等),vLLM 在這個版本引入了彈性專家并行 Milestone 2

核心能力:動態 GPU 縮放

什么意思?就是你的 MoE 模型可以根據負載動態調整使用的 GPU 數量,負載低的時候少用幾張卡省錢,負載高的時候自動擴展。這對于生產環境的成本優化太重要了。

8?? 量化 LoRA 適配器直接加載

之前在 vLLM 上用 LoRA 微調后的模型,如果是量化版本(比如 QLoRA),需要各種周折才能加載。

現在,vLLM 可以直接加載量化 LoRA 適配器了。

這對于做 LoRA 微調 + 量化部署的工作流來說是個大利好。QLoRA 訓練完直接扔到 vLLM 里就能跑,中間環節省了。

9?? 推測解碼全面進化

推測解碼(Speculative Decoding)是加速 LLM 推理的關鍵技術,v0.17 在這方面做了大量優化:

  • Eagle3推測解碼支持 CUDA Graph,速度更快

  • Nemotron-HMTP 和 Mamba 推測解碼

  • Sparse MLA + MTP全 CUDA Graph 支持

  • DP+EP推測解碼(數據并行 + 專家并行)

  • Eagle3 支持disaggregated serving(分離式推理)

特別是 Eagle3 + CUDA Graph 這個組合,是這次推測解碼部分最值得關注的組合之一。

Kernel 層面的深度優化

這個版本在底層內核上做了大量「不起眼但很重要」的優化:

  • FlashInfer Sparse MLA后端

  • Triton top-k / top-p 采樣器內核

  • TRTLLM DSV3 Router GEMM 內核:batch-1 場景加速 6%

  • FA3 swizzle 優化

  • 256-bit LDG/STG 激活內核

  • Helion 內核框架:自動調優基礎設施

這些優化可能單個看不起眼,但加在一起就是量變引起質變。實際測試中,DeepSeek R1 BF16 最低延遲 QKV GEMM 做到了0.5% 端到端加速,Pipeline Parallel 異步收發做到了2.9% 端到端吞吐提升,pooling maxsim 做到了13.9% 吞吐提升

硬件支持:不止 NVIDIA

vLLM 越來越不是 NVIDIA 的專屬了。v0.17 在硬件支持上做了大量工作:

NVIDIA 方面:

  • SM100(Blackwell)FP8 MLA prefill 支持

  • SM100 MXFP8 塊級縮放分組矩陣乘法

  • SM120 FP8 GEMM 優化

  • FlashInfer DeepGEMM 在 SM90 上默認開啟 swapAB

AMD ROCm 方面:

  • AITER 融合 RoPE+KVCache

  • gfx950 上 MXFP4 MoE 權重預混洗

  • bitsandbytes 量化支持

  • CK(Composable Kernel)MoE 量化后端

Intel XPU 方面:

  • CUDA graph 支持終于來了

  • NIXL GPUDirect RDMA

CPU 方面:

  • ARM BF16 交叉編譯

  • s390x FP16 支持

  • 同時支持 AVX2 和 AVX512 的 CPU 發行版

如果你是 AMD 或 Intel 的用戶,現在上 vLLM 的體驗已經好了很多。雖然和 NVIDIA 比還有差距,但差距在快速縮小。

ASR 模型支持:不只是 LLM 了

v0.17 有一個很有意思的變化——開始支持ASR(語音識別)模型了:

  • FunASR

  • FireRedASR2

  • Qwen3-ASR 實時流式識別

vLLM 從名字看是「vLLM」——Virtual LLM,但現在它的野心顯然不止于文本大模型。之前加了多模態(視覺、音頻),現在又加了 ASR,正在進化成一個全模態推理引擎

升級注意事項

在你興沖沖跑去升級之前,說幾個需要注意的點:

1. PyTorch 2.10 升級(Breaking Change!)

v0.17 升級到了 PyTorch 2.10,這是環境依賴的破壞性變更。如果你的環境依賴特定版本的 PyTorch,需要做好兼容性測試。

2. CUDA 12.9+ 已知問題

如果你在 CUDA 12.9+ 上遇到CUBLAS_STATUS_INVALID_VALUE錯誤,可以試試:

# 方法 1:清理 LD_LIBRARY_PATH
unset LD_LIBRARY_PATH

# 方法 2:uv 安裝
uv pip install vllm --torch-backend=auto

# 方法 3:指定 CUDA 版本
pip install vllm --extra-index-url https://download.pytorch.org/whl/cu129

3. KV 緩存加載策略變更

KV load failure policy 默認值從recompute變為fail。如果你的部署依賴自動重算行為,需要手動設置回去。

安裝

安裝很簡單,一行命令:

uv pip install vllm

Docker 用戶:

docker pull vllm/vllm-openai:v0.17.0
docker run --gpus all \
-v ~/.cache/huggingface:/root/.cache/huggingface \
--env "HF_TOKEN=$HF_TOKEN" \
-p 8000:8000 \
--ipc=host \
vllm/vllm-openai:v0.17.0 \
--model Qwen/Qwen3-0.6B
和 SGLang 怎么選?

這是評論區最常被問到的問題之一。我簡單說下我的看法:

  • vLLM:更成熟,社區更大(GitHub 50k+ stars),硬件兼容性更好,企業級特性更豐富(pipeline parallel、disaggregated serving 等)。適合生產環境部署。

  • SGLang:在某些場景下性能更極致(特別是 DeepSeek 系列模型),API 更現代化。適合追求極致性能的場景。

兩者都是頂級的推理引擎,現在更像是Chrome vs Firefox的關系——競爭推動了整個行業的進步。

總結

vLLM v0.17.0 是一個里程碑式的版本。FlashAttention 4 集成、Model Runner V2 成熟、Qwen3.5 全面支持、一鍵性能調優、Anthropic API 兼容……幾乎每一個更新都是硬核的工程突破。

如果你正在做 LLM 推理部署,不管是研發還是生產環境,vLLM 依然是最值得關注的推理引擎之一

.5

制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
全球外交大地震!美俄同月訪華,世界徹底看清,中國才是終極港灣

全球外交大地震!美俄同月訪華,世界徹底看清,中國才是終極港灣

小祁談歷史
2026-04-24 05:23:52
一位漂亮素雅的新娘子!

一位漂亮素雅的新娘子!

情感大頭說說
2026-04-24 04:45:22
田亮做夢也沒想到,費心養大的14歲兒子,如今竟“壓自己一頭”

田亮做夢也沒想到,費心養大的14歲兒子,如今竟“壓自己一頭”

以茶帶書
2026-04-23 16:11:50
小寶與王某雷,誰探訪花的數量更多?

小寶與王某雷,誰探訪花的數量更多?

挪威森林
2026-01-31 12:15:26
笑不活了!女孩把雞畫得圓肥被判不合格,家長把雞的照片發給老師

笑不活了!女孩把雞畫得圓肥被判不合格,家長把雞的照片發給老師

火山詩話
2026-04-21 09:46:21
身價百億,坐擁北京一條街,出門私人飛機,京圈頂級富婆都有誰?

身價百億,坐擁北京一條街,出門私人飛機,京圈頂級富婆都有誰?

小椰的奶奶
2026-04-23 14:52:12
ASML公司CEO:中國芯片落后世界8年,因為他們已經8年沒有獲得我們的EUV光刻機

ASML公司CEO:中國芯片落后世界8年,因為他們已經8年沒有獲得我們的EUV光刻機

芯火相承
2026-04-23 17:33:03
酒店里,擠滿了偷偷開房的已婚女性

酒店里,擠滿了偷偷開房的已婚女性

二胡的歲月如歌
2026-04-22 19:03:26
更大規模海戰來了?

更大規模海戰來了?

中國新聞周刊
2026-04-22 20:50:08
段睿深夜悲痛發文:再也沒有人等我回去了!

段睿深夜悲痛發文:再也沒有人等我回去了!

原夢叁生
2026-04-22 20:06:36
劃清界限!高云翔憔悴發聲撇清張婉婷,不留情面,一句話暗含深意

劃清界限!高云翔憔悴發聲撇清張婉婷,不留情面,一句話暗含深意

離離言幾許
2026-04-24 07:12:13
她一嫁演員祝延平,二嫁杜淳老爸杜志國,現在老了與兒子相依為命

她一嫁演員祝延平,二嫁杜淳老爸杜志國,現在老了與兒子相依為命

混沌錄
2026-04-23 17:11:04
單身越久,死亡風險越高?中國科學家:每周2次性生活是安全線

單身越久,死亡風險越高?中國科學家:每周2次性生活是安全線

思思夜話
2026-04-23 11:30:19
人民日報發文,揭張桂梅真實現狀,卸任華坪女高校長傳聞早有真相

人民日報發文,揭張桂梅真實現狀,卸任華坪女高校長傳聞早有真相

歲暮的歸南山
2026-04-23 16:31:58
5月1日起,3萬塊就能把老板送進去,不明財產門檻卻漲到了300萬!

5月1日起,3萬塊就能把老板送進去,不明財產門檻卻漲到了300萬!

今朝牛馬
2026-04-23 23:23:59
比封鎖海峽更狠!伊朗亮出終極王牌,霍爾木茲海底光纜或將被切斷

比封鎖海峽更狠!伊朗亮出終極王牌,霍爾木茲海底光纜或將被切斷

芳芳歷史燴
2026-04-23 18:30:17
遼寧莊河回應“8歲男童爬山發現金礦線索”:當地已圈定200多處礦化點,事發地也有成金礦可能

遼寧莊河回應“8歲男童爬山發現金礦線索”:當地已圈定200多處礦化點,事發地也有成金礦可能

極目新聞
2026-04-23 10:00:21
中央定調,2026年養老金或調整,低于3600,補發7個月能漲700嗎?

中央定調,2026年養老金或調整,低于3600,補發7個月能漲700嗎?

游古史
2026-04-24 04:01:53
10萬元不翼而飛!上海老夫妻放在洗衣機里的現金沒了,護工堅稱自己清白,真相竟是→

10萬元不翼而飛!上海老夫妻放在洗衣機里的現金沒了,護工堅稱自己清白,真相竟是→

環球網資訊
2026-04-23 19:39:20
高市翻車了?日本打出藏了14年的“底牌”,外媒:根本攔不住了!

高市翻車了?日本打出藏了14年的“底牌”,外媒:根本攔不住了!

瘋狂小菠蘿
2026-04-23 14:27:12
2026-04-24 09:23:00
Ai學習的老章 incentive-icons
Ai學習的老章
Ai學習的老章
3348文章數 11139關注度
往期回顧 全部

科技要聞

馬斯克喊出"史上最大產品",但量產難預測

頭條要聞

女子網購1450單又退貨1450單 老板娘盤點后稱損失12萬

頭條要聞

女子網購1450單又退貨1450單 老板娘盤點后稱損失12萬

體育要聞

給文班剃頭的馬刺DJ,成為NBA最佳第六人

娛樂要聞

王大陸因涉黑討債被判 女友也一同獲刑

財經要聞

19家企業要"鋁代銅",格力偏不

汽車要聞

預售30.29萬起 嵐圖泰山X8配896線激光雷達

態度原創

數碼
健康
教育
房產
軍事航空

數碼要聞

榮耀新平板發布,全球最薄OLED,起步價3499元

干細胞如何讓燒燙傷皮膚"再生"?

教育要聞

相似無刻度直尺作圖,一個視頻學會!

房產要聞

三亞安居房,突然官宣!

軍事要聞

美伊陷入互相封鎖僵局

無障礙瀏覽 進入關懷版