網易首頁 > 網易號 > 正文 申請入駐

VFMTok: Visual Foundation Models驅動的Tokenizer時代來臨

0
分享至



視覺 Tokenizer 的困境與破局

近年來,自回歸(Autoregressive, AR)模型在語言生成領域的成功激發了其在圖像生成領域的應用,涌現出 DALL-E、Parti、VAR 和 LlamaGen 等代表性工作。這類技術高度依賴于 VQGAN 等視覺 Tokenizer,它負責將高維、冗余的像素空間映射到一個低維、緊湊的離散潛在空間,是決定生成模型上限的基石。

然而,以 VQGAN 為代表的傳統 Tokenizer 通常需要從零開始訓練,其訓練目標由像素級重建損失函數主導,導致其產生的潛在空間:

  1. 富含低層細節特征卻缺乏高層語義信息:能很好地還原圖像細節,但潛在編碼本身缺乏高層語義信息。
  2. 較高的潛在空間冗余:VAGAN 基于圖像塊 (patch) 逐一進行量化,而圖像中的物體通常是不規則的區域,基于圖像塊的量化降低了 tokens 的編碼效率。
  3. 無視結構特性的表征:潛在空間的組織較為混亂,使得生成模型不僅需要更長的訓練時間來學習其潛在空間分布,而且往往得借助 CFG(Classifier-Free Guidance, CFG)等技巧來實現高保真度的圖像生成,增加了模型推理時間。

與此同時,預訓練的視覺基礎模型(Visual Foundation Models, VFMs),如 CLIP、DINOv2、SigLIP2 等,在提取豐富語義且可泛化視覺特征方面表現出了強大的能力。這些模型通過自監督或語言監督的方式進行訓練,它們能夠有效抽象出圖像中的高層語義信息,因此這些預訓練的視覺基礎模型大多應用于圖像內容理解任務當中。直接將其應用于圖像重建和生成任務上卻鮮有人探索。

基于此,香港大學 CVMI Lab 和階躍星辰 AIGC 團隊提出一個大膽假設:原本為視覺理解任務設計的預訓練視覺基礎模型,其潛在特征是否也能直接作為圖像重建與生成的魯棒結構化表征?

為了驗證這一猜想,我們探索了一個基礎視覺模型新的應用新方向:用凍結的預訓練視覺基礎模型構造離散的視覺 Tokenizer,將其應用于圖像重建和自回歸圖像生成任務上。

我們發現,相比于傳統的視覺 Tokenizer 模型,視覺基礎模型驅動的圖像 Tokenizer 在這兩項任務上均表現出優異的性能。



  • 論文標題: Vision Foundation Models as Effective Visual Tokenizers for Autoregressive Generation
  • 論文地址: https://arxiv.org/pdf/2507.08441
  • Huggingface: https://huggingface.co/papers/2507.08441
  • Github:
  • https://github.com/CVMI-Lab/VFMTok.git (Vanilla version)
  • https://github.com/CVMI-Lab/VFMTok-RAR.git (Ultra version)

探索性發現

為了驗證視覺基礎模型 (VFMs) 能否構造高質量的視覺 Tokenizer,我們首次嘗試使用不同的凍結的預訓練基礎視覺模型 (VFMs) 提取圖像特征,將其送入 VQGAN 的編碼器中進行端到端訓練。訓練階段只有量化器(quantilizer)和解碼器中的參數會進行更新,隨后用它完成自回歸圖像生成任務。

實驗表明:凍結的視覺基礎模型 (VFMs) 提取的圖像特征可以直接用于圖像重建,且訓練好的視覺 Tokenizer 在自回歸圖像生成任務上的表現優于傳統的視覺 Tokenizer 模型。

這一發現凸顯了預訓練視覺基礎模型 (VFMs) 構造高質量視覺 Tokenizer 的巨大潛力。



核心思想

基于我們的探索性發現:凍結的視覺基礎模型 (VFMs) 可以直接構造高質量的視覺 Tokenizer 并進行端到端地訓練,我們對構造的視覺 Tokenizer 的結構進行進一步的優化 —— 利用視覺基礎模型 (VFMs)提取圖像的多層特征 (Multi-level Features Extraction),這有助于同時捕獲圖像中的低層細節特征和高層語義信息。

同時,我們注意到現有的量化機制 (quantization) 都是對圖像塊 (patch) 逐一量化,而圖像中物體一般都是形狀不規則的,因此我們設計了區域自適應的量化 (Region-Adaptive Quantization) 方案。該方案可以進一步降低潛在特征空間的冗余度,提高視覺 tokens 的利用效率。

此外,因為視覺基礎模型的參數是凍結的,因此在重建圖像內容的同時,我們也設計了語義特征重建的目標函數 (Semantic Reconstruction Objective),來提升視覺 Tokenizer 的語義保真度。我們將基于視覺基礎模型 (VFMs) 的 Tokenizer 稱之為VFMTok。



VFMTok 架構圖

關鍵技術細節

  • 多層圖像特征提取 (Multi-level Features Extraction)

為了同時捕獲圖像低層細節特征和高層語義信息方便圖像重建,VFMTok 采用凍結的預訓練的視覺基礎模型 (VFMs) 作為編碼器提取多層級語義特征。VFMTok 按照等間隔的方式從預訓練基礎模型 (VFMs) 中提取多層特征 (multi-level features)。

  • 區域自適應量化 (Region-Adaptive Quantization)

為了實現區域自適應量化 (Region-Adaptive Quantization) 機制,VFMTok 通過可學習「錨點查詢」(Anchor Queries)結合可變形注意力機制(Deformable Attention)自適應地從多層級特征 (multi-level features) 中進行區域自適應的特征采樣 (Region-Adaptive Sampling)。

這種方式能聚焦于采樣圖像中模式一致的區域。隨后,VFMToks 對可學習「錨點查詢」(Anchor Queries)進行量化 (quantization)。這種方式可以有效提升 token 的利用效率 —— 用更少的 tokens(256)來表征一張圖像。



  • 語義重建目標(Semantic Reconstruction Objective)

因為視覺基礎模型在 Tokenizer 的訓練階段參數是凍結的,因此 VFMTok 在重建圖像的同時,也會重建凍結的基礎模型(VFM)最后一層的語義特征。

為了實現這一點,VFMTok 解碼階段設計了一個共享的輕量級 Vision Transformer(ViT)。這個 ViT 接收區域自適應量化后的 tokens,結合一個可學習的 mask token 以及一組可學習的位置編碼(Positional Embedding)作為輸入,分別產生用于圖像重建和語義重建的特征。共享 ViT 的設計既減少了參數量又保證了語義保真度。其雙重目標函數是:





訓練完成后,VFMTok 可以被應用于圖像自適應回歸任務上,基于 next-token prediction 的方式生成高質量的圖像內容。

實驗亮點與分析

1.卓越的重建生成質量與效率

大量實驗表明,基于視覺基礎模型 (VFMs) 構造的視覺 Tokenizer——VFMTok,具備高質量、高效率的圖像重建和自回歸圖像生成能力。

  • 更好的圖像重建質量:相較于傳統的視覺 Tokenizer,VFMTok 可以用更少的 token 數量(僅用 256 個)實現更優的重建質量(0.89 rFID, 215.4 rIS)和更高的碼本利用率 (100%),超越了之前大部分傳統的離散 Tokenizers。



  • 更快的生成訓練收斂速度:相比于經典的 VQGAN 這類 Tokenizer,VFMTok 能夠顯著提升自回歸模型訓練階段的收斂速度 ——訓練收斂速度提升了 3 倍。



  • 更好的生成性能:在 ImageNet 256x256 的 class-to-image 生成任務上,VFMTok-1.4B 模型在參數量更少、訓練迭代次數更少的情況下,自回歸生成性能超越了同類 LlamaGen-3B。此外,在接入更好的自回歸圖像生成框架 RAR 后,實現了SOTA 的圖像生成性能(gFID: 1.36)。



  • CFG-free 優越性:值得注意的是,VFMTok 在有無 CFG 的情況下性能幾乎一致(gFID: 2.07 vs 2.04),而 LlamaGen 則會從 2.19 急劇惡化至 9.38。這證明了其潛在空間具有極強的語義一致性,無需 CFG 即可實現高保真度的 class-to-image 圖像生成,可以進一步減少圖像生成時間。
  • 更快的推理速度:由于 tokens 數量減半(256 vs. 576),自回歸模型的生成過程長度減半,推理速度因此獲得了約 4 倍的提升。

2.消融實驗的有力證明

僅使用凍結的 VFM 作為編碼器,線性探針準確率(linear probing)就從 VQGAN 的 23.1% 提升至56.4%。引入區域自適應量化 (Region-Adaptive Quantization) 和語義特征重建 (Semantic Reconstruction Objective) 后,VFMTok 僅用 256 個 Token 就能在重建質量(rFID 0.89 vs 0.95) 上全面超越使用 576 個 Token 的 VQGAN 基線 Tokenizer。



總結與展望

VFMTok 首次證明了凍結的視覺基礎模型 (VFMs) 提取的圖像特征能有效用于圖像重建與生成,同時可以提升 Tokenizer 語義表征能力,使自回歸 (AR) 圖像生成模型收斂更快,并能實現 CFG-free 的高保真圖像合成。VFMTok 提出的區域自適應量化機制,通過有效利用圖像區域的固有冗余實現緊湊編碼,在減少視覺 token 數量的同時提升性能,實現高效且高質量的自回歸圖像生成。

大量實驗驗證了 VFMTok 在圖像重建和自回歸生成中的有效性,確立了預訓練視覺基礎模型 (VFMs) 構造高質量、高效率 Tokenizer 的主導地位。

由此可見,利用 VFM 的先驗知識是構建高質量潛在空間的必由之路,也是構建下一代 Tokenizer 的關鍵,這比任何從零開始的正則化或約束都更根本、更有效。預訓練視覺基礎模型的巨大潛力值得我們在未來深入挖掘,最終可能探索出一個能夠有效兼容所有生成模型的、語義豐富、高質高效的「統一 Tokenizer」。

VFMTok 論文與代碼均已公開,歡迎感興趣的同學閱讀、復現以及深入討論。

作者介紹

本文作者主要來自于香港大學 CVMI Lab 和階躍星辰 AIGC 團隊。階躍星辰 AIGC 團隊主要致力于圖像生成底模、圖像編輯底模、世界模型以及 RL 后訓練研究和落地。歡迎志同道合的同學交流和加入,一起為 AIGC 社區貢獻力量。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
全網唱衰的下嫁!嫁普通人5年,前任是法拉利總裁,終究還是輸了

全網唱衰的下嫁!嫁普通人5年,前任是法拉利總裁,終究還是輸了

橙星文娛
2026-04-18 16:42:58
R.I.P.,前尼日利亞國腳埃內拉莫友誼賽疑似心臟驟停后去世

R.I.P.,前尼日利亞國腳埃內拉莫友誼賽疑似心臟驟停后去世

懂球帝
2026-04-25 05:23:17
20萬億!中國或將成全球,乃至人類歷史上,首個“城市更新王國”

20萬億!中國或將成全球,乃至人類歷史上,首個“城市更新王國”

專業聊房君
2026-04-24 19:36:08
火箭要拆隊!管理層表態,申京被擺上貨架,三大巨星有望加盟

火箭要拆隊!管理層表態,申京被擺上貨架,三大巨星有望加盟

體育大朋說
2026-04-25 11:12:18
浙江足協:我們不怕技不如人,但怕看到迷茫的眼神和松散的隊形

浙江足協:我們不怕技不如人,但怕看到迷茫的眼神和松散的隊形

懂球帝
2026-04-25 22:23:26
釋永信“開光”真相大白,過程不堪入目,易中天也被牽連

釋永信“開光”真相大白,過程不堪入目,易中天也被牽連

往史過眼云煙
2026-03-24 17:05:24
黎姿普吉島過復活節,大方穿泳裝秀身材,54歲的少女感藏不住

黎姿普吉島過復活節,大方穿泳裝秀身材,54歲的少女感藏不住

吃青菜長高
2026-04-18 06:59:11
拜仁讓三追四!50年第一次,賽季8次逆轉取勝,再刷德甲紀錄

拜仁讓三追四!50年第一次,賽季8次逆轉取勝,再刷德甲紀錄

奧拜爾
2026-04-26 00:04:30
5月的北京,可能要上演一出外交奇觀:特朗普和普京,前后腳到訪

5月的北京,可能要上演一出外交奇觀:特朗普和普京,前后腳到訪

阿七說史
2026-04-25 05:10:03
瓜帥:如果讓他們首發可能就不會有這樣的能量了,尤其是多庫

瓜帥:如果讓他們首發可能就不會有這樣的能量了,尤其是多庫

懂球帝
2026-04-26 03:52:22
場均20.3分4.4板4.8助2.6斷,賀希寧當選CBA四月最佳國內球員

場均20.3分4.4板4.8助2.6斷,賀希寧當選CBA四月最佳國內球員

懂球帝
2026-04-25 20:47:23
魏建軍的“五分鐘暴怒”:撕開長城汽車高端化轉型的“皇帝新衣”

魏建軍的“五分鐘暴怒”:撕開長城汽車高端化轉型的“皇帝新衣”

劉曠
2026-04-24 08:54:54
大面積閉店!深圳“奶茶一姐”為何輸給了河南草根兄弟?

大面積閉店!深圳“奶茶一姐”為何輸給了河南草根兄弟?

帥真商業
2026-04-15 18:58:55
隨著維拉爆大冷門0-1,英超最新積分榜出爐:曼聯漁翁得利

隨著維拉爆大冷門0-1,英超最新積分榜出爐:曼聯漁翁得利

側身凌空斬
2026-04-25 21:24:16
日子久了才懂:原來家里的很多「收納難題」,都是因為我們沒開竅

日子久了才懂:原來家里的很多「收納難題」,都是因為我們沒開竅

裝修秀
2026-04-25 10:20:03
民進黨,極有可能在下一屆臺灣地區選舉后,成為長期一家獨大政黨

民進黨,極有可能在下一屆臺灣地區選舉后,成為長期一家獨大政黨

李橑在北漂
2026-04-02 10:22:26
楊國福被曝門店稱重把斤按公斤算,一碗麻辣燙97.21元

楊國福被曝門店稱重把斤按公斤算,一碗麻辣燙97.21元

山西經濟日報
2026-04-22 15:57:11
湖南湘西一父親投訴醫院救護車多次謊稱已出車,21分鐘才發車,致1歲幼子貽誤最佳搶救時機身亡;官方通報:高度重視,已成立聯合調查組

湖南湘西一父親投訴醫院救護車多次謊稱已出車,21分鐘才發車,致1歲幼子貽誤最佳搶救時機身亡;官方通報:高度重視,已成立聯合調查組

大風新聞
2026-04-25 21:52:25
降壓效果最好的運動,首推這3種,一次幾分鐘就管用!趕緊收藏

降壓效果最好的運動,首推這3種,一次幾分鐘就管用!趕緊收藏

DrX說
2026-04-09 13:13:03
這五個號碼千萬不要接,一旦接聽,銀行卡里的錢都可能秒沒

這五個號碼千萬不要接,一旦接聽,銀行卡里的錢都可能秒沒

笑熬漿糊111
2026-04-20 00:05:15
2026-04-26 04:28:49
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12852文章數 142636關注度
往期回顧 全部

科技要聞

DeepSeek V4發布!黃仁勛預言的"災難"降臨

頭條要聞

媒體:美軍在中東罕見高密度集結 伊朗開始調整戰術

頭條要聞

媒體:美軍在中東罕見高密度集結 伊朗開始調整戰術

體育要聞

那一刻開始,兩支球隊的命運悄然改變了

娛樂要聞

《我們的爸爸2》第一季完美爸爸翻車了

財經要聞

90%訂單消失,中東旺季沒了

汽車要聞

2026款樂道L90亮相北京車展 樂道L80正式官宣

態度原創

手機
本地
親子
旅游
藝術

手機要聞

iPhone Ultra機模上手:11mm厚、無長焦,蘋果第一折就這?

本地新聞

云游中國|逛世界風箏都 留學生探秘中國傳統文化

親子要聞

終于理解了什么是“鼓勵式教育”,鼓勵比責怪更有力量!

旅游要聞

美猴王VS水蜜桃,連云港、無錫文旅“雙向奔赴”

藝術要聞

最適合作為抖音總部的大樓,它在福建莆田!

無障礙瀏覽 進入關懷版