專注AIGC技術的專業社區,關注大語言模型(LLM)的發展和應用落地,聚焦LLM及AI技術的市場研究和開發者生態,歡迎關注!
阿里千問又發模型了。
![]()
Qwen3.6-35B-A3B,Qwen3.6-Plus,Qwen3.6-Max-Preview,現在是 Qwen3.6-27B,源神這模型沒完沒了地發。
僅僅擁有270億參數的開源新星,在復雜的代碼基準測試中擊敗了總參數量高達其15倍的前代旗艦模型。
27B 稠密模型,是社區呼聲最高的模型,它摒棄了復雜的路由架構,以全參數計算的形態,在多模態理解與智能體編程領域交出了一份優秀的答卷。
開發者們,本地模型又該換了。
純粹架構
開發者在實際應用中經常面臨算力分配與部署環境的限制。
體量巨大的模型固然強大,運轉起來卻需要極高的顯存帶寬與復雜的工程調度。
Qwen3.6-27B 采用 Dense(稠密模型)架構。270億個參數在每一次計算中都會全員參與運算。
不需要像 MoE(混合專家模型)那樣進行路由分配計算,開發者可以直接將其部署在常規的硬件集群上,大幅降低了工程落地的門檻。
模型原生具備處理圖像、視頻與文本的能力。
系統內部支持視覺語言的思考模式與非思考模式平滑切換。
面對現實應用中的各類復雜場景,無論是細致的視覺推理任務,還是繁雜的文檔理解工作,抑或是常規的視覺問答,系統都能輕松應對。
開發者獲得的是一個能力全面且容易部署的實用工具。
編寫代碼并解決實際軟件工程問題,是檢驗大語言模型邏輯思考能力的試金石。
Qwen3.6-27B 在 Agent(智能體)編程能力上實現了跨級別的超越。
對比對象是前代開源旗艦 Qwen3.5-397B-A17B,一個總參數3970億、激活參數170億的大型模型。270億參數的小巧體型在所有主流編程基準測試中全面反超。
![]()
![]()
與比它大15倍的前代 397B 的混合專家模型相比,在代表真實世界軟件工程問題解決能力的 SWE-bench Verified 測試中,Qwen3.6-27B 拿到了77.2分,超越前代的76.2分。
在難度更高的 SWE-bench Pro 測試里,它以53.5分勝出前代的50.9分。Terminal-Bench 2.0 測試中拿下了59.3分。SkillsBench 更是以48.2分對30.0分取得了顯著領先。
在檢驗研究生級別科學推理能力的 GPQA Diamond 測試中,它斬獲了87.8分,表現完全看齊數倍于自身體量的基準模型。
與谷歌剛剛開源的Gemma4-31B相比,全方位領先。
多模態數據透視
千問團隊為研發體系注入了扎實的多模態基因。從基礎的自然語言處理到復雜的長序列視頻理解,模型在評測基準中展現出了非常均衡的綜合素質。
![]()
在科學技術工程數學與解謎、通用視覺問答、文檔理解以及空間智能等核心板塊,270億參數版本的數據均保持在高位水平。
與同等規模的其他開源稠密模型橫向對比,它在多數細分指標上確立了明顯的領先地位,為需要多任務處理能力的開發者提供了可靠的底座支持。
從開源的 Qwen3.6-35B-A3B,Qwen3.6-27B,到閉源的 Qwen3.6-Plus,Qwen3.6-Max-Preview,Qwen3.6 家族在智能體編程能力上完成了集體躍升。
27B 版本,精準填補了實用級規模下本地頂尖編程能力的空白。
趕緊本地跑起這個聰明的代碼新搭檔。
參考資料:
https://qwen.ai/blog?id=qwen3.6-27b
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.