![]()
Ollama是一個專門在本地計算機(jī)上運(yùn)行大語言模型的運(yùn)行時系統(tǒng),現(xiàn)已新增對蘋果開源機(jī)器學(xué)習(xí)框架MLX的支持。此外,Ollama還改進(jìn)了緩存性能,并支持英偉達(dá)的NVFP4格式進(jìn)行模型壓縮,大幅提升了特定模型的內(nèi)存使用效率。
這些改進(jìn)結(jié)合在一起,為搭載蘋果芯片(M1或更新版本)的Mac電腦帶來了顯著的性能提升。時機(jī)恰到好處,因為本地模型正開始在研究者和愛好者群體之外獲得更廣泛的關(guān)注。
最近OpenClaw的爆紅現(xiàn)象——在GitHub上迅速獲得超過30萬個星標(biāo),通過Moltbook等實驗引起轟動,并在中國引起特別關(guān)注——讓許多人開始嘗試在自己的機(jī)器上運(yùn)行模型。
隨著開發(fā)者對Claude Code或ChatGPT Codex等工具的速率限制和高昂訂閱費(fèi)用感到沮喪,本地編程模型的實驗熱度不斷升溫。(Ollama最近還擴(kuò)展了Visual Studio Code集成功能。)
新支持功能目前處于預(yù)覽階段(Ollama 0.19版本),目前僅支持一個模型——阿里巴巴Qwen3.5的350億參數(shù)版本。對于普通用戶來說,硬件要求相當(dāng)嚴(yán)格。根據(jù)Ollama的公告,用戶不僅需要配備蘋果芯片的Mac電腦,還需要至少32GB的內(nèi)存。
此外,Ollama現(xiàn)在能夠利用蘋果M5系列GPU中的全新神經(jīng)加速器,因此那些最新款Mac應(yīng)該在每秒Token數(shù)和Token響應(yīng)時間方面獲得額外優(yōu)勢。
雖然本地模型在基準(zhǔn)測試中仍落后于前沿模型,但我們正逐漸達(dá)到這樣一個程度:它們在某些任務(wù)上已經(jīng)足夠好,用戶可能無需為此付費(fèi)訂閱。當(dāng)然,與基于云的服務(wù)相比,本地運(yùn)行模型還具有隱私優(yōu)勢,不過我們絕對不推薦像OpenClaw那樣讓模型深度訪問系統(tǒng)的設(shè)置。主要障礙仍然是設(shè)置難度(Ollama主要是命令行工具,盡管已有其他界面可用)和硬件能力,特別是顯存需求。
蘋果的MLX框架為蘋果芯片的內(nèi)存提供了優(yōu)化訪問,GPU和CPU共享內(nèi)存——這與Ollama之前針對的配備獨(dú)立GPU的臺式機(jī)采用了不同的方法。這并不意味著對大多數(shù)用戶來說云端模型和本地模型之間的差距完全消失,但對現(xiàn)代Mac用戶來說,這可能是朝著正確方向邁出的一步。
Ollama尚未公布MLX支持何時退出預(yù)覽階段并擴(kuò)展到更多模型的時間表。
Q&A
Q1:Ollama的MLX支持有什么新功能?
A:Ollama新增了對蘋果開源機(jī)器學(xué)習(xí)框架MLX的支持,還改進(jìn)了緩存性能,并支持英偉達(dá)的NVFP4格式進(jìn)行模型壓縮,為搭載蘋果芯片的Mac電腦帶來顯著性能提升。
Q2:使用Ollama的MLX支持需要什么硬件配置?
A:需要配備蘋果芯片(M1或更新版本)的Mac電腦,并且至少需要32GB內(nèi)存。搭載M5系列GPU的最新Mac還能獲得額外的性能優(yōu)勢。
Q3:本地大語言模型相比云端模型有什么優(yōu)勢?
A:本地模型的主要優(yōu)勢是隱私保護(hù),用戶數(shù)據(jù)不需要上傳到云端。此外,對于某些任務(wù),本地模型已經(jīng)足夠好用,可以避免付費(fèi)訂閱云端服務(wù)的費(fèi)用。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.