4月12日,MiniMax M2.7在全球正式開源,攜華為昇騰、摩爾線程、沐曦、昆侖芯、NVIDIA,以及 Together AI、Fireworks、Ollama 等海內(nèi)外芯片廠商、推理平臺,在開源首日即完成模型接入與推理適配工作,推動全球 AI 生態(tài)繁榮發(fā)展。
三周前,MiniMax M2.7 率先上線。M2.7 開啟了模型的自我進化,是業(yè)界第一個 AI 深度參與迭代自己的模型。M2.7 能夠自行構(gòu)建復雜 Agent Harness,并基于 Agent Teams、復雜 Skills、Tool Search tool 等能力,完成高度復雜的生產(chǎn)力任務(wù)。
基于其在真實的軟件工程、專業(yè)辦公場景的優(yōu)異表現(xiàn),M2.7 已成為在 Hermes Agent、OpenClaw 等全球熱門智能體中最受歡迎的模型之一。來自海內(nèi)外的開發(fā)者與企業(yè)客戶的接入需求在持續(xù)增長,模型調(diào)用量在快速提升。
開源當日,華為昇騰 AI 基礎(chǔ)軟硬件實現(xiàn)首日適配,基于 vllm-Ascend 推理引擎在 Atlas 800 A3、Atlas 800I A2 系列產(chǎn)品上為模型的推理部署提供全流程支持;摩爾線程技術(shù)團隊基于 MUSA 架構(gòu),針對 M2.7 的模型特點完成深度調(diào)優(yōu),成功在 MTT S5000 上實現(xiàn)模型的的高性能推理;沐曦曦云 C 系列 GPU 憑借全棧自研的 MXMACA 軟件棧,首日完成深度適配,實現(xiàn)“模型發(fā)布即算力就緒”的 Day 0 體驗;昆侖芯依托自研架構(gòu),通過底層算子優(yōu)化與軟硬件協(xié)同加速,保障 M2.7 在平臺上的穩(wěn)定、高效運行表現(xiàn)。NVIDIA 推理框架 TensorRT-LLM 為 M2.7 提供了深度適配與全面優(yōu)化支持,幫助開發(fā)者和企業(yè)用戶高效完成模型的部署與上線。Together AI、Fireworks、Ollama、vLLM、SGLang 和智源眾智 FlagOS、魔搭等海內(nèi)外開發(fā)平臺與社區(qū)已同步在首日接入 MiniMax M2.7 模型并完成適配。
MiniMax表示,公司將與全球更多生態(tài)伙伴攜手,在模型架構(gòu)優(yōu)化、應用場景落地、行業(yè)生態(tài)建設(shè)等多維度展開協(xié)作,為客戶和開發(fā)者提供模型的最佳使用體驗,加速全球 AI 生態(tài)繁榮。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.