智快網 - 新科技與新能源行業網絡媒體

小米開源MiMo-V2.5系列模型,首日適配七家芯片,測評成績超越DeepSeek-V4

   發布時間:2026-04-28 15:15 作者:沈瑾瑜

小米近日宣布開源其最新研發的MiMo-V2.5系列大模型,采用MIT協議,允許商業推理部署和二次訓練,無需額外授權。這一舉措標志著小米在人工智能領域邁出重要一步,為全球開發者提供了更強大的工具和資源。

MiMo-V2.5系列包含兩款模型:MiMo-V2.5-Pro和MiMo-V2.5。其中,MiMo-V2.5-Pro是小米迄今為止最強大的模型,擁有1.02萬億個參數,激活參數達420億個。該模型基于混合注意力架構,在通用智能能力、復雜軟件工程和長時域任務處理方面均有顯著提升。MiMo-V2.5則是一個3100億參數的稀疏MoE模型,激活參數為150億個,支持多模態數據處理。

最新公布的基準測試結果顯示,MiMo-V2.5-Pro在GDPVal-AA(Elo)、Claw-eval(pass3)等多項測評中超越了DeepSeek最新開源的DeepSeek-V4-Pro模型,以及近期發布的Kimi K2.6等主流閉源模型,整體表現達到行業領先水平。這一成績表明,小米在人工智能領域的技術實力已躋身全球前列。

在技術架構方面,MiMo-V2.5-Pro繼承了MiMo-V2-Flash的混合注意力機制和多標記預測(MTP)設計。局部滑動窗口注意力(SWA)和全局注意力(GA)以6:1的比例交錯使用,窗口大小為128個Token,有效減少了鍵值緩存存儲空間,同時保持了模型性能。MTP模塊采用密集前饋神經網絡(FFN),顯著提升了輸出吞吐量,并加速了強化學習(RL)的部署。

MiMo-V2.5的訓練過程分為五個階段,包括文本預訓練、投影層預熱訓練、多模態預訓練、監督微調與智能體后訓練,以及強化學習與多目標偏好蒸餾。通過這些步驟,模型逐步擴展上下文窗口至100萬Token,并顯著提升了感知、邏輯推理與智能體執行能力。測試數據顯示,MiMo-V2.5在Claw-eval Text、Terminal-Bench 2.0、SWE-Bench Pro等多項測評中大幅超越了DeepSeek最新發布的DeepSeek-V4-Flash。

在生態建設方面,小米宣布MiMo-V2.5-Pro在開源首日已完成與阿里平頭哥、亞馬遜云科技、AMD、百度昆侖芯、燧原科技、沐曦、天數智芯等七家芯片廠商的接入適配。該系列模型還同步完成了SGLang和vLLM主流推理框架的Day 0適配,為開發者提供了更便捷的部署方案。

為推動人工智能技術的廣泛應用,小米同步推出了MiMo Orbit計劃,包含“百萬億Token創造者激勵計劃”和“Agent生態共建計劃”。前者將在30天內免費發放總計100萬億Token權益,最高可獲得16億Credits(價值659元);后者則面向全球Agent框架團隊提供專項支持,包括MiMo Token限免和AI Hackathon等共創活動。目前,小米已與OpenCode、Hermes Agent、KiloCode等Agent框架廠商展開深度合作。

此次開源和生態計劃的推出,反映了人工智能行業正從“拼參數”轉向“拼應用”的趨勢。隨著推理效率和部署成本成為競爭核心,小米的舉措有望推動行業進一步降低推理成本,提升Agent真實任務完成率,為全球開發者創造更多價值。

 
 
更多>同類內容
全站最新
熱門內容
 
智快科技微信賬號
微信群

微信掃一掃
加微信拉群
電動汽車群
科技數碼群