2025年4月,小米正式开源旗下首个自研大语言模型系列 —— MiMo(MiMo-7B),在 Hugging Face 平台同步上线。MiMo 由小米 LLM-Core 团队训练,参数规模为 7B,定位于高效中型模型,专为数学推理与代码生成场景设计。
据官方介绍,MiMo 在 MATH500、AIME、LiveCodeBench 等多个专业评测中表现亮眼,甚至在部分任务中超越了 OpenAI o1-mini 和 Qwen-32B 等大模型。技术上,MiMo结合高密度推理语料预训练、强化学习(RL)微调、奖励机制重构与推理效率优化,打造出兼顾性能与部署友好的国产开源模型方案。
此次发布不仅标志着小米正式进入大模型核心技术阵营,也显示其在AI基础能力建设上的长期战略布局。
🔗 模型地址:https://huggingface.co/XiaomiMiMo📄 技术报告:https://github.com/XiaomiMiMo/MiMo/blob/main/MiMo-7B-Technical-Report.pdf