小米7B参数推理大模型首次开源!Xiaomi MiMo:数学代码双杀,超越32B巨头

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 小米开源的MiMo推理大模型通过联动预训练与强化学习算法,在7B参数规模下实现数学推理与代码生成能力的突破性提升,技术报告显示其性能超越部分32B级模型。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🚀 「国产模型逆袭!小米7B小钢炮干翻32B巨无霸,技术白皮书揭秘三阶段训练法」

大家好,我是蚝油菜花。当科技大厂还在比拼参数规模时,小米用这个开源模型证明了——小身材也能爆发大智慧!你是否遇到过这些AI推理困境:

  • ∑ 数学题分步解析总在关键步骤「跳步」
  • 💻 生成的代码看似能用,实际藏了三个语法坑
  • ⏱️ 等大模型推理结果时,咖啡都喝完了两杯...

今天解剖的 Xiaomi MiMo ,正在重写推理模型的效率规则!这个7B参数的「逻辑刺客」:

  • 数学推理开挂:在GSM8K测评中碾压部分32B模型
  • 代码生成防坑:自动规避常见语法陷阱,可用率提升63%
  • 训练效率革命:独创三阶段训练法,用25T tokens练就「最强大脑」

已有教育机构用它开发AI解题助手,文末附《7B模型调优指南》——你的推理任务,准备好迎接「小米效率」了吗?

🚀 快速阅读

小米开源的首个推理大模型MiMo突破参数规模限制。

  1. 能力:7B参数实现数学推理与代码生成双重突破
  2. 技术:采用三阶段预训练+强化学习优化框架

Xiaomi MiMo 是什么

Xiaomi MiMo

Xiaomi MiMo 是小米推出的开源推理大模型,通过创新的训练框架在7B参数规模下实现超越更大模型的推理性能。其核心突破在于联动预训练与后训练阶段,专门针对复杂推理任务进行优化。

该模型包含4个版本:基础预训练模型、监督微调模型及两个强化学习版本,均已开源。技术报告显示,MiMo在数学推理和代码生成任务中显著优于部分32B参数规模的竞品模型。

Xiaomi MiMo 的主要功能

  • 数学推理突破:解决多步骤数学问题并提供完整推导过程
  • 智能代码生成:输出可直接运行的代码,支持多种编程语言
  • 高效推理架构:7B参数实现超越部分32B模型的性能表现

Xiaomi MiMo 的技术原理

  • 三阶段预训练:逐步提升训练难度,累计25T tokens训练量
  • 强化学习优化:Test Difficulty Driven Reward算法解决奖励稀疏问题
  • 训练加速系统:Seamless Rollout框架使RL训练提速2.29倍
  • 数据策略创新:Easy Data Re-Sampling稳定强化学习过程

如何运行 MiMo-7B

vLLM 推理

1. 推荐使用我们分叉的 vLLM

我们官方支持使用 MiMo-MTP 进行推理,使用 我们分叉的 vLLM

示例脚本:

from vllm import LLM, SamplingParams

model_path = "/path/to/MiMo"
llm = LLM(
    model=model_path,
    trust_remote_code=True,
    num_speculative_tokens=1,
    disable_log_stats=False
)
sampling_params = SamplingParams(temperature=0.6)

conversation = [
    {
   
        "role": "system",
        "content": ""
    },
    {
   
        "role": "user",
        "content": "写一篇关于高等教育重要性的文章。",
    },
]

outputs = llm.chat(conversation,
                   sampling_params=sampling_params,
                   use_tqdm=False)

for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    print(f"提示: {prompt!r}, 生成的文本: {generated_text!r}")

print("=" * 80)
AI 代码解读

2. 或者,你可以注册一个不加载 MTP 参数的 vLLM 加载器

你可以将 registry/register_mimo_in_vllm.py 复制到你的目录中,并通过以下方式导入:

import register_mimo_in_vllm

from vllm import LLM, SamplingParams

model_path = "/path/to/MiMo"
llm = LLM(
    model=model_path,
    trust_remote_code=True,
    # num_speculative_tokens=1,
    disable_log_stats=False
)
sampling_params = SamplingParams(temperature=0.6)
AI 代码解读

HuggingFace 推理

示例脚本:

from transformers import AutoModel, AutoModelForCausalLM, AutoTokenizer

model_path = "/path/to/MiMo"
model = AutoModelForCausalLM.from_pretrained(model_path, trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_path)
inputs = tokenizer(["Today is"], return_tensors='pt')
output = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(output.tolist()[0]))
AI 代码解读

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

目录
打赏
0
75
74
3
401
分享
相关文章
阿里云AirCache技术实现多模态大模型高效推理加速,入选国际顶会ICCV2025
阿里云研发的AirCache技术被计算机视觉顶会ICCV2025收录,该技术通过激活跨模态关联、优化KV缓存压缩策略,显著提升视觉语言模型(VLMs)的推理效率与存储性能。实验表明,在保留仅10%视觉缓存的情况下,模型性能下降小于1%,解码延迟最高降低66%,吞吐量提升达192%。AirCache无需修改模型结构,兼容主流VLMs,已在教育、医疗、政务等多个行业落地应用,助力多模态大模型高效赋能产业智能化升级。
0 代码,一键部署 Qwen3
依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。
Gemma 3n正式版开源:谷歌全新端侧多模态大模型,2GB 内存就能跑,重点提升编码和推理能力!
6月底,Google正式开源发布了全新端侧多模态大模型 Gemma 3n!相较此前的预览版,最新的 Gemma 3n 完整版进一步提升性能表现,支持在 2GB 内存的硬件上本地运行,重点提升了编码和推理方面的能力。
84 1
通义首个音频生成模型 ThinkSound 开源,你的专业音效师
通义实验室推出首个音频生成模型ThinkSound,突破传统视频到音频生成技术局限,首次将思维链(CoT)应用于音频生成领域,实现高保真、强同步的空间音频生成。基于自研AudioCoT数据集,结合多模态大语言模型与统一音频生成模型,支持交互式编辑,显著提升音画匹配度与时序一致性。代码已开源,助力游戏、VR、AR等场景创新应用。
350 3
通义WebSailor开源,检索性能登顶开源榜单!
通义开源网络智能体WebSailor具备强大推理与检索能力,在复杂场景下表现优异,已登顶开源网络智能体榜单。其创新训练方法大幅提升了模型性能,适用于多领域复杂任务。
238 0
通义WebSailor开源,检索性能登顶开源榜单!
InternVL3开源:7种尺寸覆盖文、图、视频处理,多模态能力扩展至工业图像分析
4月11日,OpenGVLab开源发布InternVL3系列多模态大模型,涵盖1B至78B共7个尺寸。相比InternVL 2.5,其在多模态感知与推理能力上表现更优,并新增工具使用、GUI代理等功能。得益于原生多模态预训练,文本性能超越Qwen2.5系列。
再不玩通义 VACE 模型你就过时了!一个模型搞定所有视频任务
介绍通义的开源模型在 ecs 或 acs 场景如何一键部署和使用,如何解决不同视频生成场景的问题。

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等