MiniMax M2.7开源: 模型开始迭代自己了!

简介: MiniMax M2.7正式开源!作为M2系列新一代旗舰,首次实现“模型参与自我迭代”范式:自主驱动RL训练、优化Harness架构。软件工程(SWE-Pro 56.22%)、专业办公(GDPval-AA ELO 1495)、互动娱乐能力全面跃升,支持SGLang/vLLM/Transformers本地部署。

MiniMax M2.7 正式开源权重。这是MiniMax M2 系列在 M2.5 之后的新一代旗舰!这一次的突破不只是跑分数字的提升,而是一个真正意义上参与迭代自身的模型的诞生。


资源链接:

  • ModelScope:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7
  • MiniMax Agent: https://agent.minimax.io/
  • MiniMax API: https://platform.minimax.io/
  • Token Plan: https://platform.minimax.io/subscribe/token-plan


M2.7的核心突破

如果用一句话概括 M2.7:它不只是一个更强的模型,而是一个开始"进化自己"的模型。


M2 系列在 108 天内完成了 M2 → M2.1 → M2.5 的三连更,而 M2.7 带来了新的范式转变:MiniMax 在研发过程中,直接让 M2.7 参与构建强化学习 Harness 中的数十个复杂 Skills,更新自己的 memory,驱动自身的 RL 训练循环,并基于结果持续优化 Harness 架构——模型开始成为迭代自己的工具


三大核心能力:

软件工程: SWE-Pro 达到 56.22%,追平 GPT-5.3-Codex,VIBE-Pro 55.6% 接近 Opus 4.6 水平,Terminal Bench 2 达到 57.0%,覆盖日志分析、Bug 定位、代码安全、机器学习、安卓开发等真实工程场景。


专业办公: GDPval-AA 的 ELO 得分 1495,开源模型最高。Excel/PPT/Word 复杂编辑能力显著提升,支持多轮修改和高保真编辑。Toolathon 正确率 46.3% 达全球第一梯队,40 个复杂 skills(>2000 Token)场景下仍保持 97% 遵循率。


互动娱乐: 极大加强人设保持和对话能力,并发布开源项目 OpenRoom,探索 AI 驱动的全新人机互动方式。

技术解析:模型如何自我进化?

M2.7 最核心的技术突破是让模型真正参与驱动自身的迭代循环,这是此前所有版本都未曾实现的范式。


MiniMax 构建了一个研究型 Agent Harness,覆盖数据流水线、训练环境、评测基础设施和持久化记忆。以一个 RL 实验场景为例:

研究员从一个实验想法出发,与 Agent 展开讨论 → Agent 协助文献调研 → 持续跟踪实验规格 → 完成数据流水线对接并启动实验 → 实验运行期间自动监控日志、排查问题、分析指标、修复代码、提 MR、做冒烟测试——过去需要跨团队多人协作的工作,研究员只需在关键决策节点介入。

在 MLE Bench Lite 的 22 个机器学习任务测试中,M2.7 三次测试平均得牌率 66.6%,与 Gemini-3.1 持平,仅次于 Opus-4.6(75.7%)和 GPT-5.4(71.2%)。最好的一次取得 9 枚金牌、5 枚银牌、1 枚铜牌

本地部署

下载模型

modelscope download --model MiniMax/MiniMax-M2.7


SGLang推理

环境安装

uv venv
source .venv/bin/activate
uv pip install sglang


4-GPU部署命令

python -m sglang.launch_server \
    --model-path MiniMaxAI/MiniMax-M2.7 \
    --tp-size 4 \
    --tool-call-parser minimax-m2 \
    --reasoning-parser minimax-append-think \
    --host 0.0.0.0 \
    --trust-remote-code \
    --port 8000 \
    --mem-fraction-static 0.85

SGLang推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fsglang_deploy_guide.md?status=1

vLLM推理

环境安装

uv venv
source .venv/bin/activate
uv pip install vllm --torch-backend=auto


4-GPU推理命令

SAFETENSORS_FAST_GPU=1 vllm serve \
    MiniMaxAI/MiniMax-M2.7 --trust-remote-code \
    --tensor-parallel-size 4 \
    --enable-auto-tool-choice --tool-call-parser minimax_m2 \
    --reasoning-parser minimax_m2_append_think

vLLM推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fvllm_deploy_guide.md?status=1

Transformers推理

环境安装:

uv pip install transformers==4.57.1 torch accelerate --torch-backend=auto


推理脚本

from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
import torch
MODEL_PATH = "MiniMaxAI/MiniMax-M2.7"
model = AutoModelForCausalLM.from_pretrained(
    MODEL_PATH,
    device_map="auto",
    trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
messages = [
    {"role": "user", "content": [{"type": "text", "text": "What is your favourite condiment?"}]},
    {"role": "assistant", "content": [{"type": "text", "text": "Well, I'm quite partial to a good squeeze of fresh lemon juice. It adds just the right amount of zesty flavour to whatever I'm cooking up in the kitchen!"}]},
    {"role": "user", "content": [{"type": "text", "text": "Do you have mayonnaise recipes?"}]}
]
model_inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
generated_ids = model.generate(model_inputs, max_new_tokens=100, generation_config=model.generation_config)
response = tokenizer.batch_decode(generated_ids)[0]
print(response)

Transformers推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Ftransformers_deploy_guide.md?status=1


点击即可跳转模型链接~

https://modelscope.cn/models/MiniMax/MiniMax-M2.7


目录
相关文章
|
28天前
|
人工智能 测试技术 API
DeepSeek V4,真要把 AI 圈再掀一遍吗?
截至2026年4月12日,DeepSeek V4尚未官宣,但社区盛传其达万亿参数、100万上下文、原生多模态,激活仅370亿参数,推理成本低至GPT-4的1/70,或支持双4090本地部署——若属实,将重塑AI性价比格局。
816 3
|
1月前
|
人工智能 测试技术 Apache
Gemma 4 开源发布: Google 迄今最强开放模型,主打推理与 Agent 能力
Google正式开源Gemma 4系列(Apache 2.0许可),含E2B/E4B(端侧多模态)、26B MoE与31B Dense四款模型。参数效率卓越:31B位列开放模型榜第3,26B第6;边缘模型支持128K上下文、原生音视频处理,单卡/手机均可高效运行。
1061 12
Gemma 4 开源发布: Google 迄今最强开放模型,主打推理与 Agent 能力
|
2月前
|
人工智能 NoSQL Linux
阿里云/本地部署OpenClaw,集成MiniMax-M2.7 +MTS架构,企业级复杂项目实战步骤流程
在AI Agent进入工程化落地的2026年,模型能力、工具调度效率、系统稳定性、成本控制共同决定复杂项目能否落地。MiniMax于3月推出的M2.7模型,在SWE-Pro、Terminal Bench、VIBE-Pro等工程向指标达到第一梯队水平,同时以0.30美元/百万token的定价实现极致性价比,非常适合微服务密集、事务复杂、调用量大的企业级系统。本文基于超百万行代码的工程ERP定制项目,完整讲解M2.7模型实测表现、自研MTS毫秒级工具侧载架构、与OpenClaw的深度集成方式,并提供2026年阿里云部署、MacOS/Linux/Windows11本地部署OpenClaw流程,以及阿
1059 1
|
3月前
|
机器学习/深度学习 存储 自然语言处理
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
Ling-2.5-1T是蚂蚁集团inclusionAI推出的开源即时大模型(MIT协议),以“效率×效果”为核心:万亿参数、63B激活,首创混合线性注意力架构,支持百万token上下文;推理吞吐大幅提升,AIME任务仅需1/3 token即达前沿思考模型水平。ModelScope可下载。
749 4
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
|
18天前
|
人工智能 运维 前端开发
Kimi K2.6开源:编码能力比肩闭源顶级模型,支持300智能体协同
Moonshot AI开源Kimi K2.6,主打长时编码、智能体协同与前端设计生成。在Terminal-Bench 2.0、SWE-Bench Pro等基准上达开源SOTA,逼近GPT-5.4与Claude Opus 4.6;智能体集群扩展至300个子智能体、4000协调步。
786 5

热门文章

最新文章