MiniMax M2.7 正式开源权重。这是MiniMax M2 系列在 M2.5 之后的新一代旗舰!这一次的突破不只是跑分数字的提升,而是一个真正意义上参与迭代自身的模型的诞生。
资源链接:
- ModelScope:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7
- MiniMax Agent: https://agent.minimax.io/
- MiniMax API: https://platform.minimax.io/
- Token Plan: https://platform.minimax.io/subscribe/token-plan
M2.7的核心突破
如果用一句话概括 M2.7:它不只是一个更强的模型,而是一个开始"进化自己"的模型。
M2 系列在 108 天内完成了 M2 → M2.1 → M2.5 的三连更,而 M2.7 带来了新的范式转变:MiniMax 在研发过程中,直接让 M2.7 参与构建强化学习 Harness 中的数十个复杂 Skills,更新自己的 memory,驱动自身的 RL 训练循环,并基于结果持续优化 Harness 架构——模型开始成为迭代自己的工具。
三大核心能力:
软件工程: SWE-Pro 达到 56.22%,追平 GPT-5.3-Codex,VIBE-Pro 55.6% 接近 Opus 4.6 水平,Terminal Bench 2 达到 57.0%,覆盖日志分析、Bug 定位、代码安全、机器学习、安卓开发等真实工程场景。
专业办公: GDPval-AA 的 ELO 得分 1495,开源模型最高。Excel/PPT/Word 复杂编辑能力显著提升,支持多轮修改和高保真编辑。Toolathon 正确率 46.3% 达全球第一梯队,40 个复杂 skills(>2000 Token)场景下仍保持 97% 遵循率。
互动娱乐: 极大加强人设保持和对话能力,并发布开源项目 OpenRoom,探索 AI 驱动的全新人机互动方式。
技术解析:模型如何自我进化?
M2.7 最核心的技术突破是让模型真正参与驱动自身的迭代循环,这是此前所有版本都未曾实现的范式。
MiniMax 构建了一个研究型 Agent Harness,覆盖数据流水线、训练环境、评测基础设施和持久化记忆。以一个 RL 实验场景为例:
研究员从一个实验想法出发,与 Agent 展开讨论 → Agent 协助文献调研 → 持续跟踪实验规格 → 完成数据流水线对接并启动实验 → 实验运行期间自动监控日志、排查问题、分析指标、修复代码、提 MR、做冒烟测试——过去需要跨团队多人协作的工作,研究员只需在关键决策节点介入。
在 MLE Bench Lite 的 22 个机器学习任务测试中,M2.7 三次测试平均得牌率 66.6%,与 Gemini-3.1 持平,仅次于 Opus-4.6(75.7%)和 GPT-5.4(71.2%)。最好的一次取得 9 枚金牌、5 枚银牌、1 枚铜牌。
本地部署
下载模型
modelscope download --model MiniMax/MiniMax-M2.7
SGLang推理
环境安装
uv venv source .venv/bin/activate uv pip install sglang
4-GPU部署命令
python -m sglang.launch_server \ --model-path MiniMaxAI/MiniMax-M2.7 \ --tp-size 4 \ --tool-call-parser minimax-m2 \ --reasoning-parser minimax-append-think \ --host 0.0.0.0 \ --trust-remote-code \ --port 8000 \ --mem-fraction-static 0.85
SGLang推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fsglang_deploy_guide.md?status=1
vLLM推理
环境安装
uv venv source .venv/bin/activate uv pip install vllm --torch-backend=auto
4-GPU推理命令
SAFETENSORS_FAST_GPU=1 vllm serve \ MiniMaxAI/MiniMax-M2.7 --trust-remote-code \ --tensor-parallel-size 4 \ --enable-auto-tool-choice --tool-call-parser minimax_m2 \ --reasoning-parser minimax_m2_append_think
vLLM推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fvllm_deploy_guide.md?status=1
Transformers推理
环境安装:
uv pip install transformers==4.57.1 torch accelerate --torch-backend=auto
推理脚本
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig import torch MODEL_PATH = "MiniMaxAI/MiniMax-M2.7" model = AutoModelForCausalLM.from_pretrained( MODEL_PATH, device_map="auto", trust_remote_code=True, ) tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH) messages = [ {"role": "user", "content": [{"type": "text", "text": "What is your favourite condiment?"}]}, {"role": "assistant", "content": [{"type": "text", "text": "Well, I'm quite partial to a good squeeze of fresh lemon juice. It adds just the right amount of zesty flavour to whatever I'm cooking up in the kitchen!"}]}, {"role": "user", "content": [{"type": "text", "text": "Do you have mayonnaise recipes?"}]} ] model_inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda") generated_ids = model.generate(model_inputs, max_new_tokens=100, generation_config=model.generation_config) response = tokenizer.batch_decode(generated_ids)[0] print(response)
Transformers推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Ftransformers_deploy_guide.md?status=1
点击即可跳转模型链接~
https://modelscope.cn/models/MiniMax/MiniMax-M2.7