MiniMax M2.7开源: 模型开始迭代自己了!

简介: MiniMax M2.7正式开源!作为M2系列新一代旗舰,首次实现“模型参与自我迭代”范式:自主驱动RL训练、优化Harness架构。软件工程(SWE-Pro 56.22%)、专业办公(GDPval-AA ELO 1495)、互动娱乐能力全面跃升,支持SGLang/vLLM/Transformers本地部署。

MiniMax M2.7 正式开源权重。这是MiniMax M2 系列在 M2.5 之后的新一代旗舰!这一次的突破不只是跑分数字的提升,而是一个真正意义上参与迭代自身的模型的诞生。


资源链接:

  • ModelScope:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7
  • MiniMax Agent: https://agent.minimax.io/
  • MiniMax API: https://platform.minimax.io/
  • Token Plan: https://platform.minimax.io/subscribe/token-plan


M2.7的核心突破

如果用一句话概括 M2.7:它不只是一个更强的模型,而是一个开始"进化自己"的模型。


M2 系列在 108 天内完成了 M2 → M2.1 → M2.5 的三连更,而 M2.7 带来了新的范式转变:MiniMax 在研发过程中,直接让 M2.7 参与构建强化学习 Harness 中的数十个复杂 Skills,更新自己的 memory,驱动自身的 RL 训练循环,并基于结果持续优化 Harness 架构——模型开始成为迭代自己的工具


三大核心能力:

软件工程: SWE-Pro 达到 56.22%,追平 GPT-5.3-Codex,VIBE-Pro 55.6% 接近 Opus 4.6 水平,Terminal Bench 2 达到 57.0%,覆盖日志分析、Bug 定位、代码安全、机器学习、安卓开发等真实工程场景。


专业办公: GDPval-AA 的 ELO 得分 1495,开源模型最高。Excel/PPT/Word 复杂编辑能力显著提升,支持多轮修改和高保真编辑。Toolathon 正确率 46.3% 达全球第一梯队,40 个复杂 skills(>2000 Token)场景下仍保持 97% 遵循率。


互动娱乐: 极大加强人设保持和对话能力,并发布开源项目 OpenRoom,探索 AI 驱动的全新人机互动方式。

技术解析:模型如何自我进化?

M2.7 最核心的技术突破是让模型真正参与驱动自身的迭代循环,这是此前所有版本都未曾实现的范式。


MiniMax 构建了一个研究型 Agent Harness,覆盖数据流水线、训练环境、评测基础设施和持久化记忆。以一个 RL 实验场景为例:

研究员从一个实验想法出发,与 Agent 展开讨论 → Agent 协助文献调研 → 持续跟踪实验规格 → 完成数据流水线对接并启动实验 → 实验运行期间自动监控日志、排查问题、分析指标、修复代码、提 MR、做冒烟测试——过去需要跨团队多人协作的工作,研究员只需在关键决策节点介入。

在 MLE Bench Lite 的 22 个机器学习任务测试中,M2.7 三次测试平均得牌率 66.6%,与 Gemini-3.1 持平,仅次于 Opus-4.6(75.7%)和 GPT-5.4(71.2%)。最好的一次取得 9 枚金牌、5 枚银牌、1 枚铜牌

本地部署

下载模型

modelscope download --model MiniMax/MiniMax-M2.7


SGLang推理

环境安装

uv venv
source .venv/bin/activate
uv pip install sglang


4-GPU部署命令

python -m sglang.launch_server \
    --model-path MiniMaxAI/MiniMax-M2.7 \
    --tp-size 4 \
    --tool-call-parser minimax-m2 \
    --reasoning-parser minimax-append-think \
    --host 0.0.0.0 \
    --trust-remote-code \
    --port 8000 \
    --mem-fraction-static 0.85

SGLang推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fsglang_deploy_guide.md?status=1

vLLM推理

环境安装

uv venv
source .venv/bin/activate
uv pip install vllm --torch-backend=auto


4-GPU推理命令

SAFETENSORS_FAST_GPU=1 vllm serve \
    MiniMaxAI/MiniMax-M2.7 --trust-remote-code \
    --tensor-parallel-size 4 \
    --enable-auto-tool-choice --tool-call-parser minimax_m2 \
    --reasoning-parser minimax_m2_append_think

vLLM推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fvllm_deploy_guide.md?status=1

Transformers推理

环境安装:

uv pip install transformers==4.57.1 torch accelerate --torch-backend=auto


推理脚本

from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
import torch
MODEL_PATH = "MiniMaxAI/MiniMax-M2.7"
model = AutoModelForCausalLM.from_pretrained(
    MODEL_PATH,
    device_map="auto",
    trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
messages = [
    {"role": "user", "content": [{"type": "text", "text": "What is your favourite condiment?"}]},
    {"role": "assistant", "content": [{"type": "text", "text": "Well, I'm quite partial to a good squeeze of fresh lemon juice. It adds just the right amount of zesty flavour to whatever I'm cooking up in the kitchen!"}]},
    {"role": "user", "content": [{"type": "text", "text": "Do you have mayonnaise recipes?"}]}
]
model_inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
generated_ids = model.generate(model_inputs, max_new_tokens=100, generation_config=model.generation_config)
response = tokenizer.batch_decode(generated_ids)[0]
print(response)

Transformers推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Ftransformers_deploy_guide.md?status=1


点击即可跳转模型链接~

https://modelscope.cn/models/MiniMax/MiniMax-M2.7


目录
相关文章
|
存储 缓存 文件存储
如何保证分布式文件系统的数据一致性
分布式文件系统需要向上层应用提供透明的客户端缓存,从而缓解网络延时现象,更好地支持客户端性能水平扩展,同时也降低对文件服务器的访问压力。当考虑客户端缓存的时候,由于在客户端上引入了多个本地数据副本(Replica),就相应地需要提供客户端对数据访问的全局数据一致性。
32698 79
如何保证分布式文件系统的数据一致性
|
前端开发 容器
HTML5+CSS3前端入门教程---从0开始通过一个商城实例手把手教你学习PC端和移动端页面开发第8章FlexBox布局(上)
HTML5+CSS3前端入门教程---从0开始通过一个商城实例手把手教你学习PC端和移动端页面开发第8章FlexBox布局
17751 20
|
设计模式 存储 监控
设计模式(C++版)
看懂UML类图和时序图30分钟学会UML类图设计原则单一职责原则定义:单一职责原则,所谓职责是指类变化的原因。如果一个类有多于一个的动机被改变,那么这个类就具有多于一个的职责。而单一职责原则就是指一个类或者模块应该有且只有一个改变的原因。bad case:IPhone类承担了协议管理(Dial、HangUp)、数据传送(Chat)。good case:里式替换原则定义:里氏代换原则(Liskov 
36682 19
设计模式(C++版)
|
存储 编译器 C语言
抽丝剥茧C语言(初阶 下)(下)
抽丝剥茧C语言(初阶 下)
|
机器学习/深度学习 人工智能 自然语言处理
带你简单了解Chatgpt背后的秘密:大语言模型所需要条件(数据算法算力)以及其当前阶段的缺点局限性
带你简单了解Chatgpt背后的秘密:大语言模型所需要条件(数据算法算力)以及其当前阶段的缺点局限性
24758 14
|
机器学习/深度学习 弹性计算 监控
重生之---我测阿里云U1实例(通用算力型)
阿里云产品全线降价的一力作,2023年4月阿里云推出新款通用算力型ECS云服务器Universal实例,该款服务器的真实表现如何?让我先测为敬!
36660 15
重生之---我测阿里云U1实例(通用算力型)
|
SQL 存储 弹性计算
Redis性能高30%,阿里云倚天ECS性能摸底和迁移实践
Redis在倚天ECS环境下与同规格的基于 x86 的 ECS 实例相比,Redis 部署在基于 Yitian 710 的 ECS 上可获得高达 30% 的吞吐量优势。成本方面基于倚天710的G8y实例售价比G7实例低23%,总性价比提高50%;按照相同算法,相对G8a,性价比为1.4倍左右。
|
存储 算法 Java
【分布式技术专题】「分布式技术架构」手把手教你如何开发一个属于自己的限流器RateLimiter功能服务
随着互联网的快速发展,越来越多的应用程序需要处理大量的请求。如果没有限制,这些请求可能会导致应用程序崩溃或变得不可用。因此,限流器是一种非常重要的技术,可以帮助应用程序控制请求的数量和速率,以保持稳定和可靠的运行。
29838 52

热门文章

最新文章

下一篇
开通oss服务