最近在测 MiMo V2.5:原生全模态(jointly trained on text/image/video/audio),混合注意力机制(hybrid attention,推理延迟相比传统 dense attention 更低),关键的是 Agentic RL —— 它在真实任务中能自主 plan → execute → self-correct,我试了“爬取文档站并翻译”这种多步任务
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉答疑群:44837352