作为开放的 AI 开源社区,ModelScope 希望能建成中国乃至全球 AI 模型开源的底层基础设施,从而去服务最广泛的AI开发者生态。我们也始终鼓励开发者以各种形式,灵活地接入和融合到ModelScope及其周边的生态。随着平台在服务,开源框架等多个方面能力的持续完善,我们也听到了来自社区日益高涨的呼声:希望以更低门槛、更高自动化的方式,集成ModelScope的生态能力,从而快速地构建更加多元化的上层应用。在面对下一个Agentic AI的时代,我们相信“基础设施即代码”,自动化的被集成能力,能通过标准协议,推进ModelScope下游AI应用生态进一步繁荣。
为此,我们一直在积极推进ModelScope各个核心功能板块,以及各种基础设施的接口开放建设。今天,我们正式向社区介绍ModelScope的 OpenAPI 开放接口,以及平台的OAuth授权服务,支持开发者更好的集成ModelScope基础模块的能力,并实现多样化的AI应用与社区的互联互通。
当前已经开放的API接口,覆盖了包括魔搭模型、数据集、MCP在内的最核心组件。与此同时,我们还在推进更多接口的开放,以及API接口参数的进一步完善,这也是我们作为开源平台,对广大社区用户最真诚的开放态度。
首批覆盖四大核心板块,接口标准易集成
目前,魔搭 OpenAPI 已覆盖四大核心板块:
- 用户信息:获取当前登录用户公开的基本信息;
- 模型管理:支持按名称、作者、任务类型、框架、许可证等多维度检索模型,获取模型详情、下载量、参数量、标签等元数据;
- 数据集管理:可程序化查询和获取数据集信息,包括许可协议、任务类型、更新时间等;
- MCP 服务管理:支持列出、查询、部署与解除部署 MCP 服务,打通 LLM 与外部工具的能力链路。
通过这套开放接口,目前开发者已经可以实现:
- 自动化构建模型、数据集发现与获取流程;
- 在 CI/CD 中动态拉取最新模型版本;
- 将魔搭模型库作为企业内部 AI 资产中心的后端;
- 快速搭建面向垂直场景的模型市场或推理平台;
- 将 MCP 工具服务一键托管并集成到智能体(Agent)系统中, 等等。
接口详情如下:
所有接口均遵循 OpenAPI 规范,支持 Bearer Token 认证,具备完善的分页、筛选与错误处理机制。开发者可以在以下两个入口详细了解和接入:
📚 魔搭 OpenAPI 使用文档:https://modelscope.cn/docs/openapi
📦 OpenAPI 规范文件(JSON):https://modelscope.cn/.well-known/openapi.json
支持标准 OAuth 接入,助力应用轻松获授权
在全面开放 OpenAPI 能力的基础上,魔搭进一步推出 OAuth 2.0 授权服务,为社区开发者提供安全、高效、标准化的资源访问授权方案。
通过集成“OAuth 登录”能力,开发者可向用户申请其魔搭账户下的相关资源访问权限,实现 OpenAPI 的代调用授权。这一机制不仅提升了应用的安全性与可信度,也让用户在享受便捷服务的同时,始终掌握自己的数据与权限控制权。
一次授权,长期使用,随时可控
用户只需在魔搭官方授权页面完成一次授权,即可允许开发者应用访问其账户下的指定资源与权益。后续若需调整或撤销权限,也可随时在魔搭平台内一键撤回。
标准化接入,轻松上手
魔搭社区互联应用全面支持 OAuth 2.0 与 OIDC(OpenID Connect)身份认证协议,开发者可通过标准流程快速接入:
- 创建 OAuth 应用:在魔搭首页-访问控制页面,进入「互联应用」板块,创建应用。
- 配置应用信息:填写应用名称、回调地址等必要信息,获取客户端 ID 和密钥。
- 参考标准协议接入:依据 OAuth 2.0 规范,集成授权流程至开发者应用中。
- 获取访问令牌:用户授权后,OAuth服务将返回动态访问令牌(Access Token),开发者可凭此令牌调用已授权范围内的 OpenAPI 接口。
1、创建入口
2、创建应用
3、应用信息
✅ 所有接入端点信息均可通过 OpenID metadata 查询获取,确保开发过程规范、高效。
授权范围及接口列表
开发者可根据业务需求选择不同的授权范围(scope),如访问模型、数据集、MCP服务等资源。具体支持的 scope 及对应可调用的 OpenAPI 接口,请参见官方文档:
👉 https://modelscope.cn/docs/accounts/oauth
全面实现 AI Infra 即代码,持续开放来赋能社区创新
魔搭社区OpenAPI的开放,旨在为广大开发者提供更便捷集成魔搭模型相关全链路资源发现与使用的能力,帮助 AI 应用开发者从底层基建中解放出来,将更多精力聚焦于上层应用的设计与创新,充分释放创造力。
在后续的工作中,我们仍将持续不断地扩大OpenAPI支持的功能板块及支持的字段,欢迎社区开发者在接入过程中积极向我们反馈建议与需求。我们希望借助 OpenAPI为社区开发者打造连接魔搭生态的标准化桥梁,和社区一起实现:
- 将魔搭生态内的模型、数据集等 AI 资源转化为标准的 REST 资源。进而实现基础设施即代码,帮助开发者通过标准 API 自动化管理个人名下或组织内的模型、数据集仓库和存储资源等。
- 让自动化流水线端到端闭环集成魔搭生态成为可能。通过将魔搭全链路模型服务产品能力标准化为OpenAPI,我们能够轻松实现将“模型发现 -> 模型下载 -> 模型评估 -> 模型使用”的全链路集成到 CI/CD 流程中。例如,借此开发者可以将魔搭模型库作为企业内部AI资产中心的后端,动态拉取最新模型及版本。
- 繁荣 ModelScope 社区插件等下游工具或应用生态。社区开发者可以围绕 ModelScope构建各种工具,而不再受限于官方的更新节奏;搭建面向垂直场景的模型市场或推理平台;在自己的Agent应用中集成来自ModelScope的海量的模型及MCP等工具。
- 为 Agentic AI智能体通过语义化互操作接入魔搭生态提供标准协议。OpenAPI 提供了一套机器可读的 JSON 定义,这意味着 AI 模型等资源可以不再是由人手动下载,而是由 AI Agent 自动发现、评估并集成。例如,开发者可以雇佣一个 AI Agent 去自动筛选 Hub 上最符合要求的前 10 个模型并下载其配置文件。
🔗相关链接
我们已将 Hub API 文档发布至站点文档中心,该文档提供了一个始终保持最新状态的全面参考。开发者也可以直接访问 OpenAPI JSON规范文件了解。
- 站点文档:https://modelscope.cn/docs/openapi
- OpenAPI规范:https://modelscope.cn/.well-known/openapi.json
- 集成通过OAuth登录:https://modelscope.cn/docs/accounts/oauth
更多OpenAPI陆续开放中,如有任何集成需求或接入问题,欢迎联系我们反馈。
官方邮箱:contact@modelscope.cn
点击即可跳转API文档: