Kimi K2
在开始部署之前,先简单介绍一下Kimi K2。Kimi-K2-Instruct 是由月之暗面(Moonshot AI)于 2025 年 7 月推出的 全球首个开源万亿参数 MoE 模型,定位为“反射级智能代理”(Reflex-Grade Agent),专注于工具调用、复杂推理与自主决策能力。总参数达 1 万亿,本地部署成本高昂且技术门槛高。那么如何快速体验呢?这里提供了一个便捷方案:支持云上调用 API 与部署方案,无需编码,最快 5 分钟即可完成,成本最低 0 元。
方案部署
在当前方案中,Kimi K2支持通过以下三种方式部署,包括:基于 MaaS 调用 Kimi-K2-Instruct 模型、基于人工智能平台 PAI 部署 Kimi-K2-Instruct 模型、基于GPU云服务器部署 Kimi-K2-Instruct 模型。不同的部署方案,操作难度不同,我们可以在方案部署操作页面看到
今天我们要选择的部署方案就是最简单的一种,基于 MaaS 调用 Kimi-K2-Instruct 模型 部署方案,操作简单容易上手,部署操作最快,费用最低。
基于 MaaS 调用 Kimi-K2-Instruct 模型
创建API-KEY
在部署之前,需要您需要开通阿里云百炼的模型服务,并获得免费额度。登录阿里云百炼大模型服务平台 ,选择【模型】-【密钥管理】-【创建API-KEY】
选择归属账号,默认主账号空间后确定即可看到我们的API-KEY,点击【复制】图标,复制我们创建的API Key 备用
下载安装Cherry Studio
Cherry Studio 是业界主流的大模型对话客户端,且集成了 MCP 功能,我们可以方便地与大模型进行对话。访问 Cherry Studio 下载并安装客户端,这里我们下载Windows 版本的
下载完成后,双击.exe 文件执行安装程序,这里我选择安装在 D盘
安装完成后,运行 Cherry Studio,按照如下操作顺序配置我们的阿里云百炼模型密钥
密钥配置完成后,在当前页面下拉可以看到【添加】按钮,点击【添加】按钮,输入模型ID Moonshot-Kimi-K2-Instruct
选择【添加模型】就可以完成阿里云百炼 Kimi K2 模型的添加,到这里,部署操作就结束了,是不是特别简单,没什么操作难度。
体验 Kimi 模型
回到对话框界面,在顶部选择模型后开始对话,输入我们的问题【比较8.9 和8.10 谁大】
MCP 调用能力
这里我们测试的是 Fetch网页内容抓取 MCP Server 的网页抓取能力,在ModelScope 社区找到具体的 Fetch网页内容抓取,选择右侧的【连接】可以看到如下通过SSE URL连接服务
复制 SSE URL 连接配置备用,在 Cherry Studio 按照如下操作顺序选择【添加服务器】
在【添加服务器】下拉选择中选择【从JSON 导入】
讲复制好的 SSE URL 配置内容粘贴到打开的窗口中并【确定】
启用 Fetch网页内容抓取 MCP Server 后
再次回到对话框,选择我们刚才配置的 MCP 服务
在对话框中输入我们的问题【https://help.aliyun.com/zh/model-studio/what-is-model-studio 阿里云百炼兼容OpenAI的base_url是什么?】,此时就可以看到AI 自动调用我们配置的网页抓取 MCP Server 来获取我们需要的内容了
到这里我们的整个方案操作也就完成了,步骤特别简单,配置也容易找到,操作没什么难度,但是又特别好用,感兴趣的小伙伴可以快速上手体验了。
体验感受
先说一个整个 基于 MaaS 调用 Kimi-K2-Instruct 模型 部署操作的感受,整个操作过程比较简单,和技术无关,大家只需要按照文档的步骤执行就可以了。对于文档中描述不详细的部分,我在文中也有明确的截图和文字操作说明,希望可以帮到大家。
通过我们的对话内容,以及配置网页抓取MCP Server 的体验来看,Kimi-K2-Instruct 凭借其出色的推理能力和对工具调用的高效支持,不仅能够理解复杂的指令并进行逻辑推理,还能灵活调用外部工具以增强解决问题的能力,确实如此。也就是说 Kimi-K2-Instruct 是一款拥有出色推理能力且支持工具调用的大模型,这样对于后期企业在实际应用过程中可拓展的边界会有更大的提升。过去的 AI 大语言模型,可能专注于文本、推理、工具调用其中的某一方面,而当下的 Kimi-K2-Instruct 则是一个混合体,支持的能力更广,可实现的场景也就更多,操作无难度,欢迎有需要的小伙伴上手测试。