Kimi K2,开源万亿参数大模型

简介: Kimi K2是由月之暗面推出的全球首个开源万亿参数MoE模型,具备强大的工具调用、复杂推理与自主决策能力。该模型可通过MaaS平台快速调用,无需编码,最快5分钟即可部署,体验成本低至0元。通过Cherry Studio客户端,用户可便捷配置API密钥并调用模型,同时支持MCP功能,实现网页内容抓取等扩展能力。操作简单、功能强大,适合企业与开发者高效应用。

Kimi K2

在开始部署之前,先简单介绍一下Kimi K2。Kimi-K2-Instruct 是由月之暗面(Moonshot AI)于 2025 年 7 月推出的 全球首个开源万亿参数 MoE 模型,定位为“反射级智能代理”(Reflex-Grade Agent),专注于工具调用、复杂推理与自主决策能力。总参数达 1 万亿,本地部署成本高昂且技术门槛高。那么如何快速体验呢?这里提供了一个便捷方案:支持云上调用 API 与部署方案,无需编码,最快 5 分钟即可完成,成本最低 0 元。

方案部署

在当前方案中,Kimi K2支持通过以下三种方式部署,包括:基于 MaaS 调用 Kimi-K2-Instruct 模型、基于人工智能平台 PAI 部署 Kimi-K2-Instruct 模型、基于GPU云服务器部署 Kimi-K2-Instruct 模型。不同的部署方案,操作难度不同,我们可以在方案部署操作页面看到

image.png

今天我们要选择的部署方案就是最简单的一种,基于 MaaS 调用 Kimi-K2-Instruct 模型 部署方案,操作简单容易上手,部署操作最快,费用最低。

基于 MaaS 调用 Kimi-K2-Instruct 模型

创建API-KEY

在部署之前,需要您需要开通阿里云百炼的模型服务,并获得免费额度。登录阿里云百炼大模型服务平台 ,选择【模型】-【密钥管理】-【创建API-KEY】

image.png

选择归属账号,默认主账号空间后确定即可看到我们的API-KEY,点击【复制】图标,复制我们创建的API Key 备用

image.png

下载安装Cherry Studio

Cherry Studio 是业界主流的大模型对话客户端,且集成了 MCP 功能,我们可以方便地与大模型进行对话。访问 Cherry Studio 下载并安装客户端,这里我们下载Windows 版本的

image.png

下载完成后,双击.exe 文件执行安装程序,这里我选择安装在 D盘

image.png

安装完成后,运行 Cherry Studio,按照如下操作顺序配置我们的阿里云百炼模型密钥

image.png

密钥配置完成后,在当前页面下拉可以看到【添加】按钮,点击【添加】按钮,输入模型ID Moonshot-Kimi-K2-Instruct

image.png

选择【添加模型】就可以完成阿里云百炼 Kimi K2 模型的添加,到这里,部署操作就结束了,是不是特别简单,没什么操作难度。

体验 Kimi 模型

回到对话框界面,在顶部选择模型后开始对话,输入我们的问题【比较8.9 和8.10 谁大

image.png

MCP 调用能力

这里我们测试的是 Fetch网页内容抓取 MCP Server 的网页抓取能力,在ModelScope 社区找到具体的 Fetch网页内容抓取,选择右侧的【连接】可以看到如下通过SSE URL连接服务

image.png

复制 SSE URL 连接配置备用,在 Cherry Studio 按照如下操作顺序选择【添加服务器】

image.png

在【添加服务器】下拉选择中选择【从JSON 导入】

image.png

讲复制好的 SSE URL 配置内容粘贴到打开的窗口中并【确定】

image.png

启用 Fetch网页内容抓取 MCP Server 后

image.png

再次回到对话框,选择我们刚才配置的 MCP 服务

image.png

在对话框中输入我们的问题【https://help.aliyun.com/zh/model-studio/what-is-model-studio 阿里云百炼兼容OpenAI的base_url是什么?】,此时就可以看到AI 自动调用我们配置的网页抓取 MCP Server 来获取我们需要的内容了

image.png

到这里我们的整个方案操作也就完成了,步骤特别简单,配置也容易找到,操作没什么难度,但是又特别好用,感兴趣的小伙伴可以快速上手体验了。

体验感受

先说一个整个 基于 MaaS 调用 Kimi-K2-Instruct 模型 部署操作的感受,整个操作过程比较简单,和技术无关,大家只需要按照文档的步骤执行就可以了。对于文档中描述不详细的部分,我在文中也有明确的截图和文字操作说明,希望可以帮到大家。

通过我们的对话内容,以及配置网页抓取MCP Server 的体验来看,Kimi-K2-Instruct 凭借其出色的推理能力和对工具调用的高效支持,不仅能够理解复杂的指令并进行逻辑推理,还能灵活调用外部工具以增强解决问题的能力,确实如此。也就是说 Kimi-K2-Instruct 是一款拥有出色推理能力且支持工具调用的大模型,这样对于后期企业在实际应用过程中可拓展的边界会有更大的提升。过去的 AI 大语言模型,可能专注于文本、推理、工具调用其中的某一方面,而当下的 Kimi-K2-Instruct 则是一个混合体,支持的能力更广,可实现的场景也就更多,操作无难度,欢迎有需要的小伙伴上手测试。

相关文章
|
2月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
270 2
|
3月前
|
人工智能 算法 开发者
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
341 10
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
|
2月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
781 2
|
3月前
|
数据采集 机器学习/深度学习 编解码
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
523 0
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
|
2月前
|
人工智能 Java 开发者
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
JManus是阿里开源的Java版OpenManus,基于Spring AI Alibaba框架,助力Java开发者便捷应用AI技术。支持多Agent框架、网页配置、MCP协议及PLAN-ACT模式,可集成多模型,适配阿里云百炼平台与本地ollama。提供Docker与源码部署方式,具备无限上下文处理能力,适用于复杂AI场景。当前仍在完善模型配置等功能,欢迎参与开源共建。
1434 58
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
|
3月前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
678 0
|
3月前
|
编解码 算法 测试技术
MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!
今天,面壁小钢炮新一代多模态模型 MiniCPM-V 4.0 正式开源。依靠 4B 参数,取得 在 OpenCompass、OCRBench、MathVista 等多个榜单上取得了同级 SOTA 成绩,且 实现了在手机上稳定、丝滑运行。此外,官方也正式开源了 推理部署工具 MiniCPM-V CookBook,帮助开发者面向不同需求、不同场景、不同设备,均可实现开箱即用的轻量、简易部署。
605 0
|
3月前
|
人工智能 算法 测试技术
轻量高效,8B 性能强劲书生科学多模态模型Intern-S1-mini开源
继 7 月 26 日开源『书生』科学多模态大模型 Intern-S1 之后,上海人工智能实验室(上海AI实验室)在8月23日推出了轻量化版本 Intern-S1-mini。
636 50

热门文章

最新文章