❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦
🚀 快速阅读
- 功能:支持与多种大型语言模型(LLM)进行交互,提供自动化安装 MCP 服务器等功能。
- 技术:基于模型上下文协议(MCP)和 SSE 技术,实现实时数据推送和智能对话。
- 应用:适用于客户服务、个人助理、教育和学习等多种场景。
正文(附运行示例)
ChatMCP 是什么
ChatMCP 是基于模型上下文协议(MCP)的 AI 聊天客户端,支持与各种大型语言模型(LLM)如 OpenAI、Claude 和 OLLama 等进行交互。它具备自动化安装 MCP 服务器、SSE 传输支持、自动选择服务器、聊天记录管理等功能,提供 MCP 服务器市场实现与不同数据源的聊天。
用户可以在设置页面配置 LLM API 密钥和端点,享受更好的用户界面设计。
ChatMCP 的主要功能
- 与 MCP 服务器聊天:用户能直接与 MCP 服务器进行交互,发送和接收消息。
- MCP 服务器市场:提供多种 MCP 服务器的集合,用户能从中选择并安装,实现与不同数据源的聊天。
- 自动安装 MCP 服务器:简化 MCP 服务器的安装过程,用户无需手动配置。
- SSE MCP 传输支持:支持服务器发送事件(Server-Sent Events),服务器能主动向客户端推送信息。
- 自动选择 MCP 服务器:客户端能自动选择可用的 MCP 服务器进行连接。
- 聊天记录管理:提供聊天记录的存储和管理功能,方便用户回顾历史对话。
- 支持多种 LLM 模型:支持与 OpenAI、Claude、OLLama 等大型语言模型的集成。
ChatMCP 的技术原理
- 模型上下文协议(MCP):ChatMCP 基于 MCP 协议,支持客户端向服务器发送请求,接收来自服务器的响应。
- 大型语言模型(LLM)集成:ChatMCP 基于集成不同的 LLM,让客户端能理解和生成自然语言,提供智能对话能力。
- API 密钥和端点配置:用户配置 LLM 的 API 密钥和端点,便于客户端与特定的 LLM 服务进行通信。
- 服务器发送事件(SSE):基于 SSE 技术,ChatMCP 实现服务器向客户端的实时数据推送。
- 数据库和日志管理:ChatMCP 用数据库存储聊天记录,基于日志文件记录应用的运行情况,方便调试和维护。
如何运行 ChatMCP
安装
- 确保系统中已安装
uvx
或npx
。
```bash安装 uvx
brew install uv
安装 npx
brew install node
2. 从 GitHub 仓库下载并安装 ChatMCP。
```bash
git clone https://github.com/daodao97/chatmcp.git
cd chatmcp
flutter pub get
flutter run -d macos
- 在设置页面配置 LLM API 密钥和端点。
- 从 MCP 服务器页面安装 MCP 服务器。
- 开始与 MCP 服务器聊天。
调试
- 日志文件:
~/Library/Application Support/run.daodao.chatmcp/logs
- 聊天记录数据库:
~/Documents/chatmcp.db
- MCP 服务器配置文件:
~/Documents/mcp_server.json
重置应用可以使用以下命令:
rm -rf ~/Library/Application\ Support/run.daodao.chatmcp
rm -rf ~/Documents/chatmcp.db
rm -rf ~/Documents/mcp_server.json
资源
- 项目官网:https://modelcontextprotocol.io/introduction
- GitHub 仓库:https://github.com/daodao97/chatmcp
- MCP CLI 工具:https://github.com/chrishayuk/mcp-cli
- GNU General Public License v3.0:https://www.gnu.org/licenses/gpl-3.0.en.html
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦