DB-GPT V0.7.0版本更新:支持MCP协议、集成DeepSeek R1模型、GraphRAG检索链路增强、架构全面升级等

简介: DB-GPT V0.7.0版本现已上线,快速预览新特性~

版本介绍

DB-GPT是一个开源的AI原生数据应用开发框架(AI Native Data App Development framework with AWEL and Agents),在V0.7.0版本中,我们对DB-GPT模块包进行架构治理,将原有模块包进行分拆,重构了整个框架配置体系,提供了更加清晰,更加灵活,更加可扩展的围绕大模型构建AI原生数据应用管理与开发能力。

V0.7.0版本主要新增、增强了以下核心特性


🍀 支持MCP(Model Context Protocol)协议。

🍀 集成DeepSeek R1QWQ推理模型,原有DB-GPT的所有Chat场景都覆盖深度思考能力。

🍀GraphRAG检索链路再增强:支持「向量」、「意图识别+Text2GQL」图检索器。

🍀DB-GPT架构全面升级,原有dbgpt包拆分为dbgpt-coredbgpt-extdbgpt-servedbgpt-clientdbgpt-accleratordbgpt-app

🍀 重构DB-GPT配置体系,配置文件修改为".toml"格式,废除原有的.env配置逻辑。


✨新特性

1.支持MCP(Model Context Protocol)协议


使用说明:

a. 运行 MCP SSE Server 网关:

npx -y supergateway --stdio "uvx mcp-server-fetch"

image.gif

这里我们运行网页抓取的 mcp-server-fetch

b. 创建 Multi-agent+ Auto-Planning+ MCP 的网页抓取和总结 APP。


c. 配置 APP,选择 ToolExpertSummarizer这两个智能体,并给 ToolExpert 添加资源类型是 tool(mcp(sse))的资源,其中 mcp_servers填步骤 a 中启动的服务地址(默认是: http://127.0.0.1:8000/sse),然后保存应用。


image.gif

d. 选择刚才新建的 MCP Web FetchAPP 对话,给出网页让 APP 总结即可:


image.gif

例子中输入的问题是:这个网页讲了什么 https://www.cnblogs.com/fnng/p/18744210


    2.集成DeepSeek R1推理模型,原有DB-GPT的所有Chat场景都具备深度思考能力。


    如何快速使用参考:Quickstart | DB-GPT

    数据分析场景:

    image.gif

    知识库场景:



    3.GraphRAG检索链路再增强:支持「向量」、「意图识别+Text2GQL」图检索器。

    • 「向量」图检索器

    知识图谱的构建过程中在所有点边中加入对应的向量并建立索引,在查询时将问题向量化并通过TuGraph-DB自带的向量索引能力,基于HNSW算法查询topk相关的点和边。相比于关键词图检索,能够识别更模糊的问题。

    配置样例:

    [rag.storage.graph]
    type = "TuGraph"
    host="127.0.0.1"
    port=7687
    username="admin"
    password="73@TuGraph"
    enable_summary="True"
    triplet_graph_enabled="True"
    document_graph_enabled="True"
    # 向量图检索配置项
    enable_similarity_search="True"
    knowledge_graph_embedding_batch_size=20
    similarity_search_topk=5
    extract_score_threshold=0.7


    • 「意图识别+Text2GQL」图检索器

    将问题通过意图识别模块重写,抽取真实意图以及涉及的实体与关系,之后用Text2GQL模型进行翻译,翻译为GQL语句直接查询。可以进行更精确的图谱查询并显示对应查询语句。除了调用大型模型的api服务之外,也可以使用ollama调用本地Text2GQL模型。


    配置样例:

    [rag.storage.graph]
    type = "TuGraph"
    host="127.0.0.1"
    port=7687
    username="admin"
    password="73@TuGraph"
    enable_summary="True"
    triplet_graph_enabled="True"
    document_graph_enabled="True"
    # 意图识别+Text2GQL图检索配置项
    enable_text_search="True"
    # 使用Ollama部署独立text2gql模型,开启以下配置项
    # text2gql_model_enabled="True"
    # text2gql_model_name="tugraph/CodeLlama-7b-Cypher-hf:latest"

    image.gif

      4.DB-GPT架构全面升级,原有dbgpt包拆分为dbgpt-coredbgpt-extdbgpt-servedbgpt-clientdbgpt-accleratordbgpt-app


      随着dbgpt逐渐发展,服务模块越来越多,导致功能回归测试难,功能兼容问题越来越频繁,因此将原有dbgpt内容进行模块分拆:

      • dbgpt-core:主要负责dbgpt的awel,model,agent,rag,storage,datasource等内容核心模块接口定义, 发布 Python SDK。
      • dbgpt-ext:主要负责dbgpt扩展内容的实现,包括datasource数据源扩展,vector-storage,graph-storage的扩展,以及模型接入等扩展,方便社区开发者能够更加快速使用和扩展新的模块内容,发布 Python SDK。
      • dbgpt-serve: 主要提供dbgpt各个模块原子服务化的Restful接口,方便社区用户能够快速接入。暂不发布 Python SDK。
      • dbgpt-app:主要负责AppChatDataChatKnowledgeChatExcelDashboard等业务场景实现,无 Python SDK。
      • dbgpt-client:提供统一的 Python 接入的 SDK 客户端。
      • dbgpt-accelerator:模型推理加速模块,包含了不同版本(不同 torch 版本等)、平台(Windows、MacOS和Linux)、硬件环境(CPU、CUDA 和 ROCM)推理框架(vLLM、llama.cpp)和量化方法(AWQ、bitsandbytes、GPTQ)以及其他加速模块(accelerate、flash-attn)等的适配和兼容,为 DB-GPT 的其它模块提供跨平台的、可按需安装底层环境。


      5.重构 DB-GPT 配置体系,配置文件使用".toml"格式,废除原有的.env配置逻辑,每个模块可以自己的配置类,并能自动生成前端配置页面。

      如何快速使用参考:Quickstart | DB-GPT

      所有配置参考:ChatDashboardConfig Configuration | DB-GPT

      [system]
      # Load language from environment variable(It is set by the hook)
      language = "${env:DBGPT_LANG:-zh}"
      api_keys = []
      encrypt_key = "your_secret_key"
      # Server Configurations
      [service.web]
      host = "0.0.0.0"
      port = 5670
      [service.web.database]
      type = "sqlite"
      path = "pilot/meta_data/dbgpt.db"
      [service.model.worker]
      host = "127.0.0.1"
      [rag.storage]
      [rag.storage.vector]
      type = "chroma"
      persist_path = "pilot/data"
      # Model Configurations
      [models]
      [[models.llms]]
      name = "deepseek-reasoner"
      # name = "deepseek-chat"
      provider = "proxy/deepseek"
      api_key = "your_deepseek_api_key"

      image.gif

      6.支持 S3、OSS存储

        DB-GPT统一存储扩展 OSS 和 S3 实现,其中 S3 实现支持大部分兼容 S3 协议的云存储。DB-GPT 知识库原始文件、Chat Excel 相关中间文件、AWEL Flow 节点参数文件等均支持云存储。

        配置样例:

        [[serves]]
        type = "file"
        # Default backend for file server
        default_backend = "s3"
        [[serves.backends]]
        type = "oss"
        endpoint = "https://oss-cn-beijing.aliyuncs.com"
        region = "oss-cn-beijing"
        access_key_id = "${env:OSS_ACCESS_KEY_ID}"
        access_key_secret = "${env:OSS_ACCESS_KEY_SECRET}"
        fixed_bucket = "{your_bucket_name}"
        [[serves.backends]]
        # Use Tencent COS s3 compatible API as the file server
        type = "s3"
        endpoint = "https://cos.ap-beijing.myqcloud.com"
        region = "ap-beijing"
        access_key_id = "${env:COS_SECRETID}"
        access_key_secret = "${env:COS_SECRETKEY}"
        fixed_bucket = "{your_bucket_name}

        image.gif

        具体配置说明可以参考: S3StorageConfig Configuration | DB-GPT


        7.生产级 llama.cpp 推理支持

        基于 llama.cpp HTTP Server,支持连续批处理(continuous batching)多用户并行推理等,llama.cpp 推理走向生产系统。

        配置样例:

        # Model Configurations
        [models]
        [[models.llms]]
        name = "DeepSeek-R1-Distill-Qwen-1.5B"
        provider = "llama.cpp.server"
        # If not provided, the model will be downloaded from the Hugging Face model hub
        # uncomment the following line to specify the model path in the local file system
        # https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-1.5B-GGUF
        # path = "the-model-path-in-the-local-file-system"
        path = "models/DeepSeek-R1-Distill-Qwen-1.5B-Q4_K_M.gguf

        image.gif

        8.多模型部署持久化

        目前可以在 DB-GPT 页面完成大部分模型的接入,并能持久化保存配置信息,服务启动自动加载模型。

        image.gif


        9.LLM、Embedding、Reranker 扩展能力增强

        优化了模型的扩展方式,少量几行代码即可接入新模型。


        10.原生场景支持基于对话轮数和 Token 数的记忆,每个场景支持独立配置

        配置样例:

        [app]
        # 统一配置所有场景的温度
        temperature = 0.6
        [[app.configs]]
        name = "chat_excel"
        # 使用自定义的温度配置
        temperature = 0.1
        duckdb_extensions_dir = []
        force_install = true
        [[app.configs]]
        name = "chat_normal"
        memory = {type="token", max_token_limit=20000}
        [[app.configs]]
        name = "chat_with_db_qa"
        schema_retrieve_top_k = 50
        memory = {type="window", keep_start_rounds=0, keep_end_rounds=10}

        image.gif

        11.Chat Excel、Chat Data & Chat DB 和 Chat Dashboard 原生场景优化

        • Chat Data、Chat Dashboard 支持流式输出。
        • 优化库表字段的知识加工和召回
        • Chat Excel 优化,支持更复杂的表格理解与图表对话,小参数量级的开源 LLM 也能玩起来。


        image.gif

        12.前端页面支持 LaTeX 数学公式渲染

        image.gif

        13.AWEL Flow 支持简单对话模板

        image.gif

        14.支持仅包含代理模型的轻量级 Docker 镜像(arm64 & amd64)

        一键启动部署 DB-GPT 命令:

        docker run -it --rm -e SILICONFLOW_API_KEY=${SILICONFLOW_API_KEY} \
         -p 5670:5670 --name dbgpt eosphorosai/dbgpt-openai

        image.gif

        同时可以使用构建脚本构建自己的镜像:

        bash docker/base/build_image.sh --install-mode openai

        image.gif

        具体可看文档: DB-GPT Docker Build Guide | DB-GPT


        15.DB-GPT API 兼容 OpenAI SDK

        from openai import OpenAI
        DBGPT_API_KEY = "dbgpt"
        client = OpenAI(
            api_key=DBGPT_API_KEY,
            base_url="http://localhost:5670/api/v2",
        )
        messages = [
            {
                "role": "user",
                "content": "Hello, how are you?",
            },
        ]
        has_thinking = False
        reasoning_content = ""
        for chunk in client.chat.completions.create(
            model="deepseek-chat",
            messages=messages,
            extra_body={
                "chat_mode": "chat_normal",
            },
            stream=True,
            max_tokens=4096,
        ):
            delta_content = chunk.choices[0].delta.content
            if hasattr(chunk.choices[0].delta, "reasoning_content"):
                reasoning_content = chunk.choices[0].delta.reasoning_content
            if reasoning_content:
                if not has_thinking:
                    print("<thinking>", flush=True)
                print(reasoning_content, end="", flush=True)
                has_thinking = True
            if delta_content:
                if has_thinking:
                    print("</thinking>", flush=True)
                print(delta_content, end="", flush=True)
                has_thinking = False

        image.gif

        16.数据源扩展能力增强

        后端支持新数据源后前端可自动识别和动态配置。

        image.gif

        17.Agent 资源支持动态参数配置

        前端自动识别资源配置参数,同时兼容旧版配置。

        18.ReAct Agent 支持,Agent 工具调用能力增强

        19.IndexStore 扩展能力增强

        IndexStore 配置重构,新存储实现自动扫描发现

        20.AWEL flow 兼容性增强

        基于多版本元数据实现 AWEL flow 的跨版本兼容。

        🐞 Bug 修复

        Chroma 支持中文知识库空间、AWEL Flow 问题修复、修复多平台 Lyric 安装报错问题以及修复本地 embedding 模型报错问题等 40+ bug。

        🛠️其他

        支持 Ruff 的代码格式化、多版本文档构建、单元测试修复等 20+ 其它的问题修复或者功能增强。

        升级指南:

        1.元数据库升级

        对于 SQLite 的升级,默认会自动升级表结构。对于 MySQL 的升级,需要手动执行 DDL ,其中 assets/schema/dbgpt.sql文件是当前版本完整的 DDL 文件,具体版本变更的 DDL 可以查看 assets/schema/upgrade下面的变更 DDL,例如您是从 v0.6.3升级到v0.7.0,可以执行下列的 DDL:

        mysql -h127.0.0.1 -uroot -p{your_password} < ./assets/schema/upgrade/v0_7_0/upgrade_to_v0.7.0.sql

        2.向量化数据库升级

        由于 v0.7.0 Chroma 存储底层变更,0.7.0 不支持读取老版本的内容,请重新导入知识库、刷新数据源。其它向量化存储不影响。

        ✨官方文档地址

        英文网址http://docs.dbgpt.cn/docs/overview/

        中文网址https://www.yuque.com/eosphoros/dbgpt-docs/bex30nsv60ru0fmx


        ✨致谢

        感谢所有贡献者使这次发布成为可能!

        283569391@qq.com, @15089677014, @Aries-ckt, @FOkvj, @Jant1L, @SonglinLyu, @TenYearOldJAVA, @Weaxs, @cinjoseph, @csunny, @damonqin, @dusx1981, @fangyinc, @geebytes, @haawha, @utopia2077, @vnicers, @xuxl2024, @yhjun1026, @yunfeng1993, @yyhhyyyyyy and tam

        image.gif


        本次版本耗时近三个月,合并到 main 分支一个多月,上百位用户参与 0.7.0 版本的测试,Github 收到上百个 issues 反馈,也有部分用户直接给我们提交了修复的 PR,DB-GPT 社区在此真心感谢每一位参与 0.7.0 版本的用户和贡献者!


        ✨附录

        快速开始http://docs.dbgpt.cn/docs/next/quickstart/

        docker 快速部署http://docs.dbgpt.cn/docs/next/installation/docker/

        相关文章
        |
        11天前
        |
        人工智能 算法 网络安全
        基于PAI+专属网关+私网连接:构建全链路Deepseek云上私有化部署与模型调用架构
        本文介绍了阿里云通过PAI+专属网关+私网连接方案,帮助企业实现DeepSeek-R1模型的私有化部署。方案解决了算力成本高、资源紧张、部署复杂和数据安全等问题,支持全链路零公网暴露及全球低延迟算力网络,最终实现技术可控、成本优化与安全可靠的AI部署路径,满足企业全球化业务需求。
        |
        12天前
        |
        人工智能 Cloud Native Serverless
        从理论到落地:MCP 实战解锁 AI 应用架构新范式
        本文旨在从 MCP 的技术原理、降低 MCP Server 构建复杂度、提升 Server 运行稳定性等方面出发,分享我们的一些实践心得。
        278 42
        |
        1天前
        |
        人工智能 运维 关系型数据库
        云服务API与MCP深度集成,RDS MCP最佳实践
        近日,阿里云数据库RDS发布开源RDS MCP Server,将复杂的技术操作转化为自然语言交互,实现"对话即运维"的流畅体验。通过将RDS OpenAPI能力封装为MCP协议工具,用户只需像聊天一样描述需求,即可完成数据库实例创建、性能调优、故障排查等专业操作。本文介绍了RDS MCP(Model Context Protocol)的最佳实践及其应用,0代码,两步即可轻松完成RDS实例选型与创建,快来体验!
        云服务API与MCP深度集成,RDS MCP最佳实践
        |
        13天前
        |
        机器学习/深度学习 人工智能 算法
        超越 DeepSeek-R1!Seed-Thinking-v1.5:字节跳动开源MoE架构推理模型,200B总参数仅激活20B,推理效率提升5倍
        字节跳动推出的200B参数混合专家模型,在AIME/Codeforces/GPQA等基准测试中实现多项突破,采用强化学习框架与流式推理系统,支持7大领域复杂推理任务。
        136 13
        超越 DeepSeek-R1!Seed-Thinking-v1.5:字节跳动开源MoE架构推理模型,200B总参数仅激活20B,推理效率提升5倍
        |
        4天前
        |
        存储 人工智能 开发框架
        MCP 实践:基于 MCP 架构实现知识库答疑系统
        文章探讨了AI Agent的发展趋势,并通过一个实际案例展示了如何基于MCP(Model Context Protocol)开发一个支持私有知识库的问答系统。
        MCP 实践:基于 MCP 架构实现知识库答疑系统
        |
        5天前
        |
        存储 人工智能 自然语言处理
        Cursor这类编程Agent软件的模型架构与工作流程
        编程Agent的核心是一个强大的大语言模型,负责理解用户意图并生成相应的代码和解决方案。这些模型通过海量文本和代码数据的训练,掌握了广泛的编程知识和语言理解能力。
        49 1
        |
        16天前
        |
        人工智能 JavaScript 开发工具
        MCP详解:背景、架构与应用
        模型上下文协议(MCP)是由Anthropic提出的开源标准,旨在解决大语言模型与外部数据源和工具集成的难题。作为AI领域的“USB-C接口”,MCP通过标准化、双向通信通道连接模型与外部服务,支持资源访问、工具调用及提示模板交互。其架构基于客户端-服务器模型,提供Python、TypeScript等多语言SDK,方便开发者快速构建服务。MCP已广泛应用于文件系统、数据库、网页浏览等领域,并被阿里云百炼平台引入,助力快速搭建智能助手。未来,MCP有望成为连接大模型与现实世界的通用标准,推动AI生态繁荣发展。
        478 8
        |
        14天前
        |
        人工智能 自然语言处理 API
        MCP与A2A协议比较:人工智能系统互联与协作的技术基础架构
        本文深入解析了人工智能领域的两项关键基础设施协议:模型上下文协议(MCP)与代理对代理协议(A2A)。MCP由Anthropic开发,专注于标准化AI模型与外部工具和数据源的连接,降低系统集成复杂度;A2A由Google发布,旨在实现不同AI代理间的跨平台协作。两者虽有相似之处,但在设计目标与应用场景上互为补充。文章通过具体示例分析了两种协议的技术差异及适用场景,并探讨了其在企业工作流自动化、医疗信息系统和软件工程中的应用。最后,文章强调了整合MCP与A2A构建协同AI系统架构的重要性,为未来AI技术生态系统的演进提供了方向。
        243 4
        |
        14天前
        |
        机器学习/深度学习 编解码 人工智能
        Kimi开源MoE架构多模态推理模型,小激活参数,大能量!
        最近Moonshot AI推出了 Kimi-VL,这是一个高效的开源混合专家(MoE)视觉-语言模型(VLM),它提供了先进的多模态推理、长上下文理解以及强大的代理能力——所有这些功能都只需激活其语言解码器中的2.8B参数(Kimi-VL-A3B)。
        71 1
        |
        6月前
        |
        Java Maven Docker
        gitlab-ci 集成 k3s 部署spring boot 应用
        gitlab-ci 集成 k3s 部署spring boot 应用

        热门文章

        最新文章

        下一篇
        oss创建bucket