函数计算AgentRun重磅上线知识库功能,赋能智能体更“懂”你

简介: 阿里云函数计算AgentRun全新上线知识库功能,深度集成百炼与RAGFlow双引擎,支持RAG增强生成。提供低代码绑定、SDK代码集成、MCP工具调用三大方式,让智能体具备专业领域理解力与上下文感知力,真正实现“更懂用户、更贴场景、更高效响应”。

阿里云函数计算 AgentRun 正式推出全新 知识库功能,为智能体(Agent)注入更强的语义理解与上下文感知能力。通过深度集成 百炼知识库RAGFlow 知识库,AgentRun 让开发者能够轻松构建具备“知识”的智能应用,真正实现“更懂用户、更贴场景、更高效响应”。

为什么需要知识库?

在传统智能体开发中,模型往往依赖通用训练数据,缺乏对特定业务、私有文档或实时信息的理解能力。这导致其在面对专业领域问题、企业内部知识或个性化需求时表现受限。

AgentRun 的知识库功能正是为解决这一痛点而生——它将外部知识源无缝接入智能体运行流程,通过 检索增强生成(RAG) 技术,让智能体在回答问题、执行任务时,能动态调用相关知识,大幅提升准确性、专业性与可信度。

双引擎支持:百炼 + RAGFlow,覆盖多元知识形态

百炼知识库绑定

函数计算AgentRun可以绑定您账号下已经创建好的阿里云百炼知识库

image.png

进入到创建页面,输入知识库名称、描述,选择知识库类型为“百炼”,可以多选绑定您账号下已经在阿里云百炼控制台创建好的多个知识库。填写检索配置后,点击创建知识库,即可将您的阿里云百炼知识库绑定至AgentRun平台。

RAGFlow知识库绑定

函数计算AgentRun可以绑定您账号下已经创建好的RAGFlow知识库。如果您没有RAGFlow知识库,可以点击此链接,一键在SAE上创建RAGFlow。

image.png

进入到创建页面,输入知识库名称、描述,选择知识库类型为“RAGFlow”,填写您已部署的RAGFlow的BaseURL、Dataset IDs和API-KEY(将其保存在凭证中)。填写检索配置后,点击创建知识库,即可将您自建的RAGFlow知识库绑定至AgentRun平台。

RAGFlow知识库详细配置获取方式,可参考此文档

三大集成方式,灵活适配各类开发场景

函数计算AgentRun 知识库功能支持快速创建集成、代码集成和MCP集成三种方式,满足不同技术栈和开发习惯。

快速创建Agent集成知识库功能

对于希望快速验证想法或加速产品迭代的团队,AgentRun 提供了低代码、可视化的知识库绑定能力。开发者只需登录 AgentRun 控制台,选择已创建的百炼或 RAGFlow 知识库,将其关联到目标智能体,并配置简单的检索参数(如返回结果数量、相似度阈值等),即可完成集成——全程无需编写一行代码。

image.png

这一模式极大降低了技术门槛,让产品经理、运营人员甚至非技术背景的创新者也能参与智能体的构建与优化。无论是搭建内部知识问答机器人、客户自助服务助手,还是快速验证某个垂直领域的 AI 应用场景,都能在几分钟内完成部署并上线试用

代码集成知识库查询能力对于追求极致灵活性与控制力的开发者,AgentRun 提供了原生代码级知识库接入能力。您可以在代码逻辑中,调用AgentRun SDK的知识库检索接口,根据业务上下文动态发起检索请求,精准筛选并注入最相关的信息片段到智能体的推理流程中。您可以使用AgentRun SDK,调用以下封装的接口,进行单知识库查询或多知识库查询。

fromagentrun.knowledgebaseimportKnowledgeBase
## 获取单知识库,进行查询
knowledgebase=KnowledgeBase.get_by_name("ragflow-test")
single_kb_retrieve_result=knowledgebase.retrieve("<your-query>")
print(single_kb_retrieve_result)
## 获取多知识库,进行查询,支持跨供应商知识库类型检索
multi_kb_retrieve_result=KnowledgeBase.multi_retrieve(
    query="<your-query>",
    knowledge_base_names=["ragflow-test","<your-knowledge-base-name-2>"],
)
print(multi_kb_retrieve_result)

同样,您可以集成LangChain框架,将知识库的查询能力集成在工具或上下文中。

"""AgentRun 知识库智能体集成代码示例

使用前,请参考https://docs.agent.run/docs/tutorial/quick-start 配置好相应认证信息和环境变量

curl http://127.0.0.1:9000/openai/v1/chat/completions -X POST \
    -H "Content-Type: application/json" \
    -d '{"messages": [{"role": "user", "content": "什么是Serverless?"}], "stream": true}'
"""

import json
import os
from typing import Any

from langchain.agents import create_agent
import pydash

from agentrun import Config
from agentrun.integration.langchain import model
from agentrun.integration.langchain import knowledgebase_toolset
from agentrun.integration.langgraph.agent_converter import AgentRunConverter
from agentrun.knowledgebase import KnowledgeBase
from agentrun.server import AgentRequest, AgentRunServer
from agentrun.server.model import ServerConfig
from agentrun.utils.log import logger

# 请替换为您已经创建的 模型 名称
AGENTRUN_MODEL_SERVICE = os.getenv("AGENTRUN_MODEL_SERVICE", "<your-model-service>")
AGENTRUN_MODEL_NAME = os.getenv("AGENTRUN_MODEL_NAME", "<your-model-name>")
KNOWLEDGE_BASES = os.getenv("AGENTRUN_KNOWLEDGE_BASES", "ragflow-test").split(",")

if AGENTRUN_MODEL_NAME.startswith("<") or not AGENTRUN_MODEL_NAME:
    raise ValueError("请将 MODEL_NAME 替换为您已经创建的模型名称")

## 加载知识库工具,知识库可以以工具的方式供Agent进行调用
knowledgebase_tools = []
if KNOWLEDGE_BASES and not KNOWLEDGE_BASES[0].startswith("<"):
    knowledgebase_tools = knowledgebase_toolset(
        knowledge_base_names=KNOWLEDGE_BASES,
    )
else:
    logger.warning("KNOWLEDGE_BASES 未设置或未替换,跳过加载知识库工具。")

agent = create_agent(
    model=model(AGENTRUN_MODEL_SERVICE, model=AGENTRUN_MODEL_NAME, config=Config(timeout=180)),
    tools=[
        *knowledgebase_tools,   ## 通过工具集成知识库查询能力
    ],
    system_prompt="你是一个 AgentRun 的 AI 专家,可以通过查询知识库文档来回答用户的问题。",
)


async def invoke_agent(request: AgentRequest):
    messages = [
        {
   "role": msg.role, "content": msg.content}
        for msg in request.messages
    ]

    # 如果配置了知识库,查询知识库并将结果添加到上下文
    if KNOWLEDGE_BASES and not KNOWLEDGE_BASES[0].startswith("<"):
        # 获取用户最新的消息内容作为查询
        user_query = None
        for msg in reversed(request.messages):
            if msg.role == "user":
                user_query = msg.content
                break

        if user_query:
            try:
                retrieve_result = await KnowledgeBase.multi_retrieve_async(
                    query=user_query,
                    knowledge_base_names=KNOWLEDGE_BASES,
                )
                # 直接将检索结果添加到上下文
                if retrieve_result:
                    messages.append({
   
                        "role": "assistant",
                        "content": json.dumps(retrieve_result, ensure_ascii=False),
                    })
            except Exception as e:
                logger.warning(f"知识库检索失败: {e}")

    input: Any = {
   "messages": messages}

    converter = AgentRunConverter()
    if request.stream:

        async def async_generator():
            async for event in agent.astream(input, stream_mode="updates"):
                for item in converter.convert(event):
                    yield item

        return async_generator()
    else:
        result = await agent.ainvoke(input)
        return pydash.get(result, "messages[-1].content", "")


AgentRunServer(
    invoke_agent=invoke_agent,
    config=ServerConfig(
        cors_origins=[
            "*"
        ]
    ),
).start()

注意⚠️:如果您选择了RAGFlow的知识库,需要确保您的Agent运行环境和RAGFlow的BaseURL的地址处于同一网络环境下,否则AgentRun SDK将无法调用RAGFlow的API实现查询能力。

通过代码集成,AgentRun 赋予开发者“全栈可控”的能力——既享受函数计算的弹性与免运维优势,又保留对智能体认知过程的深度掌控,真正实现“知识为我所用,逻辑由我定义”。

MCP集成:将知识库检索作为Agent的工具调用

AgentRun知识库率先实现“Agentic RAG”(智能体RAG)模式——将传统静态检索升级为动态、可编程的智能体工具调用。具体而言,用户可一键将知识库发布为MCP,使其成为大语言模型(LLM)可主动调用的工具之一。在此模式下,LLM不再被动接收上下文,而是具备“工具使用能力”,在推理过程中自主判断何时调用RAG、数据库查询、库存检查等工具,并基于返回结果进行多步推理与任务分解。这种机制使RAG从单一检索功能转变为智能体工具箱中的灵活组件,与其他工具并列协作,显著提升复杂任务的处理能力。其工作方式更贴近人类“思考—行动—反思”的认知流程:模型先分析问题,制定计划,再按需调用多个工具获取信息,最终整合结果生成答案。

进入其他 >> 工具管理 >> 工具市场,可以搜索到“AgentRun知识库MCP” 工具模板,点击安装后,填写知识库名称和类型,即可将知识库的查询能力一件发布成MCP工具给大模型进行调用。

image.png

创建完毕后,点击工具详情,即可看到集成调用的工具地址:

image.png

基于MCP工具标准协议,AgentRun 支持以标准化方式对接知识库服务,实现跨平台、跨模型的上下文注入能力,保障架构的开放性与可扩展性。

结语:从“能回答”到“真理解”,智能体正在拥有“知识之眼”

AgentRun 知识库功能的上线,不仅是一次技术能力的升级,更标志着智能体发展迈入新阶段——从依赖通用语料的“泛化应答”,转向基于专属知识的“情境理解”。当智能体能够随时调用企业文档、行业规范、用户历史甚至实时数据,它便不再只是一个语言模型的接口,而成为一个具备领域认知、上下文记忆与决策依据的数字协作者

未来,随着知识库的持续进化——支持多模态内容、动态更新、跨源推理——AgentRun 将进一步降低构建“有知识、有逻辑、有温度”智能体的门槛。

我们相信,真正的智能,不在于模型有多大,而在于是否“懂你所需、知你所问、信你所依”。

AgentRun,正让每一个智能体,学会思考,更学会理解。

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
16天前
|
关系型数据库 项目管理 数据安全/隐私保护
Leantime:开源项目管理神器
Leantime是一款专为非专业项目经理设计的开源项目管理工具,在Jira的臃肿和Trello的简化之间找到了完美平衡。它集成了战略规划、敏捷看板、甘特图、知识管理、工时跟踪等全面功能,支持Docker一键部署。无论是创业团队还是企业部门,Leantime都能以极低的学习成本,让每位成员轻松参与项目协作。告别过度复杂的工具,用这款轻量而强大的神器,为你的2026年项目计划保驾护航。
127 16
 Leantime:开源项目管理神器
|
17天前
|
机器学习/深度学习 人工智能 计算机视觉
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
本文介绍了一种在YOLO26目标检测模型中引入高效解码器模块EMCAD的创新方法,以提升模型在资源受限场景下的性能与效率。EMCAD由多个模块构成,其中核心的EUCB(高效上卷积块)通过上采样、深度可分离卷积、激活归一化和通道调整等操作,兼顾了特征质量与计算成本。实验结果显示,该模块在显著减少参数与FLOPs的同时仍具备优异性能。文章还提供了完整的YOLO26模型集成流程、配置和训练实战。
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
|
17天前
|
机器学习/深度学习 计算机视觉 网络架构
YOLO26改进 - 注意力机制 |融合HCF-Net维度感知选择性整合模块DASI 增强小目标显著性
本文介绍将HCF-Net中的维度感知选择性融合(DASI)模块集成至YOLO26检测头,通过通道分区与Sigmoid自适应加权,融合高/低维及当前层特征,显著提升红外小目标检测精度,在SIRST数据集上超越主流方法。(239字)
|
18天前
|
人工智能 前端开发 测试技术
Violit: Streamlit杀手,无需全局刷新,构建AI快捷面板
Violit 是新一代 Python Web 框架,融合 Streamlit 的简洁语法与 React 的响应式性能。首创 O(1) 信号状态架构,零重运行、无需 `@cache`/`key`/回调,支持桌面原生应用与 30+ 主题,开箱即用、极速如光。
137 15
|
16天前
|
机器学习/深度学习 监控 算法
基于YOLOv8的工业织物瑕疵检测识别|完整源码数据集+PyQt5界面+完整训练流程+开箱即用!
本项目基于YOLOv8构建工业织物瑕疵智能检测系统,精准识别洞、异物、油斑、织线错误四类缺陷,专为弱纹理高精细织物(如丝绸、粘胶)设计。含完整源码、标注数据集、预训练权重、PyQt5可视化界面及详细教程,支持图片/视频/摄像头实时检测,开箱即用,适用于质检、教学与科研。
122 14
|
18天前
|
API Android开发 iOS开发
PicGo:为高效创作者而生的终极图片上传工具
PicGo是一款跨平台开源图片上传工具,能大幅简化创作中的图片处理流程。它支持拖拽、粘贴、快捷键等多种上传方式,自动生成Markdown/HTML链接,兼容主流图床和插件。开发者友好,提供API和命令行支持,可与VS Code、Obsidian等编辑器无缝集成。通过一键上传和智能链接处理,PicGo让图片管理变得无感高效,适合技术博主、文档工程师等创作者使用。
170 17
PicGo:为高效创作者而生的终极图片上传工具
|
16天前
|
存储 缓存 监控
pandas 3.0 内存调试指南:学会区分真假内存泄漏
本文揭秘pandas“内存不释放”的常见误解:非泄漏,实为CoW共享、Arrow缓冲池、视图隐式引用及分配器延迟归还OS内存所致。RSS≠真实占用,排查需结合tracemalloc、objgraph与原生指标,核心是管控引用生命周期。
154 12
pandas 3.0 内存调试指南:学会区分真假内存泄漏
|
16天前
|
机器学习/深度学习 数据采集 人工智能
大模型应用:大模型参数调优:结合本地模型对比多种组合探索差异.7
本文系统解析大模型核心生成参数(如temperature、top_p、top_k、repetition_penalty等)的原理、作用机制与实践影响,结合Qwen1.5-1.8B本地模型实测,通过创意写作、技术问答、代码生成三类任务对比分析参数组合效果,并提供分场景调优建议与黄金配置方案,助力从“调参新手”进阶为“生成质量掌控者”。
131 21
|
11天前
|
存储 人工智能 监控
大模型显存优化实战手册:如何用有限显卡训练百亿参数模型?
AI博主maoku详解大模型显存优化:直击OOM痛点,拆解参数/梯度/优化器/激活值四大显存“大户”,揭秘1:1:6内存占比规律;实操九大技巧——梯度检查点、BF16混合精度、CPU卸载、算子融合等,并验证8卡80G全量微调72B模型的落地效果。省钱、提效、普惠,一文掌握显存优化核心方法论。(239字)
|
11天前
|
人工智能 缓存 运维
企业级RAG实战:如何让7432页20年老文档在3秒内回答问题?
AI博主maoku分享企业级RAG实战:将7432页、20年历史的PDF技术文档,从“沉睡墓地”升级为秒级响应智能助手。详解混合检索(BM25+向量)、语义分块、FlashRank重排序等关键技术,全程零GPU、低成本、可落地,查询耗时由25分钟压缩至3–5秒,ROI仅需1天。

热门文章

最新文章