AppFlow:让通义千问大模型调用你的任意API

简介: 在阿里云AppFlow中,通过自定义插件连接器可使通义千问获取特定功能,如旅游规划或投资辅助。登录AppFlow控制台,选择“自定义连接器”,上传图标,设定基本信息,选“插件连接器”。支持Basic、Bearer Token、AppCode等鉴权。精确配置API名称、描述及请求参数,确保模型调用准确。参考示例curl命令调整参数结构,填写响应体帮助模型解析。发布后,在模型Agent搭建中选用自定义连接器增强功能。

在前文AppFlow无代码轻松搭建模型Agent我们已经介绍了如何在通义千问中使用插件,从而让通义千问具备各种能力,例如,通过天气查询插件+机票查询插件+地图插件,模型可以变成一个旅游规划助手;再例如,通过搜索插件+股市行情插件,模型可以成为您的投资助手。

然而,AppFlow提供的官方插件或许不能完全满足您的需求,此时自定义一个插件连接器就成了一个覆盖绝大部分场景的选择。使用自定义插件连接器可以实现访问任意API的需求,也支持大部分场景的鉴权方式。同时AppFlow会自动将自定义插件注册到通义千问连接器中,从而使大模型拥有调用API能力。

下面将详细说明如何创建一个自定义的插件连接器。

创建自定义插件连接器

首先登陆AppFlow控制台,点击左侧导航栏连接器-自定义连接器

上传连接器图标并填写相关基本信息,选择插件连接器

选择你的API需要的鉴权方式,目前支持Basic、Bearer Token、AppCode三种鉴权方式

配置执行动作。准确填写你的API的名称和描述,这将直接影响模型调用的准确性。接口路径需要是公网地址。点击下一步。

添加你的请求参数结构,字段名称和字段描述以及是否必填都要仔细填写,这都是会影响到模型调用的效果的~

例如下面的curl命令对应的配置,可以进行参考配置

curl --location 'https://api.github.com/search/repositories' \
--data '{
    "query":"xxx",
    "order":"asc",
    "limit":10
}'

同理,为了模型更好的理解API的响应内容,请填写API的响应体结构。或者复制一个真实的响应并使用导入json然后修改即可。

最后点击发布即可~

使用自定义插件连接器

参考我们的前文AppFlow无代码轻松搭建模型Agent,在选择插件时选择刚刚的自定义连接器即可~

相关文章
|
25天前
|
机器学习/深度学习 自然语言处理 算法框架/工具
实战 | Qwen2.5-VL模型目标检测(Grounding)任务领域微调教程
在目标检测领域,众多神经网络模型早已凭借其卓越的性能,实现了精准的目标检测与目标分割效果。然而,随着多模态模型的崛起,其在图像分析方面展现出的非凡能力,为该领域带来了新的机遇。多模态模型不仅能够深入理解图像内容,还能将这种理解转化为文本形式输出,极大地拓展了其应用场景。
1528 74
|
1月前
|
人工智能 负载均衡 数据可视化
10分钟上手全球开源模型冠军 Qwen3
阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。
653 78
|
1月前
|
数据可视化 API Swift
全模态图像模型Nexus-Gen对齐GPT-4o!同时搞定,数据、训练框架、模型全面开源
OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。
165 17
|
1月前
|
JSON 缓存 并行计算
NVIDIA 实现通义千问 Qwen3 的生产级应用集成和部署
阿里巴巴近期开源了通义千问Qwen3大语言模型(LLM),包含两款混合专家模型(MoE)235B-A22B与30B-A3B,以及六款稠密模型(Dense)从0.6B到32B不等。开发者可基于NVIDIA GPU使用TensorRT-LLM、Ollama、SGLang、vLLM等框架高效部署Qwen3系列模型,实现快速词元生成和生产级应用开发。
|
25天前
|
人工智能 数据挖掘 API
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
155 21
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
|
26天前
|
Java 数据库 Docker
基于neo4j数据库和dify大模型框架的rag模型搭建
基于neo4j数据库和dify大模型框架的rag模型搭建
257 35
|
28天前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
109 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
14天前
|
机器学习/深度学习 编解码 缓存
通义万相首尾帧图模型一键生成特效视频!
本文介绍了阿里通义发布的Wan2.1系列模型及其首尾帧生视频功能。该模型采用先进的DiT架构,通过高效的VAE模型降低运算成本,同时利用Full Attention机制确保生成视频的时间与空间一致性。模型训练分为三个阶段,逐步优化首尾帧生成能力及细节复刻效果。此外,文章展示了具体案例,并详细说明了训练和推理优化方法。目前,该模型已开源。