Dify x AiOnly平台:手把手教你调用GPT-5从零构建AI工作流!

简介: 本文介绍如何通过Dify与AiOnly平台,快速构建基于GPT-5等顶尖大模型的AI应用。涵盖环境部署、模型接入、工作流编排及实战案例,助力开发者低门槛打造专属聊天机器人,轻松实现AI应用落地。(238字)

引言

今年,全球 AI 大模型持续快速迭代,无论是GPT、Gemini、Claude等系列,还是DeepSeek、Qwen、Doubao等系列,都在不断演进,近期备受关注的Gemini 3.0,据说也将正式发布。在这一发展浪潮中,Dify 作为一款开源低代码大模型应用开发平台,为开发者和企业提供了全新的 AI 应用构建体验。

本文将结合热门的 Dify 与 AiOnly 平台,逐步介绍如何从零开始调用模型,构建专属 AI 工作流,并以互动故事机的聊天机器人为例。

一、集成顶尖大模型的MaaS平台

1.1 常见的接入挑战

若想搭建专属 AI 工作流,第一步便是挑选合适的大模型API进行调用,然而,在考虑 GPT-5、Gemini 2.5、Claude 4.1热门大模型时,却常常会遇到以下问题。

1.1.1 访问困境

网络访问是接入这些模型的首个挑战,即便使用魔法,简单的文本生成请求也可能耗时数秒甚至超时失败,而在进行多轮对话、图像生成等大流量交互时,连接中断更是家常便饭。

1.1.2 地区限制、注册门槛

除了网络问题,地区支持也是一大障碍,国内开发者即使完成注册,也可能因 IP 归属地问题被拒绝服务。注册本身也存在门槛,比如要求境外手机号、信用卡、邮箱等,让人难以触及。

1.1.3 多平台管理难、使用成本高

在模型调用方面,不同模型需要独立的 API 密钥、调用协议和参数格式,开发者需为每个模型编写适配代码,仅参数配置文件就可能多达十余份。模型版本更新、密钥过期或权限调整时,需逐一登录相应平台进行操作,流程繁琐且容易出错,维护不及时还可能引发服务中断。

在Token费用方面,各平台计费规则也不统一,比如订阅制、积分制等多种方式,不仅提高了使用成本,还可能因规则不透明,导致超额扣费或资源闲置。

1.2 AiOnly全球大模型服务平台

为了便于开发者一站式调用API,MaaS大模型服务平台日渐兴起,成为项目开发必不可少的工具

除了集成自研大模型的厂商,最近意外发现了AiOnly平台,提供企业级的API服务,极大降低了海外访问成本,以及模型Token使用成本,同时,高并发支持,多账号轮询超越原厂水平,尤其是高速专线,国内直连最新顶尖大模型,比如最近很火的Nano Banana。

深度体验了一下AiOnly,平台注册简便,开箱即用,并提供免费体验额度,而且采用按量计费(Token或次数),灵活性高。模型广场涵盖了大部分主流和热门模型,满足文本、图像、视频、语音等多类场景需求,不仅支持API调用,也可在线体验各种AI多模态生成能力。

二、前期部署+环境准备

2.1 安装Docker 环境

Docker 是一个开源的容器化平台,用于开发、交付和运行应用,使应用及其依赖能够以轻量级、可移植的方式打包并运行在任何环境中。Dify 平台基于 Docker 进行部署,因此我们需要先安装 Docker 环境。

2.1.1 下载并安装Docker Desktop

这里我们直接进入 Docker 的官网:https://www.docker.com/,选择Docker Desktop点击下载


2.1.2 配置国内镜像源

然后,点击 安装包 进行安装,出现这个界面后,直接点击 OK,进行下一步操作。

安装完成后,我们启动 Docker Desktop ,然后选择 Google 账号或 GitHub 账号 登录即可

之后,点击 设置 更换为 国内镜像源,不然我们在部署Dify时会出现拉取报错、网络访问不畅等情况。

{
"builder": {
"gc": {
"defaultKeepStorage": "20GB",
"enabled": true
}
},
"experimental": false,
"registry-mirrors": [
"https://docker.hpcloud.cloud",
"https://docker.m.daocloud.io",
"https://docker.unsee.tech",
"https://docker.1panel.live",
"https://mirrors.ustc.edu.cn",
"https://docker.chenby.cn",
"https://mirror.azure.cn",
"https://dockerpull.org",
"https://dockerhub.icu",
"https://hub.rat.dev",
"https://proxy.1panel.live",
"https://docker.1panel.top",
"https://docker.m.daocloud.io",
"https://docker.1ms.run",
"https://docker.ketches.cn"
]
}

复制粘贴到 Docker Engine ,然后点击 重启与应用 就好了。

2.2 使用Docker快速部署Dify

2.2.1 拉取并部署Dify

这里点击访问 https://github.com/langgenius/dify本地部署的话,直接选择下载 ZIP 文件或使用 Git 克隆项目。

2.2.2 启动Dify服务

然后,解压进入 Dify 文件的Docker 文件,将隐藏文件 .env.example 改为 .env

然后,进入该目录的终端操作界面,就可以一键部署Dify了。

2.2.3 访问 Dify 平台

等待部署完成后,我们只需要在浏览器输入 http://127.0.0.1 即可访问 Dify 平台,进行注册使用即可。

三、AiOnly+Dify 应用构建实战

3.1 添加 OpenAI模型插件

进入Dify前端界面后,打开 Dify 的 Settings 进行设置。

选择导航栏 Model Provider ,添加兼容 OpenAI 接口的模型插件,比如 GPUSTACK

然后,安装一下插件。

3.2 获取 AiOnly GPT-5 大模型 API

3.2.1 添加模型名称

3.2.2 创建 AiOnly  key

注册登录 AiOnly ,进入控制台左侧的资源管理,点击 创建API Key

前往 模型广场,直接开通 GPT-5 的模型服务,然后,在开通管理里,就可以看到模型名称。

3.2.3 添加顶尖大模型

我们点击 Dify 的设置进入模型供应商选项中添加模型

然后,添加模型时,填写我们的 模型名称和API keyAPI endpoint URL 处填写: https://api.aiionly.com/v1

设置完成后,便可在模型列表中,看到我们新增的模型了。

3.3 构建 AI 应用

Dify 主界面,选择 创建空白应用

由于我们此次要构建的是聊天机器人,因此直接选择支持记忆功能的复杂多轮对话工作流即可。然后,还需为聊天机器人拟定名称,并描述其所需具备的功能

3.4 编排工作流节点

点击创建我们就进入到Agent里的工作流编排,在这里,可以对模型进行调整、预览效果等等。

点击此处功能模块,就可继续对 Agent 应用的搭建与配置。选择支持提供下一步操作建议、文件上传等实用功能,让我们的聊天机器人进一步完善,提升交互体验与实用价值。

3.5 启动工作流查看运行效果

在Agent 工作流编排期间,我们还可以对应用进行调试,选择合适的大模型接入。AiOnly平台我们无需额外配置,仅一个接口就可以使用各种全球大模型。这里我选择了 GPT-5、gemini-2.5-flash、claude-opus-4 进行了测试。

其中备受争议的GPT-5,推理和输出token效果最好,尽管生成用时略长,但它所创作的故事内容丰富详实、情节生动精彩。相比之下,Gemini 与 Claude 的其他版本,在文本故事生成场景中表现稍逊,不仅整体效果不及GPT-5,生成的故事文本长度也明显不足。由于版本能力差异,以上仅供参考。

四、AiOnly 平台更多实用功能

除了基础的大模型服务之外,AiOnly还提供一系列增强功能,例如 Prompt 优化工具与 RAG 知识库管理系统,帮助用户更高效地构建和应用AI能力。

4.1 Prompt优化工具的创作实践

对于缺乏 AI 使用经验的用户而言,编写有效的 Prompt 可能存在困难,很多并不擅长如何向AI表达自己的需求,要么表述过于笼统,比如仅一句 “帮我写篇文章”,让 AI 无从判断内容方向、风格基调与核心重点,要么遗漏关键信息,而Prompt优化工具就可以完美帮我们解决这个事情。

当我们给 Prompt 优化工具分配任务时,它会按步骤展开工作:先分析输入 prompt 的结构,识别出指令不够明确、格式要求不清晰等问题,再直接将其优化重构为专业度极高的 prompt。

4.2 RAG知识库管理系统

要让 AI 应用提供更精准的服务,融合私有数据是核心前提。但自建完整 RAG 系统的高昂成本,成为了许多用户的痛点。AiOnly 的现成解决方案恰好解决了这一问题,其不仅支持多种格式文档上传,还能自动完成数据清洗与向量化处理,通过多源数据的智能抽取与清洗,实现深度语言理解与向量检索的高效融合。

4.3 第三方集成工具的无缝衔接

除此之外,AiOnly 平台还支持与 WPS、Cherry Studio、纳米 AI 等常用工具及平台的深度集成。仅需在对应软件内完成 API 配置,即可轻松调用 AiOnly 平台所支持的全部模型,实现功能与数据的高效联动。

目前,平台的集成范围正持续拓展更新,以下工具 / 平台已完成适配并支持集成:通用 AI 客户端 Cherry Studio、纳米 AI;代码开发工具 Cursor、Cline、Dify;浏览器插件 Sider、Glarity等,可参考平台具体配置文档。

结语

最后,全球AI大模型技术虽在飞速迭代,但对许多刚接触AI的新手而言,技术门槛和使用复杂度仍是一大挑战,往往令人望而却步。AiOnly 正如一把钥匙,帮助大家轻松打开这扇门,无需繁琐配置,不必担心成本,只需访问平台官网,即可一键调用全球顶尖AI大模型,再结合 Dify 等开发工具,快速落地我们的AI应用。


相关文章
|
3月前
|
云安全 人工智能 安全
Dify平台集成阿里云AI安全护栏,构建AI Runtime安全防线
阿里云 AI 安全护栏加入Dify平台,打造可信赖的 AI
2881 166
|
3月前
|
人工智能 运维 Java
Spring AI Alibaba Admin 开源!以数据为中心的 Agent 开发平台
Spring AI Alibaba Admin 正式发布!一站式实现 Prompt 管理、动态热更新、评测集构建、自动化评估与全链路可观测,助力企业高效构建可信赖的 AI Agent 应用。开源共建,现已上线!
4490 74
|
3月前
|
人工智能 供应链 搜索推荐
拔俗AI 智能就业咨询服务平台:求职者的导航,企业的招聘滤网
AI智能就业平台破解求职招聘困局:精准匹配求职者、企业与高校,打破信息壁垒。简历诊断、岗位推荐、技能提升一站式服务,让就业更高效。
|
3月前
|
人工智能 搜索推荐 大数据
拔俗AI一体化数字销售服务平台:让企业销售更智能、更高效
AI一体化数字销售服务平台融合AI与大数据,集成客户管理、智能推荐、自动化跟进等功能,实现销售全流程智能化。打破传统模式困局,提升转化率与效率,助力企业降本增效,抢占数字化转型先机。(238字)
|
3月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
761 53
|
4月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
1044 51
|
3月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
507 30
|
3月前
|
设计模式 人工智能 自然语言处理
3个月圈粉百万,这个AI应用在海外火了
不知道大家还记不记得,我之前推荐过一个叫 Agnes 的 AI 应用,也是当时在 WAIC 了解到的。
504 1
|
3月前
|
消息中间件 人工智能 安全
构建企业级 AI 应用:为什么我们需要 AI 中间件?
阿里云发布AI中间件,涵盖AgentScope-Java、AI MQ、Higress、Nacos及可观测体系,全面开源核心技术,助力企业构建分布式多Agent架构,推动AI原生应用规模化落地。
369 0
构建企业级 AI 应用:为什么我们需要 AI 中间件?
|
3月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。