【有奖体验】AIGC小说创作大赛开启!通义千问X函数计算部署AI助手

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: 一个AI助手到底能做什么?

一个 AI 助手到底能做什么?

可以书写小说

image.png

可以解析编写代码

image.png

可以鼓舞心灵

image.png

提供职业建议

image.png

还有更多能力需要您自己去探索。接下来我们将花费 5 分钟,基于函数计算X通义千问部署一个 AI 助手,帮你撰写各类文案。


领取函数计算试用额度

首次开通函数计算,务必领取试用资源,首次开通用户可进入控制台进行领取。新开通函数计算用户可 0 元专享套餐,有效期 3 个月,总价值 180 元。套餐限购 1 次,内含四个试用包:50 万 vCPU*秒 + 200 万 GB*秒 + 800万次函数调用 + 100 万 GB*秒 GPU。


部署 AI 助手

打开函数计算控制台 应用->创建应用->人工智能->通义千问 AI 助手->立即创建。

image.png

点击“直接部署”。

image.png

高级配置部分,需要填写通义千问的 API-KEY,根据指引进行创建。这里需要进入灵积平台 https://dashscope.console.aliyun.com/overview 立即获取通义千问的 API-KEY。

image.png

灵积平台页面:

image.png

image.png

开通灵积平台,并创建 API-KEY,将创建的 API-KEY 复制到函数计算控制台的表单部分。

image.png

记住客户端的访问密码,访问的时候需要使用,也可以自己设定。

image.png

把授权处理一下,然后确定,接下来就静静等待服务的部署。

image.png

部署成功后可以直接访问 client 开头的服务。


操作问答

访问 client 开头的地址您会得到一个页面:

image.png

要求您输入密码,这里是为了保护服务不被其他人访问,在部署的时候大家可以自定设定这个密码。

image.png

比如默认的密码 fc-qwen,那么我们输入即可。

image.png

image.png

成功!


说明

函数计算X通义千问这个应用为大家展示了一个最小的使用大语言模型的功能集,我们基于开源的 ChatGPT-Next-Web作为客户端对接商业版本千问的服务能力,为了满足标准的流式响应,函数计算的服务中间层做了一个转换。


基于函数计算构建链接大语言模型是我们目前看到的最快速有效的方案,如果您是一位开发者的化也可以尝试基于 FC 构建更多的大语言模型应用,欢迎多多交流。


欢迎参加 AIGC 小说创作大赛

image.png

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
3月前
|
存储 机器学习/深度学习 算法
​​LLM推理效率的范式转移:FlashAttention与PagedAttention正在重塑AI部署的未来​
本文深度解析FlashAttention与PagedAttention两大LLM推理优化技术:前者通过分块计算提升注意力效率,后者借助分页管理降低KV Cache内存开销。二者分别从计算与内存维度突破性能瓶颈,显著提升大模型推理速度与吞吐量,是当前高效LLM系统的核心基石。建议收藏细读。
684 125
|
2月前
|
人工智能 测试技术 API
构建AI智能体:二、DeepSeek的Ollama部署FastAPI封装调用
本文介绍如何通过Ollama本地部署DeepSeek大模型,结合FastAPI实现API接口调用。涵盖Ollama安装、路径迁移、模型下载运行及REST API封装全过程,助力快速构建可扩展的AI应用服务。
682 6
|
2月前
|
人工智能 物联网 调度
边缘大型AI模型:协作部署与物联网应用——论文阅读
论文《边缘大型AI模型:协作部署与物联网应用》系统探讨了将大模型(LAM)部署于边缘网络以赋能物联网的前沿框架。针对传统云端部署高延迟、隐私差的问题,提出“边缘LAM”新范式,通过联邦微调、专家混合与思维链推理等技术,实现低延迟、高隐私的分布式智能。
713 6
边缘大型AI模型:协作部署与物联网应用——论文阅读
|
2月前
|
机器学习/深度学习 人工智能 监控
Java与AI模型部署:构建企业级模型服务与生命周期管理平台
随着企业AI模型数量的快速增长,模型部署与生命周期管理成为确保AI应用稳定运行的关键。本文深入探讨如何使用Java生态构建一个企业级的模型服务平台,实现模型的版本控制、A/B测试、灰度发布、监控与回滚。通过集成Spring Boot、Kubernetes、MLflow和监控工具,我们将展示如何构建一个高可用、可扩展的模型服务架构,为大规模AI应用提供坚实的运维基础。
266 0
|
2月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
452 30
|
3月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
466 12
|
8月前
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
847 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
|
6月前
|
存储 编解码 Serverless
Serverless架构下的OSS应用:函数计算FC自动处理图片/视频转码(演示水印添加+缩略图生成流水线)
本文介绍基于阿里云函数计算(FC)和对象存储(OSS)构建Serverless媒体处理流水线,解决传统方案资源利用率低、运维复杂、成本高等问题。通过事件驱动机制实现图片水印添加、多规格缩略图生成及视频转码优化,支持毫秒级弹性伸缩与精确计费,提升处理效率并降低成本,适用于高并发媒体处理场景。
332 0
|
8月前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
726 30

热门文章

最新文章

相关产品

  • 函数计算