云端问道8期方案教学-基于Serverless计算快速构建AI应用开发

本文涉及的产品
对象存储 OSS,20GB 3个月
函数计算FC,每月15万CU 3个月
对象存储 OSS,恶意文件检测 1000次 1年
简介: 本文介绍了基于Serverless计算快速构建AI应用开发的技术和实践。内容涵盖四个方面:1) Serverless技术价值,包括其发展趋势和优势;2) Serverless函数计算与AI的结合,探讨AIGC应用场景及企业面临的挑战;3) Serverless函数计算AIGC应用方案,提供一键部署、模型托管等功能;4) 业务初期如何低门槛使用,介绍新用户免费额度和优惠活动。通过这些内容,帮助企业和开发者更高效地利用Serverless架构进行AI应用开发。

基于 Serverless 计算快速构建 AI 应用开发

 

摘要:本文整理自用阿里云云原生架构师计缘老师在云端问道 8 期方案教学关于 Serverless 计算快速构建 AI 应用开发的分享。内容主要为以下四部分:

1、Serverless 技术价值

2、Serverless 函数计算与 AI 的结合

3、Serverless 函数计算 AIGC 应用方案

4、业务初期如何低门槛使用(权益介绍)

 

01、Serverless技术价值

image.png

第一部分是整个 Serverless 技术的发展趋势,包含函数计算以及阿里云对整个 Serverless 的技术趋势的演进的计划。

1.1 云计算的演进

image.png

首先 Serverless 技术架构演变非常像人类发展的历史。从最开始的物理机,到虚拟机再到容器,到现在 Serverless 逐渐减少对物理机器的依赖,原始社会需要用打火石和钻木取火,现在只需要用打火机,按一下按钮,火就出来,不需要理解让火产生的原理, Serverless 技术发展到现在,很多的企业或者很多的项目上面更 Focus 在业务的处理,以及让业务能更稳定的运行。需要的是开箱即用的稳定的计算资源。

1.2一个比喻了解什么是 Serverless

image.png

每个人对 Serverless 理解都不一样,它其实并没有技术层面上面确定的架构,比如容积化,现在 K8S 是标准的事实,可以直接用 Docker 或 Cancer 在 ECS 上容器运行,但是绝大多数还会以 K8S 做调度管理。 Serverless 旧架构其实并没有这样技术的确定方案,比如用某框架或者某技术点,做之后才叫 Serverless ,否则就不叫。其实并不是这样。从伯克利的三次论文以及 CNCF 的发表论文都可以清晰的得到 Serverless 目前只有理念概念的定义,第一是按量所需就是随用随取,按量付费。第二是高弹性,只要满足这两点都是属于 Serverless 技术的架构,使用 Serverless 很像打车的场景。以前可能买私家车,买私家车意味着还要买车库,以及每年的维护费用和加油,各方面都是开销,成本会比较高,逐渐发展到虚拟机,很像用车的时候租车,比如神州租车的机构租车,用的时候就租,用完就归还。相比以前买私家车的时候,不需要车库的维护,不需要对车辆有维护,这样就节省很大一部分成本。但时间的灵活性差一些,在约定的租期内使用,短时间使用不退还钱,超时可能需要重新申请租车的订单和费用,到现在 Serverless 就像打网约车,在前两者基础想更近一步,除不需要有额外的沉默成本外,使用灵活性上面会更加好,随时打车,随时叫车,随时可以选择不同的车型,也可以取消订单,并且重新打车,非常的灵活。反映到 Serverless 的定义来讲,第一是没有沉默成本,不需要购置和管理资源,第二是灵活性非常高,之前租车需要看租车,每个城市的车辆储备是有限的,可能某车型储备两三辆,打网约车不需要关心车有多少,肯定会有车派给你,所以按需使用,反应出来的自动扩缩的能力。整体给客户的价值或者给企业的价值是让业务和研发以及运维人员,业务人员更加聚焦到业务方面,更加聚焦到让业务有更好的商业模式方面,提高整体的效率。

1.3 All On Serverless 让应用开发更简单

image.png

我们部门是最早承担阿里云的 Serverless 相关技术的演进,主要做 Serverless 计算产品, Serverless 计算领域有两个产品,一个是函数计算。另外是 Serverless 应用引擎 ICE,不同的产品有两种不同的形态,在不同形态上面可以看到有很多的解决方案在里面,AI 推理和 AI 应用只是基于函数计算的 GPU 做其中的场景,像 API 服务,包括事件驱动的架构,多媒体的处理,车联网、物联网游戏等这些场景都有很丰富的解决方案,包括 ICE 也是基于整个 Serverless 计算产品所构建出的解决方案,在此之上,让方案底下对应程序的应用服务能够快速的构建出来,能够和现有的流程集成起来,这部分就会提供到 Serverless 工具链,目的就是能把 CICD 很好的和客户原有的流程做结合。往上层就是整个的应用中心,这部分会把很多客户常用的或者市面上常用的应用抽成样板间,可以在应用中心里面一键把整个应用拉起来,应用里面可能会包含若干函数,也可以包含下游的各种的服务,比如像 NAS,OSS 或者数据库等。所以基于体系,网上会支撑各种各样领域的客户,目前是整个的解决方案大图。

1.4基于 Serverless 架构的分布式应用

image.png

聚焦到整个最基础的 Serverless 架构,这是最简单的分布式,基于 Serverless 的分布式的的架构,最底层的计算资源是函数计算 SE,或者是 ACK Serverless 容器服务,最核心的跑应用的层叫应用层,应用层主要是整个的服务,从最上面的流量进入看,中间会有网关,网关是去年真正开始 Release 出来的原始网关,在网关里面可以对 API 做管理,通过各种插件的方式对 API 做各种增强的功能,进来后就到应用层,应用层其实跑到 Serverless 计算资源上面,上游和下游还会涉及到各种各样的其他组件。如果是微服务应用,可能会用到服务治理、注册中心、限流降级、全量灰度,应用和应用之间链路上面的可观测,还有安全防护,这些都属于上下游的服务。再往下是数据的存储、数据库、OSS、消息队列等,这都是 Serverless BAAS Back End As Service 的一套架构体系,这是比较基础的一种架构体系。

 

02、Serverless函数计算与AI的结合

image.png

2.1 AIGC 应用场景

image.png

整个函数计算和AI的结合,AIGC 场景本质是通过大语言模型对文本做各种各样的识别,产出非文本的效果。用的最多的是文生图和图生图,对视频内容的识别,文本对文本的推理。很多的产品都用到各种各样的场景,用的比较多的项目是游戏行业做游戏素材的处理,包括影视行业对各种宣传海报的图片做处理,甚至剪辑方面、内容方面都会对内容文本做各方面的处理。

2.2企业构建 AIGC 应用的“绊脚石”

image.png

但是很多用户只知道现在大语言模型和 AIGC,不知道企业里的业务如何和大语言模型以及 AIGC 相结合落地,能作为生产化或者商业化的应用能力,中间缺路径,缺的路径有几个方面,第一是可能很多客户 AI 相关的技术积累不足,绝大多数客户不会玩大语言模型,没有能力训练模型,尤其是比较大参数的模型,有些客户可能基于开源小模型做 Fighten 和微调,但目前情况下,微调产出也比较低,因为可能花一两个月做微调,基膜一更新就发现它能力已经都远超于微调后的模型,所以不值当。主要做提示词工程,再做 RAG 能力,但这部分用户不知道如何做,第二是不知道如何选大语言模型,不知道大语言模型适合的应用场景。当今市面上没有大语言模型是一骑绝尘的,像 GPT、通讯新闻、百度大模型,可能都在某领域有优势,没有在所有领域都有优势的,所以企业需要基于不同的场景选模型。第三是商业化模型调用 API,不会用到客户的算力,但它需要通过开源模型,有些开源模型在某些领域的效果更好,这时候需要用户的算力,也就是会用到 GPU 的算力,现在 GPU 是紧俏资源,成本也比较高。所以在计算资源上面也有痛点。综合起来是企业不知道该如何落地,尽最大努力帮助客户解决其中的某些问题,也不能解决全部问题,解决的问题是算力的问题,是 GPU 的问题,通过函数计算的 GPU,解决 GPU 的成本高的问题,因为 Serverless 的 GPU 做虚拟化之后,可以通过 1GB、2GB、3GB 选择使用,而不需要买一张整卡。所以可以提高 GPU 的资源利用率,把成本降下来。第二是可以按需索取,比如 Serverless 概念和特点,有请求就拉起,没有解出来就没有资源。所以整体对 GPU 的成本有优化,提升整个运维的效率,或者帮助他们快速的验证什么模型适合他们的场景,依赖于现在做的大模型的托管。平台可能会底下会拖主流的开源模型,让用户快速的构建出来,快速的使用试错。帮助用户快速的找到合适的场景。大概是这样的两条路径。 

2.3函数计算 FC 核心能力

image.png

下面看是函数计算的核心能力。第一,零运维就是轻运维,客户首先不需要关注底层资源,已经解决很大部分以前运维开发人员的痛点问题。整个的发布过程的中间链路比较短,只需要通过 CD 工具能够把函数布上,因为本身跑在函计算里的函数代码量都比较小,维护管理成本会比较低,同时对版本的控制,版本的切换,灰度的发布都集成在函计算的产品里,可以很方便的做构建,不需要额外搭其他的一些组件实现。第二是弹性的速度,可能分不同的语言,非编译型的解释性语言,Python 语言弹性比较快,在百毫秒的速度可以拉起来,Java 可能会慢一点,但整体来讲的肯定比 ECS 弹性快很多。第三是资源利率的大幅提升,主要是依赖于前面的弹性能力,基于流量请求的波形,相当于函数实例的数量和业务流量的波形比较贴合,本质上提升整个资源利用率,实际的情况就是成本会下降,第四个特点是 Fast,产品本身所具备的特点,它会有很多的触发器,函数计算在阿里云的定义来讲,是阿里云上面云产品的粘合剂,集成大概现在有 90 多个产品的各种各样的触发器可以把它 Run 起来,所以它可以把两个毫不相干的产品通过函数计算桥接起来,也就是把数据打通,意味着产品可以做集成,这是粘合器的定位。所以有各种各样的触发器可以构建出很多不同的场景,比如图片视频传到 OSS,自动的把函数计算拉起来做处理。或者像消息队列来一条消息,也可以把函数计算拉起来做处理,或者来一条日志等,自动的把流程 Run 起来,第四个有别于传统部署架构的特点,除此以外,还配套很多像可观测,跨可用区的容灾。包括整个各种各样开发 IDE 里的插件等帮助用户和开发者能够更好的使用函数计算的能力。这些是函数计算的核心的特点和能力。

image.png

这张图演示的是灰度版本做灰度发布的能力。可以通过在别名上面动态的分配不同主版本和灰度版本的流量配比,能够快速的做流量的更迭,或者对流量的分配,很多情况下,可能对函数里面跑的逻辑的算法,有黑客增长的需求,快速的调试算法,快速做验证,这样非常方便的创建不同的版本,在上面切流量比例,可以看到每个版本的运行状态,让用户快速的判断哪个版本的算法调优更好,可以把更大的流量权重切过去。

image.png

还支持工作流编排函数的能力,能让用户快速构建出来不是特别复杂的业务流程。现在很多客户也通过工作流做节点非常多的复杂逻辑,不太复杂指的是每个函数里面的逻辑不会很复杂,不像传统的 Java Spin Cloud 的服务里面有几十个,上百个方法,只是每个函数的逻辑相对简单,但整个流程很复杂。

2.4云工作流(CloudFlow)视频演示

image.png

这是云工作流 ClassFlow 的演示视频,可以看到左侧已经预制一些常用的节点,比如调用函数的节点 发消息的节点  HTTP 请求的节点,以及 OSS 上传文件的节点,每个节点升级之后,右侧会弹出它的配置参数,同时提供像并行 MAP 操作,Choice 操作控制流程的节点。同时对节点可以进行调试。看节点的入参,出参是否在预期内。

函数计算在 21 年和 23 年两次的 FC 测评都在领导者,因为 FC测评是两年一次,在这两次里都蝉联全球第一的情况,所以本身产品的成熟度和整个功能的丰富度已经毋庸置疑。

2.5函数计算 GPU 实例规格&成本

image.png

下面就是涉及到和 AI 相关的计算资源就是 GPU,函数计算的 GPU 是采用阶梯定价的模式,目前是支持 T4 和 A10 两种卡型,之后会支持更多的卡型。但就推理场景来讲,其实 A10 和 T4 也足够,尤其是文生图和图生图场景,像 24G 的 T4 和 A10 是足够的,对于开源模型的推理,比如做 Rag Rank,通过参与模型做推理,16GB 的 T4 也足够实现,看成本,比如一天大概有效使用时长八个小时,月费用小于 2000,可以看 ECS T4 的整卡的费用要高很多。A10 同样是这样,比如生一张图要一秒,12 块钱可以生成 3600 张图。一天同样是八个小时的,月费用是小于 2500 的,整个帮助用户大幅降低使用 GPU 资源的成本。

 

03、Serverless函数计算AIGC应用方案

image.png

3.1阿里云 Serverless 函数计算打造最简 AI 应用部署平台

image.png

看 AI 应用相关的场景和案例,现在已经有 Serverless 应用中心的平台,同时现在还在做构建 AI 应用的开发平台,就是让用户能够快速的在平台上面就构建出来 AI 应用,可能市面上比较类似的像 Define Fast GPT 类似的东西,通过流程的方式,函数节点的方式,能够快速的构建出 AI 应用。映射Workflow 原理。

3.2化繁为简:加速 AI 应用开发部署

image.png

看整体部署的架构,最底下是计算资源,就是函数计算,函数计算在构建整个 AI 应用的时候,肯定不止有计算产品,会有其他的 BaaS 服务的产品联动,比如数据库,尤其做向量化,要用到 PG,或者其他的 Vector DB,关系型数据用 RDS,存储是 NAS,现在开源的大语言模型通常会放在 NAS 里面做托管,会支持 OSS 的加速存储,之后也可以把模型托管到 OSS 里面。中间主要消息队列,通过异步的方式上下游做消息通知,所以 BaaS 服务是必备的,除此以外就是模型分类,第一类是商业版的模型,比如 Chat GPT,用不到函数计算上的 GPU 资源,只用它的 CPU ,本身是请求商业的大语言模型的 API ,但还有一些场景需要用到开源的大模型,比如用模型做文生图,可能会下载 SDXL 模型和 1.5 的模型做托管和部署,或者通过 ModelScope 上面,或者 HuggingFace 上面,看有哪些模型下载并托管,这是模型部分,在 AI 应用部分,首先是模型的快速托管,主要依赖于会把模型放在 NAS 里面,NAS 会挂载到函数计算的函数上面,会有管理界面帮助用户快速在 NAS 里面维护模型,其次是基于 Service Devs 部分,对整个 AI 应用的生命周期管理,里面包括对环境的创建,应用的发布部署,应用的管理。第三是对于常用的模型,一键让它拉起来,就像文生图的模型,或者 Chat GPT,这样应用都可以快速的在应用中心里面拉起来,拉起来之后,有些代码是可见的,可以微调代码,或用自己模型,通过 NAS 里面更换模型,做变更调整,以上是基于函数计算以及和应用中心提供的能力。比如的 GPU 的弹性伸缩、按量付费、生命周期管理、模型的快速托管、一键部署,以及多应用的管理。支持各种各样的业务场景。

3.3 Serverless 应用中心——AI 应用集合

image.png

这张图就是整个 Serverless 应用中心里的人工智能。这里面还看到有很多其他的页签,比如外部框架,音视频处理,游戏等,像 Stable Diffusion 的应用,Ollama 的应用,还包括 ComfyUI,包括 ModelScope 和 HuggingFace 做集成,还有开源 Bert 模型服务的应用都在里面。

3.4函数计算 AIGC 解决方案

image.png

先从不同的用户角色区分,首先对于开发者,对于要构建 AI 应用的角色来讲,第一可以通过应用中心里的某应用把它快速的构建出来,应用案例构建出来后,可以对它进行调整,因为代码在函数里面,模型在 NAS 里面的,帮助用户一键购买起来。其他的下游服务都可以通过控制台看到,可以做调整,第二是上传模型,如果对 NAS 里的现有的模型觉得不行,可以更换自己想用的模型,比如 SD 默认的可能是 SD1.5。可能从 C 站下载更好的模型,也可以上传使用。第三是上传代码,代码是推理服务的代码。各种各样的语言都可以,因为函数预算的 Runtime 本来就支持市面上主流的语言,也可以把镜像作为 Runtime 上传到函数里面,代码仓库就是 CICD 的流程,提供的 Serverless Devs 的工具,可以对接前面各种各样的仓库,自建的都可以。整个 AI 应用场景具备应用管理,包括发布维护,发新的版本,灰度发布等。环境管理,开发环境,生产环境,整个的流水线的管理,模型管理,包括域名管理,因为函数计算也提供绑定的资金域名,还有整个的可观测,有完善的监控体系等,还包括日志的管理等,这些是开发者关心的点,开发者开发应用后,本质上 AI 应用都提供 API 供用户调用,或者有 Web 界面供用户使用,比如 SD 的 Web UI 或者 Obama 的 Open Web UI。请求过来之后,请求到函数里面,函数做完逻辑之后会请求数据库,或者请求存储服务,或者把大语言模型加载到显存里做推理等,这是用户层面,再往里看,用户的同步调用还是异步调用,先到函数计算,里面的代码在开发者上传的代码,代码可以是使用 GPU 的,也可以使用 CPU,如果使用 GPU ,一般情况下会把大语言模型从里面加载到填充里面,NAS里面也可以放多个模型,多个模型的区分,可以在函数里面通过环境变量的方式,控制模型的路径,可以通过前面的请求的不同标识控制,使用的模型对应到路径就可以,在运行过程中,函数里的日志都打在日志服务里面,可以通过日志服务类似 SQL 的查询方式,能很快速的查看每一步日志情况,对于一些持久化存储的内容可以通过 OSS 的方式,OSS 也可以挂载到函数计算上面,图片视频都可以放上去,基于这套体系构建现在做的比较多的比如文生图、实时推理、图层图、智能客服、人脸识别、内容审核、内容安全方面等功能,包括使用传统的大模型做推理等场景,对于离线推理或者非实时的准实时的推理,比如图片处理、对视频内容的识别、三维重建等。

3.5函数计算 AIGC:一键部署 SD环境

image.png

下面主要看 SD 的应用场景,应用中心里面有可以一键拉起 SD 环境的应用,拉起来之后,里面包含默认的 SD 的模型已经拉下来,而且放在 NAS 里面,NAS 也帮助构建好,并且和函数计算挂载好,Web UI 属于放在函数计算里面的推理服务,本身 SD 场景也是推理场景,Web UI 包括出图的代码属于推理业务,在函数计算里面都部署好,只需要提供 Web UI 的域名,直接访问域名,可以把生图的界面打开,打开之后可以直接文生图和图生图。同时做模型的管理的界面,就是文件管理,可以在 NAS 里面快速的看到 Stable DiffUsion 固定的路径,可以针对自己需求去 C 站下载不同的组件上传安装。除了 Web UI 以外,现在很多企业用户更多的还是使用 API 的方式做推理,因为他会把整个出图的逻辑集成到自己的平台里面,所以提供 API 的能力,还支持切底膜的特性,不同的用户在不同的场景可能需要不同的底膜,原生的切模速度比较慢,所以做整个的优化,保证切模是非常高效的过程。

3.6让每个人都可以开发 AIGC

image.png

虽然这些都是客户的案例和客户支撑,比如做广告设计领域里面,通过函数计算和 SD 模型,极大提高出图的效率。还有跨境电商,对产品图的生成,用函数计算可以提高很大的效率。另外大学里面做 OCR 文字识别,做修复方面的工作,还有游戏行业辅助原画师做素材生成。第二是维建模相关的 Case,做牙齿矫正的机构零件,主要是用函计算 GPU 做整个的正畸算法的推理,前端的应用进来之后把请求发给函数计算,Run time 打资金镜像。底下会调用到 T4 和 A10 两种型号的 GPU 做推理,整个用函数计算 AI 的方案,给客户带来的价值显而易见。

3.7函数计算帮助领健信息为“看牙”注入 AI 活力

image.png

image.png

第一个是看牙有很明显的流量潮汐,一般情况下看牙医集中在上午和下午,晚上没有,所以之前用 ECS GPU 利用率比较低,成本浪费比较严重,用 FC 的 GPU 就可以应对早午高峰的流量潮汐的情况。另外是某些节假日的流量远高于平时的工作日,尤其周末的时候。所以也可以很好的应对高峰期的突发流量情况。前两者第一个是解决突发流量,对原来门店下主页资源的挑战。第二个是节省成本,大概降低 70% 左右。第三个核心能力是帮助整个研发运维的同学提高整体的应用的效率。另外增强这套逻辑的稳定性和高可靠性。同时原来可观测是比较弱的,现在通过预算的可观测也能看到请求过来之后,整个的处理逻辑过程 请求调用次数 QPS 状态码,包括请求链路都是可以看到,这是给客户带来的核心价值。

3.8森马 AIGC 应用实践:让 AIGC 能力触手可及

image.png

森马主要是文生图的的场景,森马是做 T 恤的企业,T 恤上面有很多可以印各种各样的图,这些图设计师去画效率比较低,现在通过 SD 出图,极大的提升整体的出图效率,意味出 T 恤的效率会大大的提升,它是用 API 能力。

3.9森马 AIGC 应用实践:立足业务,多场景赋能

image.png

大家看到森马后台管理的平台,它把出图的 API 集成到 AI 工作台,比如优衣库经常性的联名活动,不同图案的 T 恤,不同主题的 T 恤扫码一样,它会收集不同的灵感,或者和不同的 IP 合作,都要有这个过程,就是设计师绘制线稿图,再评审等。设计线稿图最耗时,出图之后,整个的绘制线稿图能从三天提到30秒,整个过程有非常大的时间上缩短,另外是提效,原来可能一堆人做的事情,现在可能一个人通过在 AI 应用平台上做生成,可以完成原来一堆人要做的事情。这是对森马极大的绩效。在去年的云栖大会上面,和他们有非常多的站台活动,吸引很多的人做出图,现打印 T 恤拿走。

 

04、业务初期如何低门槛使用(权益介绍)

image.png

image.png

最后讲如何使用。为让用户能够更快速的上手和体验,做新用户的开通的免费额度,如果是新用户开通行预算的,可以领到一个资源包,资源包是免费的,它里面有一定的额度,额度其实比较大,足够尝试验证想法,或者一些客户的业务验证。经常会有降价的活动,在活动上面降价,以及大促销月,都可以享受到一定成本上的优势。

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
3天前
|
消息中间件 存储 弹性计算
云端问道13期方案教学-告别资源瓶颈,函数计算驱动多媒体文件处理
《云端问道13期方案教学》由阿里云技术团队周博宇主讲,聚焦如何使用函数计算突破资源瓶颈,高效处理多媒体文件。方案涵盖六大要点:寻找云需求解决方案、选择函数计算的原因、对比不同文件处理方式、实现多媒体文件处理、应用场景广泛性及优惠购买推荐。通过将文件处理从主应用拆分,利用函数计算的按需扩展和自动弹性特性,确保核心业务稳定,并大幅降低成本。适用于图片、视频处理等多种场景。
云端问道13期方案教学-告别资源瓶颈,函数计算驱动多媒体文件处理
|
2天前
|
人工智能 运维 物联网
云大使 X 函数计算 FC 专属活动上线!享返佣,一键打造 AI 应用
如今,AI 技术已经成为推动业务创新和增长的重要力量。但对于许多企业和开发者来说,如何高效、便捷地部署和管理 AI 应用仍然是一个挑战。阿里云函数计算 FC 以其免运维的特点,大大降低了 AI 应用部署的复杂性。用户无需担心底层资源的管理和运维问题,可以专注于应用的创新和开发,并且用户可以通过一键部署功能,迅速将 AI 大模型部署到云端,实现快速上线和迭代。函数计算目前推出了多种规格的云资源优惠套餐,用户可以根据实际需求灵活选择。
|
3天前
|
人工智能 开发框架 自然语言处理
Eko:一句话就能快速构建复杂工作流的 AI 代理开发框架!快速实现自动操作电脑和浏览器完成任务
Eko 是 Fellou AI 推出的开源 AI 代理开发框架,支持自然语言驱动,帮助开发者快速构建从简单指令到复杂工作流的智能代理。
87 12
Eko:一句话就能快速构建复杂工作流的 AI 代理开发框架!快速实现自动操作电脑和浏览器完成任务
|
2天前
|
SQL 存储 人工智能
DMS+X构建Gen-AI时代的一站式Data+AI平台
本文整理自阿里云数据库团队Analytic DB、PostgreSQL产品及生态工具负责人周文超和龙城的分享,主要介绍Gen-AI时代的一站式Data+AI平台DMS+X。 本次分享的内容主要分为以下几个部分: 1.发布背景介绍 2.DMS重磅发布:OneMeta 3.DMS重磅发布:OneOps 4.DMS+X最佳实践,助力企业客户实现产业智能化升级
DMS+X构建Gen-AI时代的一站式Data+AI平台
|
3天前
|
人工智能 自然语言处理 搜索推荐
云端问道12期实操教学-构建基于Elasticsearch的企业级AI搜索应用
本文介绍了构建基于Elasticsearch的企业级AI搜索应用,涵盖了从传统关键词匹配到对话式问答的搜索形态演变。阿里云的AI搜索产品依托自研和开源(如Elasticsearch)引擎,提供高性能检索服务,支持千亿级数据毫秒响应。文章重点描述了AI搜索的三个核心关键点:精准结果、语义理解、高性能引擎,并展示了架构升级和典型应用场景,包括智能问答、电商导购、多模态图书及商品搜索等。通过实验部分,详细演示了如何使用阿里云ES搭建AI语义搜索Demo,涵盖模型创建、Pipeline配置、数据写入与检索测试等步骤,同时介绍了相关的计费模式。
|
2天前
|
人工智能 Cloud Native Serverless
Serverless Devs 官网全新升级,Serverless+AI 重磅来袭
Serverless Devs 官网迎来全新升级,主站以 AI 应用开发的叙事透出项目特性和解决方案。应用中心(Registry)将各类热门 AI 应用模版、实用 AI 工具以及 AI 工作流等呈现给用户。本次升级主题为“一站式 AI/函数/应用开发”,希望为开发者提供更加便利的应用模版搜索和展示服务,本文将对本次升级的三大看点进行整理,欢迎您来体验!
|
11天前
|
机器学习/深度学习 人工智能 算法
AI在体育分析与预测中的深度应用:变革体育界的智能力量
AI在体育分析与预测中的深度应用:变革体育界的智能力量
72 31
|
6天前
|
人工智能 运维 负载均衡
智能运维新时代:AI在云资源管理中的应用与实践
智能运维新时代:AI在云资源管理中的应用与实践
78 23
|
18天前
|
机器学习/深度学习 人工智能 自然语言处理
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
CogAgent-9B 是智谱AI基于 GLM-4V-9B 训练的专用Agent任务模型,支持高分辨率图像处理和双语交互,能够预测并执行GUI操作,广泛应用于自动化任务。
80 12
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
|
13天前
|
机器学习/深度学习 人工智能 监控
AI在交通管理系统中的应用
AI在交通管理系统中的应用
61 23
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等