22.5 万奖金池丨Higress AI 网关编程挑战赛启动

本文涉及的产品
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
简介: 2024 天池云原生编程挑战赛 6 月 12 日正式启动,8 月 28 日线下决赛,9 月公布最终参赛结果,奖金池合计 22.5 万,共计三个赛道,面向全社会开放。

AI 原生应用,对网关的需求已经超越了传统的路由和负载均衡功能,还需要为 AI 应用开发者提供便利,例如统一不同 LLM 提供商的 API 协议,并提供 API 编排、安全、稳定性和成本控制等扩展功能。

—— 赛题出品人&Higress Maintainer 张添翼

image.png

2024 天池云原生编程挑战赛 6 月 12 日正式启动,8 月 28 日线下决赛,9 月公布最终参赛结果,奖金池合计 22.5 万,共计三个赛道,面向全社会开放。《使用 Higress AI 网关优化 AI 调用成本》是第二赛道。


01 赛题背景


随着 LLM 技术的蓬勃发展,AI Web 应用创新如火如荼,其对网关的需求超越了传统的路由和负载均衡功能,承载了更大的 AI 工程化使命,相关需求如下:


  • 长连接:由 AI Web 应用常见的 Websocket 和 SSE 协议决定,长连接的比例很高,要求网关更新配置操作对长连接无影响,不影响业务。
  • 高延时:LLM 推理的响应延时比普通 Web 应用要高出很多,使得 AI Web 应用面向 CC 攻击时显得很脆弱,容易被攻击长时间维持住大量长连接,消耗大量计算和存储资源。
  • 大带宽:结合 LLM 上下文来回传输,以及高延时的特性,AI Web 应用对带宽的消耗远超普通应用,网关或后端如果没有实现较好的流式处理能力,容易导致内存快速上涨,继而触发 OOM。


并且,在 AI 时代,对 AI 网关的需求已经超越了传统的路由和负载均衡功能,例如可以为 AI 应用开发者提供便利,统一不同 LLM 提供商的 API 协议,并提供 API 编排、安全、稳定性和成本控制等扩展功能。


Higress 作为 AI 原生的 API 网关,对于承接 AI 流量有着天然优势。Higress 既承载了通义千问等阿里云核心 AI 业务流量,也承载了云上多家 AGI 客户的流量。本赛题主要面向 Higress 的灵活扩展能力,设计 AI 网关插件,实现 LLM API 调用成本优化等目标,可以很好地满足客户对 AI 网关的需求:


  • 长连接:不同于 Nginx 变更配置需要 Reload,导致连接断开,Higress 基于Envoy 实现了连接无损的真正配置热更新。
  • 高延时:Higress 基于安全网关能力可以提供 CC 防护能力,在 AI 场景,除了 QPS,还可以扩展针对 Token 生成的限流防护。
  • 大带宽:Higress 支持完全流式转发,在 AI Web 应用场景下,所需的内存占用极低,同时也可以开发 Wasm 插件对请求和响应进行自定义逻辑的流式处理。


此外,使用 Higress 的 Wasm 插件机制来拓展云原生网关的能力,可以满足 AI 网关的延伸需求。例如,基于 Higress 的 AI Proxy 插件,可以屏蔽不同 LLM 提供商的 API 协议,AI 应用开发者的前端无需实现多套协议,就能轻松对接不同 LLM 实现。


02 赛题描述


1)赛题目标:控制 AI 应用的服务成本

对 AI 应用开发者而言,控制成本是成功的关键。AI 应用的成本大头主要是两部分:


  • 应用搭建的资源成本,例如 CPU、带宽等为了提供 Web 能力,网关的资源成本是必须的。基于企业版 Higress 强劲的性能,能支撑高并发流量访问,可以显著降低资源成本;基于开源版 Higress 和阿里云 SAE2.0,可按请求对 CPU 用量计费的机制,适合小规模流量场景。
  • LLM 提供商 API 的调用成本,或者自建模型的 GPU 成本。基于向量召回的缓存策略算法,降低调用 LLM 提供商 API 的成本,并保证结果准确率。尤其是在 AI RAG 应用的场景,因为在一个封闭的知识域内,头部 query 的缓存命中率很高,使用此机制可以大幅降低成本。

2)必答题:基于向量召回相似问题的缓存,降低 LLM API 调用成本(100分)

image.png

参赛物料清单


参赛者需要开发一个 Higress WASM 插件,支持对接开源 Redis、阿里云 Lindorm、阿里云 Tair 或阿里云向量检索服务等的向量检索能力,进行 LLM 结果的向量召回,并搭配 Higress 的 AI Proxy 插件一起使用。插件整体实现的效果如下图所示:

image.png

图中向量距离阈值(0.1)仅供参考


3)附加题:AI 网关插件创新(20分)

除了上述场景外,Higress AI 网关还可以基于插件扩展以下能力:


  • API 编排:通过管理和编排 LLM prompt 工程相关 API,支持 Agent Reflection、多 Agent 协作等复杂的 Workflow;提供灵活的 API 对接能力,例如支持搜索等工具调用。
  • 安全:提供 CC 攻击防护,限制请求频率和 Token 消耗速率,防止恶意请求对后端资源造成压力;还能识别并拦截含敏感信息的请求,如个人身份信息,以保护用户隐私和防止数据泄露。
  • 稳定性:通过跨多个 LLM 提供商和自建模型实现 fallback 机制,增强服务稳定性;在模型服务不可用时,自动切换或回退到其他选项。


附加题希望参赛者设计/开发对构建 AI 应用有帮助的 AI 网关插件,可以涉及API 编排、安全、稳定性、成本控制等方向,但不局限于这些方向,所有对 AI 应用构建有帮助的插件均可。


🔔 注意:20分包含需求评估和代码实现两部分。

  • 需求评估:提供插件使用的背景和设计思路,文档形式。
  • 代码:用代码进行实现。


03 实现方式


下面分别介绍使用企业版 Higress 和开源版 Higress 的两种实现方式:


使用企业版 Higress,无需自购 ECS 实例
企业版 Higress 是开箱即用的,无需自己运维网关资源,通过企业版控制台的插件市场开启 AI Proxy 插件,即可轻松对接多种不同的 LLM 实现。同时结合企业版丰富的限流、认证鉴权、安全防护能力,可以帮助开发者低成本地搭建安全、稳定、合规的 AI 应用。

下图是基于企业版 Higress 构建 AI 应用的架构示意:

image.png

使用开源版 Higress,由 SAE 提供算力支持
Higress 支持以容器化方式部署到阿里云 Serverless 应用平台 SAE 上。和 LLM API 提供商按请求 token 计费类似,SAE2.0 支持仅在请求发生时对 CPU 用量进行计费,可以降低个人开发者的 AI 应用构建成本,适合搭建私人 AI 助手、GPT 私服。


下图是基于开源版 Higress 构建 AI 应用的架构示意:

image.png

了解赛制说明、解题思路、评分标准等更多信息,请点击文末“此处”,参赛过程中若遇到问题,请加入官方选手钉群,群号:61285018407

image.png

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
3月前
|
人工智能 监控 负载均衡
一文详述:AI 网关与 API 网关到底有什么区别?
近年来,AI发展迅猛,大模型成为推动业务创新的关键力量。企业面临如何安全管理和部署AI应用的挑战,需设计既能满足当前需求又可适应未来发展的基础架构。AI网关应运而生,在集成、管理和优化AI应用中扮演重要角色。本文探讨AI网关与API网关的区别,分析AI系统为何需要专门网关,并提供选择合适AI网关的建议。AI网关不仅支持多种模型,还具备高级安全性和性能优化功能,有助于企业在复杂环境中灵活应用AI技术。
117 1
|
4月前
|
人工智能 JSON Rust
用 Rust 实现敏感信息拦截插件,提升 AI 网关安全防护能力
本⽂对敏感信息拦截插件的使用方式和实现原理进行了简单介绍,它能够自动检测并处理请求和响应中的敏感词,有效防止敏感信息泄露。通过对不同数据范围的支持和灵活的配置选项,该插件能够适应各种应用场景,确保数据的安全性和合规性。
|
5天前
|
人工智能 数据可视化 API
FastGPT 基于Higress 聚合 LLM 网关的最佳实践
本文介绍了Fast GPT的产品形态和设计理念,重点讨论了大模型的幻觉问题及其对应用落地的影响。Fast GPT通过结合工作流的强逻辑性和AI的理解能力,提升系统的稳定性和可靠性。文章还详细描述了Fast GPT的工作流节点、知识库管理及AI网关的功能,并展示了几个实际应用场景,如私人助手、图文生成和文档处理等。最后,探讨了如何通过引入云函数和Copilot简化代码编写,实现无代码编排的工作流解决方案,提升用户体验。
|
1月前
|
人工智能 自然语言处理 Cloud Native
智保未来:国泰产险的 AI 网关革新之旅
通过阿里云云原生 API 网关在国泰落地,目前国泰所有访问大模型的流量均通过阿里云云原生 API 网关进行代理,在日均消耗近亿 Token 的同时,做到了对每个请求都进行敏感信息过滤,不论是输入大模型的内容还是由大模型产生的内容都进行了全面审计,大大降低使用大模型的数据安全风险。通过网关的 AI 插件,国泰产险做到了每个 Token 都知道是谁在用,用在哪个场景,给后续分析和成本管控提供了坚实的数据支撑。
|
2月前
|
人工智能 Cloud Native 安全
从云原生到 AI 原生,谈谈我经历的网关发展历程和趋势
本文整理自阿里云智能集团资深技术专家,云原生产品线中间件负责人谢吉宝(唐三)在云栖大会的精彩分享。讲师深入浅出的分享了软件架构演进过程中,网关所扮演的各类角色,AI 应用的流量新特征对软件架构和网关所提出的新诉求,以及基于阿里自身实践所带来的开源贡献和商业能力。
95 7
|
5月前
|
人工智能 缓存 Cloud Native
用 Higress AI 网关降低 AI 调用成本 - 阿里云天池云原生编程挑战赛参赛攻略
《Higress AI 网关挑战赛》正在火热进行中,Higress 社区邀请了目前位于排行榜 top5 的选手杨贝宁同学分享他的心得。本文是他整理的参赛攻略。
554 78
|
3月前
|
人工智能 开发框架 Java
总计 30 万奖金,Spring AI Alibaba 应用框架挑战赛开赛
Spring AI Alibaba 应用框架挑战赛邀请广大开发者参与开源项目的共建,助力项目快速发展,掌握 AI 应用开发模式。大赛分为《支持 Spring AI Alibaba 应用可视化调试与追踪本地工具》和《基于 Flow 的 AI 编排机制设计与实现》两个赛道,总计 30 万奖金。
|
3月前
|
人工智能 Cloud Native 安全
从云原生到 AI 原生,网关的发展趋势和最佳实践
本文整理自阿里云智能集团资深技术专家,云原生产品线中间件负责人谢吉宝(唐三)在云栖大会的精彩分享。讲师深入浅出的分享了软件架构演进过程中,网关所扮演的各类角色,AI 应用的流量新特征对软件架构和网关所提出的新诉求,以及基于阿里自身实践所带来的开源贡献和商业能力。
279 11
|
5月前
|
存储 人工智能 前端开发
AI 网关零代码解决 AI 幻觉问题
本文主要介绍了 AI Agent 的背景,概念,探讨了 AI Agent 网关插件的使用方法,效果以及实现原理。
18853 21
|
3月前
|
人工智能 缓存 安全
什么是AI网关?AI网关在企业系统中承担什么角色?
AI大模型的快速发展正推动各行业增长,预计未来十年年均增长率达37.3%,2027年前全球企业在AI领域的投资将达8000亿美元。这促使企业进行战略转型,调整AI应用构建与保护方式。为应对AI创新需求,AI网关概念应运而生,它帮助企业随时随地控制和管理应用流量,提供更高的安全性。AI网关不仅支持多AI模型集成,还提供统一端点、应用程序配置与部署、安全与访问管理等核心功能。面对未来挑战,AI网关需支持模型故障转移、语义缓存等功能,确保AI应用的可靠性和效率。开源项目APIPark.COM为企业提供了一站式AI网关解决方案,简化大型语言模型的调用过程,保障企业数据安全。
141 1