阿里云& NVIDIA TensorRT Hackathon 2023 决赛圆满收官,26支AI团队崭露头角

简介: 2023年9 月 29 日,由阿里云、NVIDIA 联合主办,阿里云天池平台承办的 “TensorRT Hackathon 2023 生成式 AI 模型优化赛” 圆满落幕。

2023年9 月 29 日,由阿里云、NVIDIA 联合主办,阿里云天池平台承办的 “TensorRT Hackathon 2023 生成式 AI 模型优化赛” 圆满落幕。该赛事自2020年以来,已成功举办三届,本届赛事于今年 7 月启动,吸引了来自全国 729 支开发者团队报名参赛,其中共有 40 支团队晋级复赛,最终 26 支团队于决赛中脱颖而出,分获冠军/亚军/季军及优胜奖,展现出了卓越的技术实力。

image.jpeg



解锁 TensorRT-LLM 挖掘生成式 AI 新需求

今年的 TensorRT Hackathon着重提升选手开发 TensorRT 应用的能力。

在过去的一年里,生成式 AI 迎来了爆发式增长。计算机能够批量生成大量图像和文本,有的甚至能够媲美专业创作者的作品。这为未来生成式 AI 模型的发展铺平了道路,令人充满期待。正因如此,TensorRT Hackathon 2023 选择生成式 AI 模型作为比赛的主题,以激发选手的创新潜力。

今年的比赛设置了初赛和复赛两组赛题——初赛阶段,选手需要利用 TensorRT 加速带有 ControlNet 的 Stable Diffusion pipeline,以优化后的运行时间和出图质量作为主要排名依据;复赛为开放赛题,选手可自由选择公开的 Transformer 模型,并利用 TensorRT 或 TensorRT-LLM 进行模型推理优化。

NVIDIA TensorRT™ 作为 GPU 上的 AI 推理加速库,一直以来都备受业界认可与青睐。本次比赛的背后是 NVIDIA TensorRT 开发团队对产品不断进行改进和优化的结果。通过让更多模型能够顺利通过 ONNX 自动解析得到加速,并对常见模型结构进行深度优化,极大地提高了 TensorRT 的可用性和性能。这意味着大部分模型无需经过繁琐的手工优化,就能够在 TensorRT 上有出色的性能表现。

TensorRT-LLM 是 NVIDIA 即将推出用于大语言模型推理的工具,目前已于官网开放试用。作为此次复赛推荐使用的开发工具之一,TensorRT-LLM 包含 TensorRT 深度学习编译器,并且带有经过优化的 CUDA kernel、前处理和后处理步骤,以及多 GPU/多节点通信,可以在 NVIDIA GPU 上提供出类拔萃的性能。它通过一个开源的模块化 Python 应用 API 提高易用性和可扩展性,使开发人员能够尝试新的 LLM,提供最顶尖的性能和快速自定义功能,且不需要开发人员具备深厚的 C++ 或 CUDA 知识。

作为本次大赛的主办方之一,阿里云天池平台为参赛选手提供了卓越的云上技术支持,在阿里云GPU云服务器中内置 NVIDIA A10 Tensor Core GPU,参赛者通过云上实例进行开发和训练优化模型,体验云开发时代的AI工程化魅力。同时,由NVIDIA 30 名工程师组成导师团队,为晋级复赛的 40 支队伍提供一对一辅导陪赛,助力选手获得佳绩。

从实践到迭代 脑力与创造力的集中比拼

本次比赛中涌现出大量优秀的开发者。在获奖的 26 支团队中,有不少团队选择借助 TensorRT-LLM 对通义千问-7B 进行模型推理优化。

通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型,基于 Transformer 的大语言模型,在超大规模的预训练数据上进行训练得到。在 Qwen-7B 的基础上,还使用对齐机制打造了基于大语言模型的 AI 助手 Qwen-7B-Chat。

获得此次比赛一等奖的 “无声优化者(着)” 团队,选择使用 TensorRT-LLM 完成对 Qwen-7B-Chat 实现推理加速。在开发过程中,克服了 Hugging Face 转 Tensor-LLM、首次运行报显存分配错误、模型 logits 无法对齐等挑战与困难,最终在优化效果上,吞吐量最高提升了 4.57 倍,生成速度最高提升了 5.56 倍。

而获得此次赛事二等奖的 “NaN-emm” 团队,在复赛阶段,则选择使用 TensorRT-LLM 实现 RPTQ 量化。RPTQ 是一种新颖的基于重排序的量化方法,同时量化了权重与中间结果(W8A8),加速了计算。从最开始不熟悉任何 LLM 模型,到后续逐步学习和了解相关技术,“NaN-emm” 团队启用了GEMM plugin,GPT Attention plugin,完成了 VIT、Q-Former、Vicuna-7B 模型的转化,最终通过 40 个测试数据,基于 Torch 框架推理耗时 145 秒,而经过 TensorRT-LLM 优化的推理引擎耗时为 115 秒。

本次大赛还涌现了一批优秀的开发者,本届参赛选手邓顺子不仅率领队伍获得了一等奖,还收获了本次比赛唯一的特别贡献奖。他表示,2022 年的 Hackathon 比赛是他首次接触 TensorRT,这使他对模型推理加速产生了浓厚的兴趣。尽管当时未能进入复赛,但那次经历让他深感自身技能的不足。在上一次比赛中,他目睹了顶尖选手使用 FasterTransformer 在比赛中取得领先地位,这一经历让他对 AI 技术有了更深入的理解和追求。随后,他积极做 TensorRT 上的模型开发,特别是对 ChatGLM/Bloom 等新兴模型进行了优化,感受到了 TensorRT 的强大。

今年,他再次参加了 TensorRT Hackathon 2023,利用 TensorRT-LLM 成功优化了 QWen 大模型,实现了自己的梦想。他感谢主办方给予的机会,团队的支持,以及所有参赛者的努力,他期待未来能与大家一起为 AI 技术的发展创造更多奇迹。

人工智能应用场景创新日新月异,AI 模型的开发与部署也需要注入新的动能。在此次赛事中,选手们基于 TensorRT 挖掘出更多的潜能和功能需求。未来,阿里云和NVIDIA 还将持续为开发者和技术爱好者提供展示技能和创意的平台,天池平台将与更多优秀的开发者一同推进 TensorRT 的发展,让 AI 在 GPU 上更容易、更高效地部署。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
4天前
|
人工智能 分布式计算 Cloud Native
阿里云大数据AI产品月刊-2025年9月
大数据& AI 产品技术月刊【2025年 9 月】,涵盖 9 月技术速递、产品和功能发布、市场和客户应用实践等内容,帮助您快速了解阿里云大数据& AI 方面最新动态。
阿里云大数据AI产品月刊-2025年9月
|
15天前
|
消息中间件 人工智能 运维
事件驱动重塑 AI 数据链路:阿里云 EventBridge 发布 AI ETL 新范式
“一个简单的数据集成任务,开始时总是轻松愉快的,但随着业务扩展,数据源越来越多,格式越来越乱,整个数据链路就会变得一团糟。”陈涛在演讲中指出了当前 AI 数据处理的普遍困境。扩展难、运维难、稳定性差,这三大挑战已成为制约 AI 应用创新和落地的关键瓶颈。针对这些痛点,在2025云栖大会期间,阿里云重磅发布了事件驱动 AI ETL 新范式,其核心产品 EventBridge 通过深度集成 AI 能力,为开发者提供了一套革命性的解决方案,旨在彻底改变 AI 时代的数据准备与处理方式。
153 15
|
15天前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
244 17
|
16天前
|
人工智能 Cloud Native 安全
解读阿里云刚发布的《AI 原生应用架构白皮书》
阿里云在云栖大会重磅发布了《AI 原生应用架构白皮书》,该白皮书覆盖 AI 原生应用的 11 大关键要素,获得业界 15 位专家联名推荐,来自 40 多位一线工程师实践心得,全书合计超 20w 字,分为 11 章,全面、系统地解构 AI 原生应用架构,包含了 AI 原生应用的 11 大关键要素,模型、框架、提示词、RAG、记忆、工具、网关、运行时、可观测、评估和安全。本文整理自阿里云智能技术专家李艳林在云栖大会现场的解读。
516 14
|
15天前
|
人工智能 缓存 安全
阿里云发布《AI 原生应用架构白皮书》
阿里云联合阿里巴巴爱橙科技,共同发布《AI 原生应用架构白皮书》,围绕 AI 原生应用的 DevOps 全生命周期,从架构设计、技术选型、工程实践到运维优化,对概念和重难点进行系统的拆解,并尝试提供一些解题思路。白皮书覆盖 AI 原生应用的 11 大关键要素,获得 15 位业界专家联名推荐,来自 40 多位一线工程师实践心的,全书合计超 20w 字,分为 11 章。
642 10
|
机器学习/深度学习 人工智能 机器人
|
5天前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
|
4天前
|
人工智能 算法 Java
Java与AI驱动区块链:构建智能合约与去中心化AI应用
区块链技术和人工智能的融合正在开创去中心化智能应用的新纪元。本文深入探讨如何使用Java构建AI驱动的区块链应用,涵盖智能合约开发、去中心化AI模型训练与推理、数据隐私保护以及通证经济激励等核心主题。我们将完整展示从区块链基础集成、智能合约编写、AI模型上链到去中心化应用(DApp)开发的全流程,为构建下一代可信、透明的智能去中心化系统提供完整技术方案。
85 3

热门文章

最新文章