阿里云加速AIGC技术公开课重磅上线!主讲大模型的算力挑战、Stable-Diffusion AI绘画与AIGC模型训练

简介: 智东西公开课联合阿里云弹性计算团队共同出品「阿里云加速AIGC技术公开课」,阿里云弹性计算产品线异构计算产品专家张新涛、阿里云高级开发工程师吕倪祺、阿里云高级开发工程师于子淇三位技术专家将先后进行直播讲解。

头图.png

去年11ChatGPT一经发布,5天达成百万用户,2个月月活用户达1亿,成为历史上用户增长最快的应用。


ChatGPT的爆火,使得大模型受到了空前的关注。GoogleMeta迅速加入战局;百度、阿里云、腾讯、字节跳动、华为等大厂争相发布自己的大模型,比如阿里云的通义千问;国内外科技大佬和技术大牛也纷纷下场创业。


不过,大模型动辄千亿规模的参数量,极大的算力需求以及强大的算法能力要求,使得训练大模型往往成本高昂且对技术要求极高。


1750亿参数的GPT-3为例,训练一天需要的算力是3640PFlops,使用1024NVIDIA A100 GPU,不间断的计算也要一个月的时间才能完成训练。同时还要根据模型特点,对训练平台的动态内存分配、通信效率和计算利用率等进行针对性的优化,使训练平台的计算性能达到最优,从而提升大模型的训练速度。


那么,在大模型时代,企业如何应对大算力挑战?如何高效搭建大模型开发环境?如何训练自己的专属大模型呢?


为此,智东西公开课联合阿里云弹性计算团队共同出品「阿里云加速AIGC技术公开课」,阿里云弹性计算产品线异构计算产品专家张新涛、阿里云高级开发工程师吕倪祺、阿里云高级开发工程师于子淇三位技术专家将先后进行直播讲解。


张新涛现负责阿里云异构计算软件及解决方案、产品管理与上市以及产品经营工作,曾主导设计异构GPU产品、弹性加速实例产品、弹性云桌面产品等重要产品。620,张新涛将带来第一讲的直播讲解,主题为《大模型时代如何应对大算力挑战》。


第二讲将于626开讲,由阿里云高级开发工程师吕倪祺主讲,主题为《基于AIACC加速器快速实现Stable-Diffusion AI绘画》。吕倪祺主要负责神龙AI推理加速套件的框架开发和性能优化,开发了PyTorch推理加速引擎AIACC-TORCH、算子深度加速引擎AIACC-MLIR框架,参与视频、语音、LLMAIGC等领域的性能调优工作。


73阿里云高级开发工程师于子淇将以《如何利用GPU云服务器加速AIGC训练》为主题带来第三讲的直播讲解。于子淇现负责阿里云神龙AI训练加速引擎AIACC-Training的训练性能优化,研发AIACC1.x以及 2.0两大版本,包括NCCL集合通信算子优化、Socket/RDMA通信优化、AIACC-Kernel计算优化、弹性训练、AI框架无感工程化等分布式训练的系统级优化工作。


「阿里云加速AIGC技术公开课」将在智东西多平台以视频直播形式进行,阿里云&钉钉多个官方平台&渠道将进行节目回放。


对【阿里云加速AIGC技术公开课】感兴趣的朋友,可以点击下方链接预约直播回放:


大模型时代如何应对大算力挑战:https://developer.aliyun.com/live/252024

基于AIACC加速器快速实现 Stable-Diffusion AI绘画:https://developer.aliyun.com/live/252025

如何利用GPU云服务器加速AIGC训练:https://developer.aliyun.com/live/252026


整体海报.png

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
8天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
48 12
|
6天前
|
人工智能 安全 测试技术
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
EXAONE 3.5 是 LG AI 研究院推出的开源 AI 模型,擅长长文本处理,能够有效降低模型幻觉问题。该模型提供 24 亿、78 亿和 320 亿参数的三个版本,支持多步推理和检索增强生成技术,适用于多种应用场景。
44 9
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
|
8天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
48 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
8天前
|
人工智能 搜索推荐 开发者
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
Aurora是xAI为Grok AI助手推出的新图像生成模型,专注于生成高逼真度的图像,特别是在人物和风景图像方面。该模型支持文本到图像的生成,并能处理包括公共人物和版权形象在内的多种图像生成请求。Aurora的可用性因用户等级而异,免费用户每天能生成三张图像,而Premium用户则可享受无限制访问。
46 11
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
|
6天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——电子科技大学站圆满结营
12月05日,由中国软件行业校园招聘与实习公共服务平台携手阿里魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·电子科技大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——电子科技大学站圆满结营
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】离线图优化技术
本文回顾了计算图优化的各个方面,包括基础优化、扩展优化和布局与内存优化,旨在提高计算效率。基础优化涵盖常量折叠、冗余节点消除、算子融合、算子替换和算子前移等技术。这些技术通过减少不必要的计算和内存访问,提高模型的执行效率。文章还探讨了AI框架和推理引擎在图优化中的应用差异,为深度学习模型的优化提供了全面的指导。
25 5
【AI系统】离线图优化技术
|
10天前
|
存储 人工智能 PyTorch
【AI系统】模型转换流程
本文详细介绍了AI模型在不同框架间的转换方法,包括直接转换和规范式转换两种方式。直接转换涉及从源框架直接生成目标框架的模型文件,而规范式转换则通过一个中间标准格式(如ONNX)作为桥梁,实现模型的跨框架迁移。文中还提供了具体的转换流程和技术细节,以及模型转换工具的概览,帮助用户解决训练环境与部署环境不匹配的问题。
23 5
【AI系统】模型转换流程
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型转换基本介绍
模型转换技术旨在解决深度学习模型在不同框架间的兼容性问题,通过格式转换和图优化,将训练框架生成的模型适配到推理框架中,实现高效部署。这一过程涉及模型格式转换、计算图优化、算子统一及输入输出支持等多个环节,确保模型能在特定硬件上快速、准确地运行。推理引擎作为核心组件,通过优化阶段和运行阶段,实现模型的加载、优化和高效执行。面对不同框架的模型文件格式和网络结构,推理引擎需具备高度的灵活性和兼容性,以支持多样化的应用场景。
29 4
【AI系统】模型转换基本介绍
|
10天前
|
机器学习/深度学习 人工智能 算法
【AI系统】模型压缩基本介绍
模型压缩旨在通过减少存储空间、降低计算量和提高计算效率,降低模型部署成本,同时保持模型性能。主要技术包括模型量化、参数剪枝、知识蒸馏和低秩分解,广泛应用于移动设备、物联网、在线服务系统、大模型及自动驾驶等领域。
38 4
【AI系统】模型压缩基本介绍
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型剪枝
本文概述了模型剪枝的概念、方法及流程,旨在通过移除神经网络中冗余或不重要的参数,实现模型规模的减小和效率的提升。剪枝不仅有助于降低模型的存储和计算需求,还能增强模型的泛化能力。文章详细介绍了剪枝的定义、分类、不同阶段的剪枝流程,以及多种剪枝算法,如基于参数重要性的方法、结构化剪枝、动态剪枝和基于优化算法的全局剪枝策略。通过这些方法,可以在保持模型性能的同时,显著提高模型的计算速度和部署灵活性。
21 2
【AI系统】模型剪枝