异构计算

首页 标签 异构计算
# 异构计算 #
关注
19490内容
🚀 预训练技巧
预训练是大模型基石,涵盖混合精度、分布式训练等核心技术。混合精度提升效率与显存利用率;数据/模型/流水线并行支持超大模型训练;DeepSpeed的ZeRO优化显存,FlashAttention加速注意力计算,助力高效大规模训练。(239字)
|
4天前
|
预训练技巧
预训练是大模型能力的核心,涵盖混合精度、分布式训练等关键技术。混合精度通过FP16/BF16加速计算并节省显存;分布式训练采用数据、模型、流水线并行提升效率,结合All-Reduce等通信策略实现高效同步;DeepSpeed的ZeRO技术分区优化器状态、梯度与参数,显著降低显存占用;FlashAttention优化注意力机制,提升速度与内存效率;学习率策略如warmup与余弦退火助力稳定收敛。
|
4天前
|
模型推理加速
大模型推理加速关键技术包括KV-Cache优化、连续批处理、投机解码与模型并行等,涵盖算法、系统与硬件协同优化。vLLM等框架通过PagedAttention提升效率,助力高并发、低延迟场景落地。
⚡ 模型推理加速
大模型推理加速关键技术:KV-Cache减少重复计算,连续批处理提升吞吐,投机解码实现2-3倍加速,结合vLLM等工具优化部署。涵盖算法、系统与硬件协同设计,助力高效落地。
🚀 预训练技巧
预训练是大模型的核心,涵盖混合精度、分布式训练等关键技术。混合精度提升效率与显存利用率;数据、模型、流水线并行协同加速训练;DeepSpeed的ZeRO优化显存,FlashAttention提升注意力计算效率,助力千亿参数模型高效训练。
打造社交APP人物动漫化:通义万相wan2.x训练优化指南
本项目基于通义万相AIGC模型,为社交APP打造“真人变身跳舞动漫仙女”特效视频生成功能。通过LoRA微调与全量训练结合,并引入Sage Attention、TeaCache、xDIT并行等优化技术,实现高质量、高效率的动漫风格视频生成,兼顾视觉效果与落地成本,最终优选性价比最高的wan2.1 lora模型用于生产部署。(239字)
一键部署Stable Diffusion教程
本实验指导用户通过函数计算控制台部署AI绘画应用Stable Diffusion,可领用免费额度或购买新/老客户套餐包。部署前需授权并选择地域与绘图类型,使用默认设置完成创建。注意后付费费用及镜像加速状态,待部署成功后访问域名即可进入WebUI界面生成图像。
|
4天前
|
⚡ 模型推理加速
大模型推理加速涵盖KV-Cache优化、连续批处理、投机解码、模型并行等技术,通过算法与系统协同优化,提升推理效率。vLLM等框架实现高效部署,兼顾吞吐与延迟,助力大模型落地。
|
4天前
|
🚀 预训练技巧
预训练是大模型能力基石,涵盖混合精度、分布式训练等核心技术。混合精度通过FP16/BF16加速计算、节省显存;分布式训练采用数据、模型、流水线并行突破算力与显存瓶颈;DeepSpeed的ZeRO技术降低显存冗余,支持千亿参数训练;FlashAttention优化注意力计算效率。
阿里云 Tair 联手 SGLang 共建 HiCache,构建面向“智能体式推理”的缓存新范式
针对智能体式推理对KVCache的挑战,阿里云Tair KVCache团队联合SGLang社区推出HiCache技术,通过多级存储卸载与全局共享机制,实现缓存命中率翻倍、TTFT降低56%、QPS提升2倍,构建面向长上下文、高并发、多智能体协作的下一代推理缓存基础设施。
免费试用