开发者社区> 问答> 正文

训练万亿/10万亿参数的M6模型时,EPL框架如何实现算力需求的降低?

训练万亿/10万亿参数的M6模型时,EPL框架如何实现算力需求的降低?

展开
收起
萝卜丝丸子 2024-08-05 21:46:57 12 0
1 条回答
写回答
取消 提交回答
  • 为了降低训练万亿/10万亿参数M6模型的算力需求,EPL框架中实现了MoE(Mixture-of-Experts)结构。MoE通过稀疏激活的特点,使用Gating(Router)为输入选择Top-k的expert进行计算,从而大大减少算力需求。此外,EPL还支持专家并行(EP),将experts拆分到多个devices上,进一步降低单个device的显存和算力需求。image.png

    2024-08-05 22:08:36
    赞同 2 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载