开发者社区> 问答> 正文

为什么Bert Large模型在Nvidia V100 16G显卡上的batch size通常较小?

为什么Bert Large模型在Nvidia V100 16G显卡上的batch size通常较小?

展开
收起
萝卜丝丸子 2024-08-05 21:46:52 24 0
1 条回答
写回答
取消 提交回答
  • Bert Large模型在Nvidia V100 16G显卡上的batch size通常较小(如2-8),主要是因为该模型对显存消耗较大。batch size的具体值还会受到Embedding大小、Sequence Length等因素的影响。image.png

    2024-08-05 22:33:47
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载