开发者社区> 问答> 正文

什么是Multi-Head Attention(多头注意力机制)?

什么是Multi-Head Attention(多头注意力机制)?

展开
收起
夹心789 2024-06-27 12:02:59 117 0
1 条回答
写回答
取消 提交回答
  • Multi-Head Attention(多头注意力机制)是指在Transformer中,不是将输入代入一个高维空间,而是代入多个高维空间。每个“头”独立地计算Attention,然后将结果拼接起来。这种机制在训练时表现出很好的效果,尽管其背后的理论支持可能并不完美。

    2024-06-27 13:27:22
    赞同 3 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载