开发者社区 问答 正文

Self-Attention(自注意力机制)是什么?

Self-Attention(自注意力机制)是什么?

展开
收起
夹心789 2024-06-27 12:02:59 76 分享 版权
1 条回答
写回答
取消 提交回答
  • Self-Attention(自注意力机制)是指在计算Attention之后,每个单词根据语义关系被打入新的高维空间的过程。它允许模型关注输入序列中的不同位置,从而捕捉输入序列的内部依赖关系。

    2024-06-27 13:27:28
    赞同 2 展开评论
问答分类:
问答地址: