开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

想咨询下机器学习PAI 您在MIND里面关于squash的做法,这样加完向量模长还能控制到0-1吗?

想咨询下机器学习PAI 您在MIND里面关于squash的做法,有些地方不是很理解。
scale_factor = tf.pow(input_norm_eps / (1 + input_norm_eps), self._squash_pow) * \
self._scale_ratio / tf.sqrt(input_norm_eps)
为什么用_squash_pow和_scale_ratio来共同控制?

下面的调参建议 squash_pow[0.1 - 1.0]这样会缩小的scale_factor,
但是上面对squash_pow的注视是squash加的power, 防止squash之后的向量值变得太小
这样加完向量模长还能控制到0-1吗?

另外item侧为什么不能用bn啊?

展开
收起
真的很搞笑 2024-04-24 11:08:41 22 0
1 条回答
写回答
取消 提交回答
  • item侧用bn当时实验效果不好,分析可能和batch样本太相关了,和在线预测时的分布不一致了。squash_pow主要用来控制兴趣向量之间的相似度,防止兴趣向量过于相似,这个实验发现用这个方式比加loss控制兴趣向量的相似度,hitrate更好一些。 ,此回答整理自钉群“【EasyRec】推荐算法交流群”

    2024-04-24 15:45:12
    赞同 1 展开评论 打赏

相关产品

  • 人工智能平台 PAI
  • 热门讨论

    热门文章

    相关电子书

    更多
    大规模机器学习在蚂蚁+阿里的应用 立即下载
    阿里巴巴机器学习平台AI 立即下载
    机器学习及人机交互实战 立即下载