推荐系列(六):深层神经网络模型(2)

简介: 简单介绍Softmax训练的样本以及与fm的对比

Softmax训练

上一节解释了如何将softmax层合并到推荐系统的深度神经网络中。本节将详细介绍此系统的训练数据。

训练数据

softmax训练数据由查询特征X以及用户与之交互的项目向量(表示为概率分布 p)组成,在下图中用蓝色标记。模型的变量是不同层中的权重,在下图中用橙色标记。通常使用随机梯度下降或其变体方法来训练模型。

1

负抽样

由于损失函数比较两个概率向量 ${p, \hat p(x) \in \mathbb R^n}$(真值和模型的输出),如果语料库太大, 计算损失的梯度(对于单个查询 X)时,计算代价可能非常昂贵。

可以设置一个系统来仅计算正样本的梯度。但是,如果系统仅在正样本上训练,则模型可能遭受折叠问题,如下所述。

折叠
在图中,假设每种颜色代表不同类别的查询和项目。每个查询(表示为正方形)仅与相同颜色的项目(表示为圆形)交互。模型可以学习如何相对于彼此放置给定颜色的查询/项目嵌入(正确地捕获该颜色内的相似性),但是来自不同颜色的嵌入可能偶然地在嵌入空间的相同区域中结束,这种现象被称为折叠,这可能会导致虚假推荐:在查询时,模型可能错误地给出来自不同组项目的预测高分。

2

负样本示例是与给定查询标记为“无关”的项目。在训练期间显示模型负样本教导模型应该将不同组的嵌入间距变大,彼此推离。

可以使用部分负抽样加全部的正样本数据作为训练数据,而不是使用所有负样本和正样本来计算梯度(计算代价高)或仅使用正样本(使得模型易于折叠)。总结来说,可以使用以下数据来计算近似梯度:

  • 所有正样本;
  • 部分负样本;

对负样本进行采样有不同的策略:

  • 统一采样;
  • 具有更高分数的项目j提供更高的概率${\psi(x) . V_j}$。直觉上,这些是对梯度贡献最大的样本; 这些样本通常被称为难分样本(hard negatives)。

额外资源: 有关YouTube中使用的技术,体系结构和模型的更全面的说明,请参阅 适用于YouTube建议的深度神经网络。有关折叠的更多详细信息,请参见Xin等人,折叠:为什么好模型有时会产生虚假推荐。要了解有关负抽样的更多信息,请参阅 Bengio和Senecal,自适应重要性抽样以加速神经概率语言模型的训练。

矩阵分解(FM)VS SOFTMAX

DNN模型解决了矩阵分解的许多限制,但通常训练和预测的代价更高。下表总结了两种模型之间的一些重要差异。

矩阵分解 Softmax DNN
查询特征 不容易包括在内 可以包括在内
冷启动 不容易处理词典查询或项目。可以使用一些启发式方法(例如,对于新查询,类似查询的平均嵌入) 容易处理新查询
折页 通过调整WALS中未观察到的重量可以轻松减少折叠 容易折叠,需要使用负采样或重力等技术
训练可扩展性 可轻松扩展到非常大的语料库(可能是数亿项或更多),但仅限于输入矩阵稀疏 难以扩展到非常大的语料库,可以使用一些技术,例如散列,负采样等。
提供可扩展性 嵌入U,V是静态的,并且可以预先计算和存储一组候选 项目嵌入V是静态的并且可以存储,查询嵌入通常需要在查询时计算,使得模型的服务成本更高

综上所述:

  • 矩阵分解通常是大型语料库的更好选择。它更容易扩展,查询计算量更便宜,并且不易折叠。
  • DNN模型可以更好地捕获个性化偏好,但是难以训练并且查询成本更高。DNN模型比评分的矩阵分解更可取,因为DNN模型可以使用更多特征来更好地捕获相关性。此外,DNN模型通常会出现折叠。
目录
相关文章
|
11天前
|
算法 前端开发 数据挖掘
【类脑智能】脑网络通信模型分类及量化指标(附思维导图)
本文概述了脑网络通信模型的分类、算法原理及量化指标,介绍了扩散过程、路由协议和参数模型三种通信模型,并详细讨论了它们的性能指标、优缺点以及在脑网络研究中的应用,同时提供了思维导图以帮助理解这些概念。
13 3
【类脑智能】脑网络通信模型分类及量化指标(附思维导图)
|
12天前
|
机器学习/深度学习 前端开发 数据挖掘
基于Python Django的房价数据分析平台,包括大屏和后台数据管理,有线性、向量机、梯度提升树、bp神经网络等模型
本文介绍了一个基于Python Django框架开发的房价数据分析平台,该平台集成了多种机器学习模型,包括线性回归、SVM、GBDT和BP神经网络,用于房价预测和市场分析,同时提供了前端大屏展示和后台数据管理功能。
|
6天前
|
机器学习/深度学习 人工智能 PyTorch
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
AI智能体研发之路-模型篇(五):pytorch vs tensorflow框架DNN网络结构源码级对比
20 1
|
6天前
|
消息中间件 网络协议 Java
你不得不了解的网络IO模型知识
该文章主要讲述了网络I/O模型的相关知识,包括不同的I/O模型以及它们的特点和应用场景。
你不得不了解的网络IO模型知识
|
11天前
|
网络协议 Java 关系型数据库
16 Java网络编程(计算机网络+网络模型OSI/TCP/IP+通信协议等)
16 Java网络编程(计算机网络+网络模型OSI/TCP/IP+通信协议等)
41 2
|
16天前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
17 1
|
19天前
|
机器学习/深度学习 数据采集 算法框架/工具
深度学习中的模型优化:以卷积神经网络为例
【7月更文挑战第31天】在深度学习的海洋中,卷积神经网络(CNN)如同一艘强大的航船,承载着图像识别与处理的重要任务。本文将扬帆起航,深入探讨如何通过各种技术手段优化CNN的性能,从数据预处理到模型正则化,再到超参数调整,我们将一一解析这些策略如何提升CNN的效率和准确度。文章还将通过实际代码示例,展示如何在Keras框架中应用这些技术,确保理论与实践的结合,为读者提供一套完整的优化工具箱。
45 4
|
18天前
|
机器学习/深度学习 测试技术 API
【Python-Keras】Keras搭建神经网络模型的Model解析与使用
这篇文章详细介绍了Keras中搭建神经网络模型的`Model`类及其API方法,包括模型配置、训练、评估、预测等,并展示了如何使用Sequential模型和函数式模型来构建和训练神经网络。
17 1
|
19天前
|
安全 Java Linux
(七)Java网络编程-IO模型篇之从BIO、NIO、AIO到内核select、epoll剖析!
IO(Input/Output)方面的基本知识,相信大家都不陌生,毕竟这也是在学习编程基础时就已经接触过的内容,但最初的IO教学大多数是停留在最基本的BIO,而并未对于NIO、AIO、多路复用等的高级内容进行详细讲述,但这些却是大部分高性能技术的底层核心,因此本文则准备围绕着IO知识进行展开。
|
26天前
|
机器学习/深度学习 分布式计算 MaxCompute
ODPS问题之什么是Join/Inner Join
ODPS问题之什么是Join/Inner Join

热门文章

最新文章