word2vec深入浅出,保证你一看就会(3)

简介: 上一期介绍了word2vec中的模型更新优化的比较“弱”的形式NEGATIVE SAMPLING。这一期将推出另一种优化方案,Hierarchical Softmax。 ##Hierarchical Softmax 我们的目标是加速project->output层的计算。下图描述了新的project->output层情况 ![2](http://img1.tbcdn.cn/L1/461/

上一期介绍了word2vec中的模型更新优化的比较“弱”的形式NEGATIVE SAMPLING。这一期将推出另一种优化方案,Hierarchical Softmax。

Hierarchical Softmax

我们的目标是加速project->output层的计算。下图描述了新的project->output层情况
2

回到我们的初衷,我们的目的是对于一个输入词,把周围词作为输出词,期待输出词的值是最大的。
假设我们期待的输出词(答案)是\(w_2\)(不是权值矩阵 \(w2\))。那么我们扔一个小球从root开始,有向左滚概率0.8,向右0.2,然后继续滚,最后总会滚到低,我们期望滚到\(w_2\)洞的概率最大。
图示的情况下,滚到\(w_2\)的概率为0.80.40.7,显然滚到所有洞的概率和为1。

明确每个部分的含义:
每个白色节点是一个球洞,代表了滚到这个词。
每个黑色节点是一个H维向量,替代了之前的权值矩阵 \(w2\)。给个新表示\(v_1,v_2,....\)).
再起个别名n(w, j) means the j-th unit on the path from root to the word w.

每条边为一个概率,表示球滚到父亲节点时,往这条边滚的概率。
往左边滚的概率是

$$ p(n, left) = σ(v_i^Th) $$

,往右是

$$ 1-σ(v_i^Th) $$

其中\(v_i\)是父亲节点的表示H维,h为hidden层的表示H维。σ为sigmoid函数。

再考虑下更新的逻辑
forward

$$ p=σ([*]n(w, 1)^Th)*σ([*]n(w, 2)^Th)....其中[*]表示向左走取+1,向右走取-1 $$

backward

$$ E=loss=-log p $$

可以发现这里的累乘其实是变量独立的,并不是recursive neural network那种,对p中各变量n(w, i)(写作\(v_i\))取导数后,

$$ \frac{\partial E}{\partial v_i^Th}=σ( v_i^Th)-t_j $$

其中

$$ [*]=+1时,t_j=1,[*]=-1时,t_j=0 $$

对权重变量求导

$$ \frac{\partial E}{\partial v_i}=(σ( v_i^Th)-t_j)*h $$

可以发现最终更新变量\(v_i\)时,只和它的output error有关,和其他权重变量无关。所以在实际计算时,我们可以像NEGATIVE SAMPLING一样,计算projection->output中的一列(就是只用一个\(v_i\)),然后求导更新。

代码分析

for (d = 0; d < vocab[word].codelen; d++) {
          f = 0;
          l2 = vocab[word].point[d] * layer1_size;
          // Propagate hidden -> output
          for (c = 0; c < layer1_size; c++) f += neu1e[c] * syn1[c + l2];
         g= 输出层错误 \partial E / \partial v_i^T*h
          // Learn weights hidden -> output
          for (c = 0; c < layer1_size; c++) syn1[c + l2] += g * neu1e[c];
        }

在for循环中 vocab[word].point[d] 记录了单词word在权重变量(projection->output)(上面的那棵树)中具体经过的子节点,即n(word, i)。
syn1 :在前一篇文章中也提到 是\(w2\)即现在上图中的黑色节点的集合,然后把两维拉成了一维。
l2 = vocab[word].point[d] * layer1_size 计算了这个词每个经过节点在syn1数组中的开始地址。

在上面分析中提到过,每个节点n(word, i)的更新和其他节点无关。再看次模型更新

$$ \frac{\partial E}{\partial v_i}=(σ( v_i^Th)-t_j)*h $$

我们只需要计算 \(v_i^Th\) 乘积,计算error,然后乘以h即可。这三部对应接下来的三行程序。

  for (c = 0; c < layer1_size; c++) f += neu1e[c] * syn1[c + l2];

计算 \(v_i^Th\) 乘积,neu1e即h。

g= 输出层错误 \partial E / \partial v_i^T*h

计算了输出层错误*学习速率。

 for (c = 0; c < layer1_size; c++) syn1[c + l2] += g*neu1e[c];

neu1e即h。符合上面公式的推导。

Hierarchical Softmax 速度分析

由于现在的\(w2\)变成了一个完全二叉树,更新的节点为树高,故为log(2,V).
如果V=30000,那现在只需要进行 大约15次。 比原来大约快2000倍。
也就是说用了以后能单机跑,不用就要分布式了。

Hierarchical Softmax 讨论

这个方法可以看成一种改进的softmax方法,原来每个节点的值都依赖于所有其他节点的值,而现在只依赖于一些节点的值。使得模型的计算变得非常高效。
但是它并不比NEGATIVE SAMPLING来得好,原因是,它对V的树状分层其实是随机的,这不像是决策树,最root的分叉是最有效的,因此这只是一种类似于人为缩减更新数量的方法,和NEGATIVE SAMPLING本质无异。只是听上去厉害好多啊!

相关文章
|
6月前
|
Web App开发 机器学习/深度学习 自然语言处理
Word2Vec简明教程:入门、原理及代码实现
Word2Vec简明教程:入门、原理及代码实现
|
机器学习/深度学习 自然语言处理 算法
Word2Vec原理以及实战详解
Word2Vec原理以及实战详解
|
自然语言处理 数据可视化 数据处理
基于gensim实现word2vec模型(附案例实战)
基于gensim实现word2vec模型(附案例实战)
902 1
基于gensim实现word2vec模型(附案例实战)
|
机器学习/深度学习 自然语言处理 算法
Word2Vec简明教程:入门、原理及代码实现(下)
Word2Vec简明教程:入门、原理及代码实现
Word2Vec简明教程:入门、原理及代码实现(下)
|
机器学习/深度学习 存储 自然语言处理
Word2Vec简明教程:入门、原理及代码实现(上)
Word2Vec简明教程:入门、原理及代码实现
Word2Vec简明教程:入门、原理及代码实现(上)
|
机器学习/深度学习 算法 搜索推荐
深入浅出理解word2vec模型 (理论与源码分析)
深入浅出理解word2vec模型 (理论与源码分析)
深入浅出理解word2vec模型 (理论与源码分析)
|
机器学习/深度学习 存储 数据采集
词向量word2vec(图学习参考资料1)
词向量word2vec(图学习参考资料1)
|
机器学习/深度学习 自然语言处理 算法
NLP之word2vec:word2vec简介、安装、使用方法之详细攻略
NLP之word2vec:word2vec简介、安装、使用方法之详细攻略
NLP之word2vec:word2vec简介、安装、使用方法之详细攻略
|
机器学习/深度学习 自然语言处理 算法
|
算法
word2vec深入浅出,保证你一看就会(1)
下一篇地址 http://www.atatech.org/articles/55128word2vec 是现在在自然语言处理中非常非常实用的技术,word2vec一般的用途通常有两种,第一种是其他复杂的神经网络模型的初始化,还有一种是把词与词之间的相似度来作为某个模型的特征。word2vec的最大优
7636 0