word2vec深入浅出,保证你一看就会(2)

简介: 上一期介绍了word2vec的基本构思和skip-gram模型的创建,这一期将进行google的code review 也就是模型的具体迭代。 milkov2013的文章很难以理解,有以下论文对这篇论文进行了详细解读精读! http://www-personal.umich.edu/~r

上一期介绍了word2vec的基本构思和skip-gram模型的创建,这一期将进行google的code review 也就是模型的具体迭代。

上一期地址

milkov2013的文章很难以理解,有以下论文对这篇论文进行了详细解读精读!
http://www-personal.umich.edu/~ronxin/pdf/w2vexp.pdf

skip-gram的计算问题

1

再上一次图,通过上次解析可以知道,对于每一个例如 input w(t)和output w(t-1) 的组合
在forward的时候
input->projection层实际上就是取了一列(或者一行),实际计算量为 H, H为hidden层个数,也就是word的vec维度
projection->output层计算为\(hw2\),上期中提到过\(h\)是H维的向量,\(w2\)是HV维的矩阵,因此这个计算要花费H*V次。

在back-propagation的时候
projection->output层

$$ w2^{new}_{ij}=w2^{old}_{ij}-η*(输出层的错误_i)*h_j $$

其中η为学习速度。
因此\(w2\)矩阵的更新也需要H*V次。

考虑到V词汇量通常为30000以上,而H通常在200左右。H*V的计算量难以承受。

解决方法

NEGATIVE SAMPLING

再回顾一下我们的input和output,input是单词本身的one-hot,而output是单词周围词的one-hot。 对于input=w(t),我们期望模型的输出o接近如w(t-1)=(0,0,0.....1,0...0). 在普通更新时,我们计算output层的error为一个V维量,然后更新所有\(w2\)。另一个策略是,我们不更新所有维度(V维),只更新1所在的维,和随机N个0所在维。这个就称NEGATIVE SAMPLING

代码分析

         if (negative > 0) for (d = 0; d < negative + 1; d++) {
          if (d == 0) {
            target = word;
            label = 1;
          } else {
            next_random = next_random * (unsigned long long)25214903917 + 11;
            target = table[(next_random >> 16) % table_size];
            if (target == word) continue;
            label = 0;
          }

这一段代码中negative是指代negative sampling的数量。一般25足够。
for循环中,d=0的时候,是指代正样本的更新,word存储了output的one-hot表示中1所在列号(维)。
target就存储了这个列(维)号,label则存储了output的one-hot在这一列(维)的值。正样本时候就是1.
d不是0的时候,随机选择负样本列(维),next_random随机了一个数,然后mod table_size(就是mod V词汇量),如果target的数值是word(即正样本列号)就重新随机负样本列,label是0。

以上代码就决定了一个变量target,即要更新的one-hot列(维)。那么在forward的时候我们就只需要计算one-hot向量这一个列(维)的值。然后计算这一维的error,来更新\(w2\),和\(h\)变量。以下代码做了forward和back-propagation。

          l2 = target * layer1_size;
          f = 0;
          for (c = 0; c < layer1_size; c++) f += neu1[c] * syn1neg[c + l2];
          g=输出层error;
          for (c = 0; c < layer1_size; c++) neu1e[c] += g * syn1neg[c + l2];
          for (c = 0; c < layer1_size; c++) syn1neg[c + l2] += g * neu1[c];

公式推导:
forward :

$$ o=h*w2_{.target} $$

back,derivation for h:

$$ h^{new}=h^{old}-η*输出层的错误*w2_{.target} $$

back,derivation for w2 column "target":

$$ w2^{new}_{.target}=w2^{old}_{.target}-η*输出层的错误*h $$

其中\(w2_{.target}\)为w2的target那一列。

联系google的代码,neu1数组为即为h,hidden层,syn1neg数组即为w2,只是把二维数组写成了一维,

l2 = target * layer1_size;

计算了开始地址。

for (c = 0; c < layer1_size; c++) f += neu1[c] * syn1neg[c + l2];

对应上面的foward得到o。从o和label得到输出层error g。

for (c = 0; c < layer1_size; c++) neu1e[c] += g * syn1neg[c + l2];

对应上面derivation for h,可以看到是一致的。

for (c = 0; c < layer1_size; c++) syn1neg[c + l2] += g * neu1[c];

对应上面derivation for w2 column "target",可以看到也是一致的。

NEGATIVE SAMPLING速度分析

不用NEGATIVE SAMPLING每次更新w2需要VH次运算,而现在需要negativeH次运算,假如negative 取20,V 是3万,那么NEGATIVE SAMPLING至少也能快上1500倍。也就是说用了以后能单机跑,不用就要分布式了。

NEGATIVE SAMPLING为什么能得到好的效果

NEGATIVE SAMPLING看上去非常水,竟然随机取了几列更新,这能行?
答:有人使用了很多高大上的方法来采样,比如什么gibt采样啊,不能是周围的词啊,等等,最终速度比NEGATIVE SAMPLING慢,效果没有任何区别。

那为什么NEGATIVE SAMPLING可行?
可以用两种方法来回答
最直接的回答是 实践表明它可行。
然后就是个人的理解了。
我的理解是,word2vec的宗旨中w(t)是由w(t-2),w(t-1)...来表示的,因此在更新时,对于1那个点,也就是正样本是有道理,而对于负样本,那么些0的地方其实不是那么有道理。那么负样本的选取其实也就没有那么重要了,NEGATIVE SAMPLING也就可行了。

下一期介绍另一种更新方式,请期待!

相关文章
|
1月前
|
Web App开发 机器学习/深度学习 自然语言处理
Word2Vec简明教程:入门、原理及代码实现
Word2Vec简明教程:入门、原理及代码实现
|
11月前
|
机器学习/深度学习 自然语言处理 算法
Word2Vec原理以及实战详解
Word2Vec原理以及实战详解
|
机器学习/深度学习 算法 搜索推荐
深入浅出理解word2vec模型 (理论与源码分析)
深入浅出理解word2vec模型 (理论与源码分析)
深入浅出理解word2vec模型 (理论与源码分析)
|
自然语言处理 数据可视化 数据处理
基于gensim实现word2vec模型(附案例实战)
基于gensim实现word2vec模型(附案例实战)
599 0
基于gensim实现word2vec模型(附案例实战)
|
机器学习/深度学习 自然语言处理 算法
Word2Vec简明教程:入门、原理及代码实现(下)
Word2Vec简明教程:入门、原理及代码实现
Word2Vec简明教程:入门、原理及代码实现(下)
|
机器学习/深度学习 存储 自然语言处理
Word2Vec简明教程:入门、原理及代码实现(上)
Word2Vec简明教程:入门、原理及代码实现
Word2Vec简明教程:入门、原理及代码实现(上)
|
机器学习/深度学习 存储 数据采集
词向量word2vec(图学习参考资料1)
词向量word2vec(图学习参考资料1)
|
机器学习/深度学习 存储 自然语言处理
|
机器学习/深度学习 算法
|
机器学习/深度学习 自然语言处理 算法