暂无个人介绍
之前花了5篇介绍了word2vec的方法。词向量最大的意义是把原来的字符串变成了一个数字形式的向量,也就是说现在词和图像变得非常相近,因为图像也就是例如255*255的像素点,而每个像素也是一个数字。因此,词向量被很多任务作为初始的输入,从这开始,我将以轻松的形式来介绍词向量的运用场景。 = 本着先进性的原则,我会介绍最新的16年的论文,以较轻松的形式。今天分析这篇: 用词向
这一节将介绍Glove的实际代码编写和调优简化策略。考虑到时间较长,把上文的模型建立再复制黏贴了一次。 下图是官网的展示图,和frog青蛙最相近的词。  可以看到效果还是比较好的。 ##模型建立 有理由相信,对于三个词\\(i
这次开始介绍word2vec的第二种实现,GloVe: Global Vectors for Word Representation. 根据我目前的认知,从结果上来说(求解的模型),这个方法和goolge的word2vec其实几乎是一致。但是从过程上来说,看上去是有区别的。 ##GloVe: Global Vectors for Word Representation 同之前介绍的一
上一期介绍了word2vec中的模型更新优化的比较“弱”的形式NEGATIVE SAMPLING。这一期将推出另一种优化方案,Hierarchical Softmax。 ##Hierarchical Softmax 我们的目标是加速project->output层的计算。下图描述了新的project->output层情况  发表了文章
                                                2016-11-18
发表了文章
                                                2016-11-18
                                             发表了文章
                                                2016-11-18
发表了文章
                                                2016-11-18
                                             发表了文章
                                                2016-11-18
发表了文章
                                                2016-11-18
                                             发表了文章
                                                2016-11-18
发表了文章
                                                2016-11-18
                                             发表了文章
                                                2016-11-18
发表了文章
                                                2016-11-18
                                             发表了文章
                                                2016-11-18
发表了文章
                                                2016-11-18
                                            