word2vec 中的数学原理具体解释基于 Negative Sampling 的模型

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了word2vec 中的数学原理具体解释基于 Negative Sampling 的模型相关的知识,希望对你有一定的参考价值。

      
    word2vec 是 Google 于 2013 年开源推出的一个用于获取 word vector 的工具包,它简单、高效,因此引起了非常多人的关注。

因为 word2vec 的作者 Tomas Mikolov 在两篇相关的论文 [3,4] 中并没有谈及太多算法细节,因而在一定程度上添加了这个工具包的神奇感。一些按捺不住的人于是选择了通过解剖源码的方式来一窥到底,出于好奇,我也成为了他们中的一员。

读完代码后,认为收获颇多,整理成文,给有须要的朋友參考。


相关链接


(一)文件夹和前言

(二)预备知识

(三)背景知识

(四)基于 Hierarchical Softmax 的模型

(五)基于 Negative Sampling 的模型

(六)若干源代码细节

技术分享技术分享技术分享技术分享技术分享技术分享技术分享技术分享技术分享


技术分享技术分享


作者: peghoty 

出处: http://blog.csdn.net/itplus/article/details/37998797

欢迎转载/分享, 但请务必声明文章出处.







以上是关于word2vec 中的数学原理具体解释基于 Negative Sampling 的模型的主要内容,如果未能解决你的问题,请参考以下文章

基于word2vec的文档向量模型的应用

word2vec的数学原理——基于huffuman softmax

word2vec 中的数学原理三 背景知识 语言模型

word2vec 中的数学原理二 预备知识 霍夫曼树

word2vec 中的数学原理详解

word2vec 中的数学原理详解