词向量技术原理及应用详解

Posted huangm1314

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了词向量技术原理及应用详解相关的知识,希望对你有一定的参考价值。

       文本表示是自然语言处理中的基础工作,文本表示的好坏直接影响到整个自然语言处理系统的性能。在自然语言处理研究领域,文本向量化是文本表示的一种重要方式。

顾名思义,文本向量化就是将文本表示成一系列能够表达文本语义的向量。无论中文还是英文,词语都是表达文本处理的最基本单元。

当前阶段,对文本向量化都是通过词向量化实现的。当然也有将文章或者句子作为文本处理的基本单元,像doc2vec和str2vec技术。

       接下来主要是讨论以词语作为基本单元的word2vec技术,将先从onehot编码到word2vec,再从glove词向量到fasttext

什么是one hot编码

one-hot编码,又称独热编码、一位有效编码。其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。举个例子,假设我们有四个样本(行),每个样本有三个特征(列),如下图:

技术图片

上图中我们已经对每个特征进行了普通的数字编码:我们的feature_1有两种可能的取值,比如是男/女,这里男用1表示,女用2表示。那么one-hot编码是怎么搞的呢?

我们再拿feature_2来说明:这里feature_2 有4种取值(状态),我们就用4个状态位来表示这个特征,one-hot编码就是保证每个样本中的单个特征只有1位处于状态1,其他的都是0。

  1 -> 0001;  2 -> 0010;   3 -> 0100;   4 -> 1000;

对于2种状态、3种状态、甚至更多状态都可以这样表示,所以我们可以得到这些样本特征的新表示,如下图:

技术图片

one-hot编码将每个状态位都看成一个特征。对于前两个样本我们可以得到它的特征向量分别为:

Sample1  ->[0,1,1,0,0,0,1,0,0]               Sample2  ->[1,0,0,1,0,0,0,1,0]

one-hot在提取文本特征中的应用

one hot在特征提取上属于词袋模型(bag of words)。关于如何使用one-hot抽取文本特征向量我们通过以下例子来说明。假设我们的语料库中有三段话:

  • 我爱中国
  • 爸爸妈妈爱我
  • 爸爸妈妈爱中国

我们首先对上面语料进行分词,并获取其中的所有的词,然后对每个词进行编号:

1 我;    2 爱;   3 爸爸;   4 妈妈;   5 中国

然后使用one-hot对每段话提取特征向量:

技术图片

因此我们得到了最终的特征向量为:

  我爱中国 -> ( 1,1,0,0,1 )
       爸爸妈妈爱我 ->( 1,1,1,1,0 )
       爸爸妈妈爱中国 ->( 0,1,1,1,1 )

在实际应用过程中,我们对多篇文本进行分词,并统计词频,生成的词典中词数有几万,十几万,甚至更多,如果都进行one-hot进行编码肯定是行不通的,这时一般会根据词频选取前5K或50K的词进行向量化,摒弃写低频词,提高效率。当然5K或50K对于one-hot编码已经很大了,后面会用word2vec对其进行处理。

优缺点分析:

优点:

      一是解决了分类器不好处理离散数据的问题;

     二是在一定程度上也起到了扩充特征的作用(上面样本特征数从3扩展到了9)。

缺点:

      1.  它是一个词袋模型,不考虑词与词之间的顺序,无法保留词序信息;

      2.  它假设词与词相互独立,存在语义鸿沟问题(在大多数情况下,词与词是相互影响的);

      3.  它得到的特征是离散稀疏的;

      4.  维度灾难:很显然,如果上述例子词典中包含10K个单词,那么每个需要用10000维的向量表示,采用one-hot编码,对角线元素均设为1,其余为0,也就是说除了文本中出现的词语位置不为0,其余9000多的位置均为0,如此高纬度的向量会严重影响计算速度。

one-hot编程实现

 1 import numpy as np
 2 
 3 contents = [我 毕业 于 **大学,我 就职 于 **公司]
 4 word_dict = 
 5 
 6 for content in contents:
 7     for word in content.split():
 8         if word not in word_dict:
 9             word_dict[word] = len(word_dict)
10 print(word_dict)
11 
12 res = np.zeros((len(contents), len(word_dict)))
13 
14 for i, content in enumerate(contents):
15     for word in content.split():
16         j = word_dict.get(word)
17         res[i, j] = 1
18 
19 print(res)

2、Keras中one-hot编码的实现

 1 from keras.preprocessing.text import Tokenizer
 2 contents = [我 毕业 于 **大学,我 就职 于 **公司]
 3  
 4 #构建单词索引
 5  
 6 tokenizer =Tokenizer()
 7 tokenizer.fit_on_texts(contents)
 8  
 9 word_index = tokenizer.word_index
10 print(word_index)
11 # print(len(word_index))
12  
13 sequences = tokenizer.texts_to_sequences(contents)
14 # print(sequences)
15  
16 one_hot_result = tokenizer.texts_to_matrix(contents)
17 print(one_hot_result)

 

以上是关于词向量技术原理及应用详解的主要内容,如果未能解决你的问题,请参考以下文章

Word2Vec原理详解

词向量Word Embedding原理及生成方法

通俗讲解pytorch中nn.Embedding原理及使用

pytorch中nn.Embedding原理及使用

深度学习与自然语言处理 - 词向量工具的原理及应用

词向量原理