使用BERT词向量
Posted xuehuiping
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用BERT词向量相关的知识,希望对你有一定的参考价值。
- 启动远程服务
pip install --ignore-installed --upgrade tensorflow==1.10
pip install bert-serving-server
pip install bert-serving-client
下载模型
mkdir model
cd model
wget https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
#启动服务
bert-serving-start -model_dir chinese_L-12_H-768_A-12/ -num_worker=8 -max_seq_len=40
- 使用BertClient
pip install bert-serving-server
from functools import reduce
import numpy as np
from bert_serving.client import BertClient
def normaliz_vec(vec_list):
for i in range(len(vec_list)):
vec = vec_list[i]
square_sum = reduce(lambda x, y: x + y, map(lambda x: x * x, vec))
sqrt_square_sum = np.sqrt(square_sum)
coef = 1 / sqrt_square_sum
vec = list(map(lambda x: x * coef, vec))
vec_list[i] = vec
return vec_list
bc = BertClient(ip=‘XXX‘)
data = ‘你 好 啊‘.split(‘ ‘)
vectors = bc.encode(data)
question_vectors = normaliz_vec(vectors.tolist())
print(question_vectors)
以上是关于使用BERT词向量的主要内容,如果未能解决你的问题,请参考以下文章
BERT实战:使用DistilBERT作为词嵌入进行文本情感分类,与其它词向量(FastText,Word2vec,Glove)进行对比
使用 Spacy、Bert 时是不是需要对文本分类进行停用词去除、词干/词形还原?
自然语言表示简史(BERT/ELMO/Word2vec/LDA/Bow/Ohehot,词向量句向量优缺点应用与解决的问题)
自然语言表示简史(BERT/ELMO/Word2vec/LDA/Bow/Ohehot,词向量句向量优缺点应用与解决的问题)