使用BERT词向量

Posted xuehuiping

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用BERT词向量相关的知识,希望对你有一定的参考价值。

  1. 启动远程服务
pip install --ignore-installed --upgrade tensorflow==1.10
pip install bert-serving-server
pip install bert-serving-client

下载模型

mkdir model
cd model
wget https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
#启动服务
bert-serving-start -model_dir chinese_L-12_H-768_A-12/ -num_worker=8 -max_seq_len=40
  1. 使用BertClient
pip install bert-serving-server
from functools import reduce
import numpy as np
from bert_serving.client import BertClient


def normaliz_vec(vec_list):
    for i in range(len(vec_list)):
        vec = vec_list[i]
        square_sum = reduce(lambda x, y: x + y, map(lambda x: x * x, vec))
        sqrt_square_sum = np.sqrt(square_sum)
        coef = 1 / sqrt_square_sum
        vec = list(map(lambda x: x * coef, vec))
        vec_list[i] = vec
    return vec_list


bc = BertClient(ip=‘XXX‘)

data = ‘你 好 啊‘.split(‘ ‘)
vectors = bc.encode(data)
question_vectors = normaliz_vec(vectors.tolist())
print(question_vectors)

以上是关于使用BERT词向量的主要内容,如果未能解决你的问题,请参考以下文章

BERT实战:使用DistilBERT作为词嵌入进行文本情感分类,与其它词向量(FastText,Word2vec,Glove)进行对比

NLP(三十三):中文BERT字字量

每日学习记录20230321_Bert

使用 Spacy、Bert 时是不是需要对文本分类进行停用词去除、词干/词形还原?

自然语言表示简史(BERT/ELMO/Word2vec/LDA/Bow/Ohehot,词向量句向量优缺点应用与解决的问题)

自然语言表示简史(BERT/ELMO/Word2vec/LDA/Bow/Ohehot,词向量句向量优缺点应用与解决的问题)