elmo模型

Posted yangyang12138

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了elmo模型相关的知识,希望对你有一定的参考价值。

1.概述

  利用语言模型来获得一个上下文相关的预训练表示,称为ELMo。它使用的是一个双向的LSTM语言模型,由一个前向和一个后向语言模型构成,目标函数就是取这两个方向语言模型的最大似然。

2.模型结构

  技术图片

 

3.双向语言模型

  前向概率计算:

    技术图片

 

  后向概率计算:

    技术图片

 

  t代表token,即词

  最后将前向和后向合并

    技术图片

 

  最终输出:

    技术图片

 

4.tensorflow的实现

  

import tensorflow_hub as hub

# 加载模型
elmo = hub.Module("https://tfhub.dev/google/elmo/2", trainable=True)
# 输入的数据集
texts = ["the cat is on the mat", "dogs are in the fog"]
embeddings = elmo(
texts,
signature="default",
as_dict=True)["default"]
elmo = hub.Module("https://tfhub.dev/google/elmo/2", trainable=True)

# 另一种方式输入数据
tokens_input = [["the", "cat", "is", "on", "the", "mat"],
["dogs", "are", "in", "the", "fog", ""]]
# 长度,表示tokens_input第一行6一个有效,第二行5个有效
tokens_length = [6, 5]
# 生成elmo embedding
embeddings = elmo(
inputs={
"tokens": tokens_input,
"sequence_len": tokens_length
},
signature="tokens",
as_dict=True)["default"]
from tensorflow.python.keras import backend as K

sess = K.get_session()
array = sess.run(embeddings)

 

以上是关于elmo模型的主要内容,如果未能解决你的问题,请参考以下文章

自用预训练语言模型->ELMo 模型

预训练语言模型整理(ELMo/GPT/BERT...)

elmo模型

NLP 预训练模型(例如 ELMo、Bert)的数据预处理

自然语言处理ELMo 讲解

图解 2018 年领先的两大 NLP 模型:BERT 和 ELMo