《Enhanced LSTM for Natural Language Inference》(自然语言推理)
Posted 张乐乐章
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《Enhanced LSTM for Natural Language Inference》(自然语言推理)相关的知识,希望对你有一定的参考价值。
解决的问题
自然语言推理,判断a是否可以推理出b。简单讲就是判断2个句子ab是否有相同的含义。
方法
我们的自然语言推理网络由以下部分组成:输入编码(Input Encoding ),局部推理模型(Local Inference Modeling ),和推断合成(inference composition)。结构图如下所示:
垂直来看,上图显示了系统的三个主要组成部分;水平来看,左边代表称为ESIM的序列NLI模型,右边代表包含了句法解析信息的树形LSTM网络。
输入编码
1 # Based on arXiv:1609.06038 2 q1 = Input(name=‘q1‘, shape=(maxlen,)) 3 q2 = Input(name=‘q2‘, shape=(maxlen,)) 4 5 # Embedding 6 embedding = create_pretrained_embedding( 7 pretrained_embedding, mask_zero=False) 8 bn = BatchNormalization(axis=2) 9 q1_embed = bn(embedding(q1)) 10 q2_embed = bn(embedding(q2)) 11 12 # Encode 13 encode = Bidirectional(LSTM(lstm_dim, return_sequences=True)) 14 q1_encoded = encode(q1_embed) 15 q2_encoded = encode(q2_embed)
有2种lstm:
A: sequential model 的做法
句子中的每个词都有了包含周围信息的 word representation
B: Tree-LSTM model的做法
树中的每个节点(短语或字句)有了向量表示 htt
关于tree-LSTM 的介绍需要看文章:
[1] Improved semantic representations from tree-structured long short-term memory networks
[2] Natural Language inference by tree-based convolution and heuristic matching
[3] Long short-term memory over recursive structures
第二部分:Local Inference Modeling
A: sequential model
两句话相似或相反的对应
B: Tree-LSTM model
两棵树任意两个节点利用公式(11)计算
以上是关于《Enhanced LSTM for Natural Language Inference》(自然语言推理)的主要内容,如果未能解决你的问题,请参考以下文章
JAVA警告 ‘for‘ loop replaceable with enhanced ‘for‘
JAVA警告 ‘for‘ loop replaceable with enhanced ‘for‘
JAVA警告 ‘for‘ loop replaceable with enhanced ‘for‘
IDEA提示:‘for‘‘while‘ loop replaceable with enhanced ‘for‘
pycharm运行程序,总是出现IPthony界面(IPython 6.2.1 -- An enhanced Interactive Python. Type '?' for help
论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting