自然语言处理(NLP) Bert与Lstm结合

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了自然语言处理(NLP) Bert与Lstm结合相关的知识,希望对你有一定的参考价值。

参考技术A 自然语言处理(NLP)在深度学习领域是一大分支(其他:CV、语音),经过这些年的发展NLP发展已经很成熟,同时在工业界也慢慢开始普及,谷歌开放的Bert是NLP前进的又一里程碑。本篇文章结合Bert与Lstm,对文本数据进行二分类的研究。

以上这些库需要读者对机器学习、深度学习有一定了解

2000

['口味不知道是我口高了还是这家真不怎么样我感觉口味确实很一般很一般上菜相当快我敢说菜都是提前做好的几乎都不热菜品酸汤肥牛干辣干辣的还有一股泡椒味着实受不了环境室内整体装修确实不错但是大厅人多太乱服务一般吧说不上好但是也不差价格一般大众价格都能接受人太多了排队很厉害以后不排队也许还会来比如早去路过排队就不值了票据六日没票告我周一到周五可能有票相当不正规在这一点同等价位远不如外婆家']

'input_ids': tensor([[ 101, 1366, 1456, ..., 0, 0, 0],
[ 101, 5831, 1501, ..., 0, 0, 0],
[ 101, 6432, 4696, ..., 0, 0, 0],
...,
[ 101, 7566, 4408, ..., 0, 0, 0],
[ 101, 2207, 6444, ..., 0, 0, 0],
[ 101, 2523, 679, ..., 0, 0, 0]]), 'token_type_ids': tensor([[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0],
...,
[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0]]), 'attention_mask': tensor([[1, 1, 1, ..., 0, 0, 0],
[1, 1, 1, ..., 0, 0, 0],
[1, 1, 1, ..., 0, 0, 0],
...,
[1, 1, 1, ..., 0, 0, 0],
[1, 1, 1, ..., 0, 0, 0],
[1, 1, 1, ..., 0, 0, 0]])

torch.Size([2000, 200])

(1400, 600)

(300, 300)

torch.Size([1400, 200])

torch.Size([1400])

tensor([1.])

Training on GPU.

Epoch: 1/10... Step: 7... Loss: 0.679703... Val Loss: 0.685275
Epoch: 1/10... Step: 14... Loss: 0.713852... Val Loss: 0.674887
.............
Epoch: 10/10... Step: 35... Loss: 0.078265... Val Loss: 0.370415
Epoch: 10/10... Step: 42... Loss: 0.171208... Val Loss: 0.323075

Test loss: 0.442
Test accuracy: 0.827

预测概率为: 0.015379
预测结果为:负向

预测概率为: 0.972344
预测结果为:正向

预测概率为: 0.581665
预测结果为:正向

预测概率为: 0.353724
预测结果为:负向

<All keys matched successfully>

预测概率为: 0.015379
预测结果为:负向

以上是关于自然语言处理(NLP) Bert与Lstm结合的主要内容,如果未能解决你的问题,请参考以下文章

NLP预训练发展小结二(Bert之后)

史上最细节的自然语言处理NLP/Transformer/BERT/Attention面试问题与答案

BERT入门讲解(内附源码)自然语言处理NLP-100例

BERT入门讲解(内附源码)自然语言处理NLP-100例

自然语言处理(NLP)基于LSTM实现文字检测

自然语言处理NLP之BERTBERT是什么智能问答阅读理解分词词性标注数据增强文本分类BERT的知识表示本质