小白学习PyTorch教程十五BERT:通过PyTorch来创建一个文本分类的Bert模型

Posted 刘润森!

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了小白学习PyTorch教程十五BERT:通过PyTorch来创建一个文本分类的Bert模型相关的知识,希望对你有一定的参考价值。

@Author:Runsen

2018 年,谷歌发表了一篇题为《Pre-training of deep bidirectional Transformers for Language Understanding》的论文。

在本文中,介绍了一种称为BERT(带转换器Transformers的双向编码Encoder 器表示)的语言模型,该模型在问答、自然语言推理、分类和通用语言理解评估或 (GLUE)等任务中取得了最先进的性能.

BERT全称为Bidirectional Encoder Representation from Transformers[1],是一种用于语言表征的预训练模型

在本文中,我们将使用 PyTorch来创建一个文本分类的Bert模型。

数据集来源:https://www.kaggle.com/jrobischon/wikipedia-movie-plots

该数据集包含对来自世界各地的 34,886 部电影的描述。列描述如下:

  • 发行年份: 电影发行的年份
  • 标题:电影标题
  • 起源:电影的起源(即美国、宝莱坞、泰米尔等)
  • 剧情:主要演员
  • 类型: 电影类型
  • 维基页面- 从中抓取情节描述的维基百科页面的 URL
  • 情节:电影情节的长篇描述
import numpy as np
import pandas as

以上是关于小白学习PyTorch教程十五BERT:通过PyTorch来创建一个文本分类的Bert模型的主要内容,如果未能解决你的问题,请参考以下文章

小白学习PyTorch教程十六在多标签分类任务上 微调BERT模型

小白学习PyTorch教程六基于CIFAR-10 数据集,使用PyTorch 从头开始​​构建图像分类模型

小白学习PyTorch教程一PyTorch基本操作

小白学习PyTorch教程十七 PyTorch 中 数据集torchvision和torchtext

小白学习PyTorch教程十七 PyTorch 中 数据集torchvision和torchtext

小白学习PyTorch教程九基于Pytorch训练第一个RNN模型