小白学习PyTorch教程十五BERT:通过PyTorch来创建一个文本分类的Bert模型
Posted 刘润森!
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了小白学习PyTorch教程十五BERT:通过PyTorch来创建一个文本分类的Bert模型相关的知识,希望对你有一定的参考价值。
@Author:Runsen
2018 年,谷歌发表了一篇题为《Pre-training of deep bidirectional Transformers for Language Understanding》的论文。
在本文中,介绍了一种称为BERT(带转换器Transformers的双向编码Encoder 器表示)的语言模型,该模型在问答、自然语言推理、分类和通用语言理解评估或 (GLUE)等任务中取得了最先进的性能.
BERT全称为Bidirectional Encoder Representation from Transformers[1],是一种用于语言表征的预训练模型
在本文中,我们将使用 PyTorch来创建一个文本分类的Bert模型。
数据集来源:https://www.kaggle.com/jrobischon/wikipedia-movie-plots
该数据集包含对来自世界各地的 34,886 部电影的描述。列描述如下:
- 发行年份: 电影发行的年份
- 标题:电影标题
- 起源:电影的起源(即美国、宝莱坞、泰米尔等)
- 剧情:主要演员
- 类型: 电影类型
- 维基页面- 从中抓取情节描述的维基百科页面的 URL
- 情节:电影情节的长篇描述
import numpy as np
import pandas as
以上是关于小白学习PyTorch教程十五BERT:通过PyTorch来创建一个文本分类的Bert模型的主要内容,如果未能解决你的问题,请参考以下文章
小白学习PyTorch教程十六在多标签分类任务上 微调BERT模型
小白学习PyTorch教程六基于CIFAR-10 数据集,使用PyTorch 从头开始构建图像分类模型
小白学习PyTorch教程十七 PyTorch 中 数据集torchvision和torchtext