《自然语言处理实战入门》深度学习 ---- 预训练模型的使用(ALBERT)

Posted shiter

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《自然语言处理实战入门》深度学习 ---- 预训练模型的使用(ALBERT)相关的知识,希望对你有一定的参考价值。


简介

bert 回顾

bert 两阶段 模式:预训练 + 微调

BERT 的总体预训练和微调程序。 除了输出层,在预训练和微调中都使用相同的体系结构。 相同的预训练模型参数用于初始化不同下游任务的模型。 在微调期间,所有参数都将进行微调。 [CLS]是在每个输入示例前添加的特殊符号,而[SEP]是特殊的分隔符(例如,分隔问题/答案)。

以上是关于《自然语言处理实战入门》深度学习 ---- 预训练模型的使用(ALBERT)的主要内容,如果未能解决你的问题,请参考以下文章

《自然语言处理实战入门》深度学习 ---- 预训练模型的使用(ALBERT 进行多标签文本分类与CPU 下的微调 fine tune)

《自然语言处理实战入门》深度学习 ---- 预训练模型的使用(ALBERT 进行多标签文本分类与使用windows11 在WSL GPU 下的微调 fine tune)

《自然语言处理实战入门》深度学习基础 ---- attention 注意力机制 ,Transformer 深度解析与学习材料汇总

《自然语言处理实战入门》深度学习基础 ---- attention 注意力机制 ,Transformer 深度解析与学习材料汇总

自然语言处理预训练模型的研究综述

基于深度学习的自然语言处理—前预训练时代的自监督学习