历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地

Posted python遇见NLP

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地相关的知识,希望对你有一定的参考价值。

点击上方 蓝色小字 关注 星标 ,更多干货,第一时间送达


历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地

    在自然语言处理领域中,预训练语言模型(Pretrained Language Models)已成为非常重要的基础技术,本仓库主要收集目前网上公开的一些高质量中文预训练模型,并将持续更新。包含自然语言理解系列模型,如BERT、RoBERTa、ALBERT、NEZHA、XLNET、MacBERT、ELECTRA、ZEN、ERNIE。自然语言生产系列模型,如GPT、NEZHA-GEN、UniLM

https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地


- END -

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地欢迎各位NLPer加入(医疗)自然语言处理技术交流群

进群请备注:研究方向+昵称PS等广告勿扰,谢谢

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地长按识别添加,即可进群


历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地

长按二维码识别关注

以上是关于历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地的主要内容,如果未能解决你的问题,请参考以下文章

CMU预训练模型最新综述:自然语言处理新范式—预训练Prompt和预测

最新《知识增强预训练语言模型》

最新《知识增强预训练语言模型》

自然语言处理预训练模型的研究综述

自然语言处理中的语言模型预训练方法

预训练在自然语言处理的发展: 从Word Embedding到BERT模型