2020年中文NLP顶级预训练模块
Posted demo-deng
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了2020年中文NLP顶级预训练模块相关的知识,希望对你有一定的参考价值。
对于BERT后时代,不得不说强有力的预训练模型是刷榜、出色完成任务的基础,现在列举几个对此很有帮助的资源,同大家一起进步!!!
一:互联网新闻情感分析复赛top8(8/2745)解决方案及总结; 地址:https://zhuanlan.zhihu.com/p/101554661
大佬的这篇知乎博客总结的非常好,打开了另一块天地,同学们可以深挖这里面的内容
二:CCF BDCI 2019 互联网新闻情感分析 复赛top1解决方案;地址:https://github.com/cxy229/BDCI2019-SENTIMENT-CLASSIFICATION
站在巨人的肩膀上,你将成长更快
三:哈工大的RoBERTa-wwm-ext-large; 地址:https://github.com/ymcui/Chinese-BERT-wwm
深入学习里面的东西
四:中文预训练RoBERTa模型;地址:https://github.com/brightmart/roberta_zh
也不错
少年们,加油吧!!!
以上是关于2020年中文NLP顶级预训练模块的主要内容,如果未能解决你的问题,请参考以下文章
“四大模型”革新NLP技术应用,揭秘百度文心ERNIE最新开源预训练模型
最强 NLP 预训练模型库 PyTorch-Transformers 正式开源:支持 6 个预训练框架,27 个预训练模型