中文预训练模型ERNIE2.0模型下载及安装
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了中文预训练模型ERNIE2.0模型下载及安装相关的知识,希望对你有一定的参考价值。
2019年7月,百度ERNIE再升级,发布持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型, 它利用百度海量数据和飞桨(PaddlePaddle)多机多卡高效训练优势,通过深度神经网络与多任务学习等技术,持续学习海量数据和知识。基于该框架的艾尼(ERNIE)预训练模型,已累计学习10亿多知识,包括词法、句法、语义等多个维度的自然语言知识,有很强的通用语义表示能力,适用于各种NLP应用场景,效果提升明显,使用高效、便捷。
本篇内容教大家如何下载和使用!
一、预训练模型下载
ERNIE 2.0 英文 Base 模型
https://ernie.bj.bcebos.com/ERNIE_Base_en_stable-2.0.0.tar.gz
包含预训练模型参数、词典 vocab.txt、模型配置 ernie_config.json
ERNIE 2.0 英文 Large 模型
https://ernie.bj.bcebos.com/ERNIE_Large_en_stable-2.0.0.tar.gz
包含预训练模型参数、词典 vocab.txt、模型配置 ernie_config.json
二、数据下载
中文数据:https://ernie.bj.bcebos.com/task_data_zh.tgz
英文数据:由于数据集协议问题,在这里无法直接提供英文数据集。GLUE 的数据下载方式请参考GLUE 主页(https://gluebenchmark.com/tasks)以及 GLUE 提供的数据下载代码(https://gist.github.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e )。
假设所有数据集下载放置的路径为$GLUE_DATA,将数据下载完毕后,执行
sh ./script/en_glue/preprocess/cvt.sh $GLUE_DATA
将完成所有数据的格式转换,默认转换后的数据会输出到文件夹./glue_data_processed/。
三、PaddlePaddle安装
本项目依赖于 Paddle Fluid 1.5,请参考安装指南
(https://www.paddlepaddle.org.cn/#quick-start )进行安装。
【重要】安装后,需要及时的将 CUDA、cuDNN、NCCL2 等动态库路径加入到环境变量 LD_LIBRARY_PATH 之中,否则训练过程中会报相关的库错误。具体的paddlepaddle配置细节请查阅:
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/beginners_guide/quick_start_cn.html
如果您想了解更多的 Paddle 的相关信息,例如针对实际问题建模、搭建自己网络等,这里有更多的来自官方的文档供您参考:
? 基本概念 :介绍了 Fluid 的基本使用概念
? 准备数据 :介绍使用 Fluid 训练网络时,数据的支持类型及传输方法
? 配置简单的网络: 介绍如何针对问题建模,并利用 Fluid 中相关算子搭建网络
? 训练神经网络:介绍如何使用 Fluid 进行单机训练、多机训练、以及保存和载入模型变量
? 模型评估与调试:介绍在 Fluid 下进行模型评估和调试的方法
ERNIE的其他依赖列在requirements.txt文件中,使用以下命令安装
划重点!
查看ERNIE模型使用的完整内容和教程,请点击下方链接,建议Star收藏到个人主页,方便后续查看。
GitHub:https://github.com/PaddlePaddle/ERNIE
版本迭代、最新进展都会在GitHub第一时间发布,欢迎持续关注!
也邀请大家加入ERNIE官方技术交流QQ群:760439550,可在群内交流技术问题,会有ERNIE的研发同学为大家及时答疑解惑。
以上是关于中文预训练模型ERNIE2.0模型下载及安装的主要内容,如果未能解决你的问题,请参考以下文章
NLP预训练模型-百度ERNIE2.0的效果到底有多好附用户点评
NLP预训练模型-百度ERNIE2.0的效果到底有多好附用户点评
深度学习核心技术精讲100篇(八十一)-NLP预训练模型ERNIE实战应用案例
深度学习核心技术精讲100篇(八十一)-NLP预训练模型ERNIE实战应用案例
6.5bert的家族成员-百度的ERNIE,ERNIE2.0,清华的ERNIE,RoBERTa,BERT-WWM,UniLM,MASS,TinyBERT,ELECTRA,SpanBERT