百度飞桨各个库版本记录!

Posted 汀、

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了百度飞桨各个库版本记录!相关的知识,希望对你有一定的参考价值。

1.PaddleNLP

PaddleNLP是一款简单易用功能强大的自然语言处理开发库。聚合业界优质预训练模型并提供开箱即用的开发体验,覆盖NLP多场景的模型库搭配产业实践范例可满足开发者灵活定制的需求。

PaddleNLP v2.4发布!Release PaddleNLP v2.4.0 · PaddlePaddle/PaddleNLP · GitHub

  • 💎 发布NLP 流水线系统 Pipelines ,插拔式组件设计,飞桨SOTA模型快速串联,Docker低门槛一键部署,让解决 NLP 任务像搭积木一样便捷、灵活、高效!10分钟搭建检索、问答等复杂系统。
  • 🌈 新增文本分类系统方案,覆盖多分类、多标签、层次分类多场景,支持预训练微调、小样本Prompt tuning、语义索引分类创新方案;基于TrustAI 可信计算、多样的数据增强策略,解决分类任务调优难题。
  • 💟 新增文本摘要功能,采用前沿模型UNIMO-text,基于大规模摘要语料,打造领先效果,支持一键预测和定制训练,打通 FasterGeneration 高性能推理; 🍭 新增文图生成、代码生成等趣味应用,支持 Taskflow 一键调用,打通 FasterGeneration 高性能推理;
  • 💪 新增UIE多语言版,支持中英文混合抽取;新增基于封闭域模型 GlobalPointer 的 UIE 数据蒸馏方案,推理速度提升100倍以上!
  • 📝 2022.8.1 PaddleNLP v2.3.5发布!CodeGen 对话式程序生成大模型发布,可Taskflow一键调用;通用信息抽取技术英文模型UIE en正式发布,支持英文各项信息抽取工作; RGL RGL是百度自研的 Prompt-based tuning 小样本学习算法,论文被 Findings of NAACL 2022 接收,欢迎大家使用!

PaddleNLP v2.3.5发布 https://github.com/PaddlePaddle/PaddleNLP/releases/tag/v2.3.5:
1. UIE英文版,欢迎各位在国际渠道传播;
2. 多分类、多标签、层次分类等文本分类系统方案,配套数据增强策略提升模型效果;新增小样本模型RGL;
3. 语义检索Neural Search 升级:新增部署和网页版系统全流程功能;新增无监督语义向量模型DiffCSE;
4. 代码生成模型CodeGen支持Taskflow一键调用,支持刷Leetcode、代码续写、根据注释生成代码等… …

  • 🍭 2022.6.29 PaddleNLP v2.3.4发布!ERNIE Tiny 全系列中文预训练小模型发布,快速提升预训练模型部署效率,通用信息抽取技术UIE Tiny 系列模型全新升级,支持速度更快效果更好的UIE小模型。

  • 🔥 2022.5.16 PaddleNLP v2.3全新发布!🎉

    • 💎 发布通用信息抽取技术UIE,单模型支持实体识别、关系和事件抽取、情感分析等多种开放域信息抽取任务,不限领域和抽取目标,支持一键抽取与全流程小样本高效定制开发。
    • 😊 发布文心大模型ERNIE 3.0轻量级模型,在CLUE上实现同规模结构效果最佳,并提供🗜️无损压缩⚙️全场景部署方案。
    • 🏥 发布中文医疗领域预训练模型ERNIE-HealthCBLUE中文医疗信息处理评测冠军模型。
    • 💬 发布大规模百亿开放域对话预训练模型PLATO-XL ,配合⚡FasterGeneration⚡快速实现高性能GPU并行推理加速。
  • 📬 2021.12.12 PaddleNLP v2.2发布!新增开箱即用的NLP能力Taskflow!配套语义检索、智能问答、评论观点抽取产业案例,快速搭建端到端NLP系统!配套视频课程直通车

1.1 UIE

多模型选择,满足精度、速度要求

模型结构语言
uie-base (默认)12-layers, 768-hidden, 12-heads中文
uie-base-en12-layers, 768-hidden, 12-heads英文
uie-medical-base12-layers, 768-hidden, 12-heads中文
uie-medium6-layers, 768-hidden, 12-heads中文
uie-mini6-layers, 384-hidden, 12-heads中文
uie-micro4-layers, 384-hidden, 12-heads中文
uie-nano4-layers, 312-hidden, 12-heads中文

2. ERNIE

GitHub - PaddlePaddle/ERNIE: Official implementations for various pre-training models of ERNIE-family, covering topics of Language Understanding & Generation, Multimodal Understanding & Generation, and beyond.

ERNIE/README.zh.md at develop · PaddlePaddle/ERNIE · GitHub

文心大模型ERNIE是百度发布的产业级知识增强大模型,涵盖了NLP大模型和跨模态大模型。2019年3月,开源了国内首个开源预训练模型文心ERNIE 1.0,此后在语言与跨模态的理解和生成等领域取得一系列技术突破,并对外开源与开放了系列模型,助力大模型研究与产业化应用发展。提醒: ERNIE老版本代码已经迁移至repro分支,欢迎使用我们全新升级的基于动静结合的新版ERNIE套件进行开发

  • 2022.8.18:
    • 图文跨模态预训练模型ERNIE-Vil2(base) 正式开源
  • 2022.5.20:
    • 最新开源ERNIE 3.0系列预训练模型:
      • 110M参数通用模型ERNIE 3.0 Base
      • 280M参数重量级通用模型ERNIE 3.0 XBase
      • 74M轻量级通用模型ERNIE 3.0 Medium
    • 新增语音-语言跨模态模型ERNIE-SAT 正式开源
    • 新增ERNIE-Gen(中文)预训练模型,支持多类主流生成任务:主要包括摘要、问题生成、对话、问答
    • 动静结合的文心ERNIE开发套件:基于飞桨动态图功能,支持文心ERNIE模型动态图训练。您仅需要在模型训练开启前,修改一个参数配置,即可实现模型训练的动静切换。
    • 将文本预处理、预训练模型、网络搭建、模型评估、上线部署等NLP开发流程规范封装。
    • 支持NLP常用任务:文本分类、文本匹配、序列标注、信息抽取、文本生成、数据蒸馏等。
    • 提供数据清洗、数据增强、分词、格式转换、大小写转换等数据预处理工具。
  • 2021.12.3:
  • 2021.5.20:
    • ERNIE 最新开源四大预训练模型:
      • 多粒度语言知识模型ERNIE-Gram 正式开源
      • 超长文本双向建模预训练模型ERNIE-Doc 正式开源
      • 融合场景图知识的跨模态预训练模型教程ERNIE-ViL 正式开源
      • 语言与视觉一体的预训练模型ERNIE-UNIMO 正式开源
  • 2020.9.24:
    • ERNIE-ViL 技术发布! (点击进入)
      • 面向视觉-语言知识增强的预训练框架,首次在视觉-语言预训练引入结构化的知识。
        • 利用场景图中的知识,构建了物体、属性和关系预测任务,精细刻画模态间细粒度语义对齐。
      • 五项视觉-语言下游任务取得最好效果,视觉常识推理榜单取得第一。
  • 2020.5.20:
    • ERNIE-GEN 模型正式开源! (点击进入)
      • 最强文本生成预训练模型正式开源,相关工作已被 IJCAI-2020 收录。
        • 首次把 ERNIE 预训练技术能力扩展至文本生成领域,在多个典型任务上取得最佳。
        • 您现在即可下载论文报告的所有模型(包含 base/large/large-430G)。
      • 首次在预训练阶段加入span-by-span 生成任务,让模型每次能够生成一个语义完整的片段。
      • 提出填充式生成机制和噪声感知机制来缓解曝光偏差问题。
      • 精巧的 Mulit-Flow Attention 实现框架。
  • 2020.4.30 发布ERNIESage, 一种新型图神经网络模型,采用ERNIE做为aggreagtor. 由PGL实现。
  • 2020.3.27 在SemEval2020五项子任务上夺冠
  • 2019.12.26 GLUE榜第一名
  • 2019.11.6 发布ERNIE Tiny
  • 2019.7.7 发布ERNIE 2.0
  • 2019.3.16 发布ERNIE 1.0

2.1 ERNIE3.0

https://github.com/PaddlePaddle/PaddleNLP/tree/develop/model_zoo/ernie-3.0#%E6%A8%A1%E5%9E%8B%E6%95%88%E6%9E%9C

文心大模型ERNIE 3.0 基础上通过在线蒸馏技术得到的轻量级模型,模型结构与 ERNIE 2.0 保持一致,相比 ERNIE 2.0 具有更强的中文效果。

 

本项目开源 ERNIE 3.0 Base 、ERNIE 3.0 Medium 、 ERNIE 3.0 Mini 、 ERNIE 3.0 Micro 、 ERNIE 3.0 Nano 五个模型:

2.2 ERNIE模型汇总

下表汇总介绍了目前PaddleNLP支持的ERNIE模型对应预训练权重

Pretrained WeightLanguageDetails of the model
ernie-1.0-base-zhChinese12-layer, 768-hidden, 12-heads, 108M parameters. Trained on Chinese text.
ernie-tinyChinese3-layer, 1024-hidden, 16-heads, _M parameters. Trained on Chinese text.
ernie-2.0-base-enEnglish12-layer, 768-hidden, 12-heads, 103M parameters. Trained on lower-cased English text.
ernie-2.0-base-en-finetuned-squadEnglish12-layer, 768-hidden, 12-heads, 110M parameters. Trained on finetuned squad text.
ernie-2.0-large-enEnglish24-layer, 1024-hidden, 16-heads, 336M parameters. Trained on lower-cased English text.
ernie-3.0-base-zhChinese12-layer, 768-hidden, 12-heads, 118M parameters. Trained on Chinese text.
ernie-3.0-medium-zhChinese6-layer, 768-hidden, 12-heads, 75M parameters. Trained on Chinese text.
ernie-3.0-mini-zhChinese6-layer, 384-hidden, 12-heads, 27M parameters. Trained on Chinese text.
ernie-3.0-micro-zhChinese4-layer, 384-hidden, 12-heads, 23M parameters. Trained on Chinese text.
ernie-3.0-nano-zhChinese4-layer, 312-hidden, 12-heads, 18M parameters. Trained on Chinese text.
rocketqa-base-cross-encoderChinese12-layer, 768-hidden, 12-heads, 118M parameters. Trained on DuReader retrieval text.
rocketqa-medium-cross-encoderChinese6-layer, 768-hidden, 12-heads, 75M parameters. Trained on DuReader retrieval text.
rocketqa-mini-cross-encoderChinese6-layer, 384-hidden, 12-heads, 27M parameters. Trained on DuReader retrieval text.

 PaddleNLP/contents.rst at develop · PaddlePaddle/PaddleNLP · GitHubEasy-to-use and powerful NLP library with Awesome model zoo, supporting wide-range of NLP tasks from research to industrial applications, including Neural Search, Question Answering, Information Extraction and Sentiment Analysis end-to-end system. - PaddleNLP/contents.rst at develop · PaddlePaddle/PaddleNLPhttps://github.com/PaddlePaddle/PaddleNLP/blob/develop/docs/model_zoo/transformers/ERNIE/contents.rst

3.PaddleSlim

PaddleSlim是一个专注于深度学习模型压缩的工具库,提供低比特量化、知识蒸馏、稀疏化和模型结构搜索等模型压缩策略,帮助开发者快速实现模型的小型化。

  •  2022.08.16:自动化压缩功能升级

    模型Base mAPval
    0.5:0.95
    ACT量化mAPval
    0.5:0.95
    模型体积压缩比预测时延FP32预测时延INT8预测加速比
    PPYOLOE-s43.142.63.9倍6.51ms2.12ms3.1倍
    YOLOv5s37.436.93.8倍5.95ms1.87ms3.2倍
    YOLOv6s42.441.33.9倍9.06ms1.83ms5.0倍
    YOLOv751.150.93.9倍26.84ms4.55ms5.9倍
    YOLOv7-Tiny37.337.03.9倍5.06ms1.68ms3.0倍
  • 🔥 2022.07.01: 发布v2.3.0版本

    • 发布自动化压缩功能
      • 支持代码无感知压缩:开发者只需提供推理模型文件和数据,既可进行离线量化(PTQ)、量化训练(QAT)、稀疏训练等压缩任务。
      • 支持自动策略选择,根据任务特点和部署环境特性:自动搜索合适的离线量化方法,自动搜索最佳的压缩策略组合方式。
      • 发布自然语言处理图像语义分割图像目标检测三个方向的自动化压缩示例。
      • 发布X2Paddle模型自动化压缩方案:YOLOv5YOLOv6YOLOv7HuggingFaceMobileNet
    • 升级量化功能
      • 统一量化模型格式;离线量化支持while op;修复BERT大模型量化训练过慢的问题。
      • 新增7种离线量化方法, 包括HIST, AVG, EMD, Bias Correction, AdaRound等。
    • 支持半结构化稀疏训练
    • 新增延时预估工具
      • 支持对稀疏化模型、低比特量化模型的性能预估;支持预估指定模型在特定部署环境下 (ARM CPU + Paddle Lite) 的推理性能;提供 SD625、SD710、RK3288 芯片 + Paddle Lite 的预估接口。
      • 提供部署环境自动扩展工具,可以自动增加在更多 ARM CPU 设备上的预估工具。
      • 2021.11.15: 发布v2.2.0版本

        • 支持动态图离线量化功能.
      • 2021.5.20: 发布V2.1.0版本

        • 扩展离线量化方法
        • 新增非结构化稀疏
        • 增强剪枝功能
        • 修复OFA功能若干bug

以上是关于百度飞桨各个库版本记录!的主要内容,如果未能解决你的问题,请参考以下文章

安装百度飞桨OCR库

百度端侧推理引擎 Paddle Lite 新增 ARM 端图像预处理库

我做的百度飞桨PaddleOCR .NET调用库

我做的百度飞桨PaddleOCR .NET调用库

PaddleHub

飞桨PaddlePaddle最新升级:更低门槛使用深度学习