bert

Posted gxli

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了bert相关的知识,希望对你有一定的参考价值。

transformer

详解Transformer (Attention Is All You Need) - 知乎
https://zhuanlan.zhihu.com/p/48508221

[整理] 聊聊 Transformer - 知乎
https://zhuanlan.zhihu.com/p/47812375

  1. Attention Is All You Need(Transformer)算法原理解析 - hyc339408769 - 博客园
    https://www.cnblogs.com/huangyc/p/9813907.html

Transformer 模型的 PyTorch 实现 - 掘金
https://juejin.im/post/5b9f1af0e51d450e425eb32d

bert

bojone/bert4keras: keras implement of transformers for humans
https://github.com/bojone/bert4keras






以上是关于bert的主要内容,如果未能解决你的问题,请参考以下文章

NLP面试QA预训练模型

每日学习记录20230321_Bert

年度大盘点:机器学习开源项目及框架

NLP预训练发展小结二(Bert之后)

系统学习NLP(三十二)--BERTXLNetRoBERTaALBERT及知识蒸馏

系统学习NLP(三十二)--BERTXLNetRoBERTaALBERT及知识蒸馏