ChatGPT - GPT-1GPT-2GPT-3 论文简读

Posted SpikeKing

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ChatGPT - GPT-1GPT-2GPT-3 论文简读相关的知识,希望对你有一定的参考价值。

欢迎关注我的CSDN:https://blog.csdn.net/caroline_wendy
本文地址:https://blog.csdn.net/caroline_wendy/article/details/128909400

GPT、GPT-2、GPT-3:Generative Pre-trained Transformer,生成式预训练Transformer

  • Wiki: https://en.wikipedia.org/wiki/GPT-3

  • GPT-3 Demo: https://gpt3demo.com/

时间线:

  1. Transformer, 2017.6, Attention is all you need
  2. GPT, 2018.6, Improving Language Understanding by Generative Pre-Training: 使用Transformer的解码器,在没有标签的文本上,预训练模型
  3. BERT, 2018.10, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding: Bidirectional Encoder Representations from Transformers,Transformer的编码器
  4. GPT-2, 2019.2,

以上是关于ChatGPT - GPT-1GPT-2GPT-3 论文简读的主要内容,如果未能解决你的问题,请参考以下文章

人工智能 ChatGPT想要快速了解 ChatGPT 吗?快来看这些关于 ChatGPT 的10个热门问题

让ChatGPT介绍一下ChatGPT

让ChatGPT介绍一下ChatGPT

类ChatGPT平台推荐国内访问ChatGPT4

ChatGPT硬刚ChatGPT!文心一言能否为百度止颓?中国版ChatGPT“狂飙”的机会在哪儿?

ChatGPT ChatGPT Sidebar 实战:自定义 ChatGPT 搜索页面回复模板(示例开发和文员专用模板)