GPT-4 还没玩透,GPT-5已遭众人围剿
Posted yinmaisoft
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了GPT-4 还没玩透,GPT-5已遭众人围剿相关的知识,希望对你有一定的参考价值。
GPT-4 火爆全球,引发了人工智能大浪潮。OpenAI、微软、谷歌、百度都在不断释放王炸,所有人都相信,AI 的就是未来的生产力。
网友们在体验了性能炸裂的GPT-4之后,显然已经迫不及待地等着GPT-5的到来了。据报道 GPT-5 将于今年冬天推出,并可能在人工智能领域带来一场重大革命,也就是AGI。
「AGI是具备与人类同等智能、或超越人类的人工智能,能表现正常人类所具有的所有智能行为」
一旦人工智能达到AGI,它在理解概念和任务方面将与人类相似。这既令人难以置信地令人兴奋又令人恐惧,因为我们无法理解 AGI 将能够做什么。
对 GPT-5 潜在功能的预测
例如:
个性化的模板:可根据用户的具体需求和输入变量进行量身定制,提供更加个性化的体验。
允许用户调整 AI 的默认设置,包括专业性、幽默感、语气,甚至 AI 化身的人口统计学等方面。
自动将文本转换为不同的格式,如静态图像、短视频、音频和虚拟仿真。
高级数据管理:包括记录、跟踪、分析和分享数据,以简化用户工作流程,提高生产力。
辅助决策:通过提供相关信息和见解,协助用户做出明智的决定。
改进 NLP 能力:增强 AI 能够以更像人类的方式理解和响应自然语言的能力。
集成机器学习:允许 AI 随着时间的推移不断学习和改进,适应用户的需求和偏好。
俗话说,人红是非多,树未大已招风,这不,反对 AI 继续前进的声音就来了。
千人呼吁暂停AI训练
诸神各怀心思意难平,马斯克、苹果联合创始人 Steve Wozniak等上千名科技大佬和AI专家签署公开信,呼吁暂停超强AiGPT-5研发,为期6个月。
GPT-4强到发指,这6个月里,希望,所有 AI 实验室和独立学者都应该合力开发一套共享安全协议,用于高级 AI 的设计和开发,确保这些 AI 系统毋庸置疑的安全,如果不能迅速暂停,就应该让政府介入。
反对原因分析
信息安全
任何新技术的革新都会让人们感到不安,人工智能也不例外。ChatGPT的信息安全是人工智能最浅显的问题,ChatGPT可能会生产事实错误的内容,进而传播错误信息、虚假信息和彻头彻尾的谎言,对社会和个人造成危害。错误信息,对于企业而言,文本信息会经过员工的二次编辑和确认,才会发布;错误的代码会经过程序员的修改和验证,才会用于产品中,但AI的风险不可控,值得注意。
人身安全
GPT-4发布以来,不少人表示AI系统将威胁人类安全,AI将杀死人类。但就算是GPT-5、GPT-6、GPT-7也终究是活在互联网世界中,任他搅的天翻地覆,也不会直接对人类进行物理攻击。
但不可否认的是,AI未来确实存在风险,但我们不能饮鸩止渴,因为未来的风险而停止新技术的前进。
失业
AI会取代你的职业吗?某研究报告显示全球预计将有3亿个工作岗位被生成式AI取代,但是国内目前感觉良好。
现在的失业主要是国际经济形势带来的,而不是刚刚发展的AI系统带来的。ChatGPT只是一个工具,若说替代,机器人替换下来的劳动人口更多,但没有千名大佬站出来说要暂停机器人技术的发展。
ChatGPT让人惊艳的一点,就在于代码的自动生成和修改。其实很多程序员朋友都说,类似AI模型的能力还主要是辅助工作,根本代替不了一个懂业务、懂产品逻辑与实现方式的程序员。
在云计算与软件业,低代码开发,甚至无代码开发是近两年流行的热门概念。核心逻辑是利用代码库,将已有开发样例进行快速复写,整个开发过程中的人工成本趋近于0。
开源链接:https://www.yinmaisoft.com/?from=csdn
JNPF,依托代码开发技术原理因此区别于传统开发交付周期长、二次开发难、技术门槛高的痛点。大部分的应用搭建都是通过拖拽控件实现,简单易上手,通过为开发者提供可视化的应用开发环境,降低或去除应用开发对原生代码编写的需求量,进而实现便捷构建应用程序的一种开发平台,快速助力研发人员快速搭建出一套适合企业发展的方案。
利益
天下熙熙,皆为利来,天下攘攘,皆为利往,AI的热度大家都想蹭一波,专家们呼吁暂停训练比 GPT-4 更强大的 AI 系统,也是怕抢占了自己的市场。如果一枝独秀,那必定枪打出头鸟,只有减缓OpenAI的发展速度,才能给自己追赶的机会。
总结
AI不是洪水猛兽,暂停GPT-5训练的做法解决不了安全问题,只有技术演进和安全协议制定同步进行,才能实现科技繁荣。我们应该记住,我们只是在人工智能可以实现的开始阶段。无论它今天有什么限制,它都将在我们不知不觉中被消除。
所以,当务之急不是暂停训练比 GPT-4 更强大的 AI 系统,而是立即推动安全协议条款的研究。无论如何,12月份并不遥远,让我们拭目以待吧。
ChatGPT前传
文章目录
前言
对于目前火热的ChatGPT,总是想多聊些,那就写点其前身的知识点吧。
GPT概述
GPT(Generative Pre-trained Transformer)是OpenAI公司开发的关于自然语言处理的语言模型。这类模型在知识问答、文本摘要等方面的效果超群,更牛逼的是这居然都是无监督学习出来的模型。在很多任务上,GPT模型甚至不需要样本微调,就能在理解和执行效果上获得比当时最好的监督学习模型更好的性能。
我们就此捋一下GPT三代的历程:
- GPT-1 Improving Lanugage Understanding by Generative Pre-training
- GPT-2 Language Models are UnsupervisedMultitask Learners
- GPT-3 Language Models are Few Shot Learners
提前假设大家都是了解NLP的术语和Transformer结构的,不清楚的可以自行补充知识。
咱们一篇一篇地捋一捋,分别搞清楚基本目标和概念、训练的数据集、模型结构和应用、效果和评估,也就差不多了。先上个一揽子对比图,快乐下。
GPT-1代
在此之前,大部分SOTA的NLP模型都是在特定任务上做有监督训练的,比如情感分类、文本含义等。通常来说,有监督是天然带有如下两个缺陷:
- 需要大量的标签数据来学习特定的任务,而这个打标签的过程是漫长而消耗财力的。
- 特定任务专项训练,也带来了没法向其他任务场景迁移和拓展的问题。
而这篇文章,提出了一个思路:用无标签数据来学习生成模型,然后根据下游任务做微调使用,比如像是分类、情感分析等。
无监督学习作为有监督微调模型的预训练目标,因此被称为生成预训练。
Unsupervised learning served as pre-training objective for supervised fine-tuned models, hence the name Generative Pre-training.
GPT-1 学习目标和概念介绍
- 无监督语言模型(Pre-training)目标如下:
L 1 ( T ) = ∑ i l o g P ( t i ∣ t i − k , . . . , t i − 1 ; θ ) L_1(T)=\\sum_i log P(t_i|t_i-k,...,t_i-1; \\theta) L1(T)=i∑logP(ti∣ti−k,...,ti−1;θ)
其中T表示时间序列下数据 t 1 , . . . , t n \\t_1,...,t_n\\ t1,...,tn,k表示时间窗口尺寸, θ \\theta θ表示自然语言的参数。 - 有监督微调学习,最大似然估计,目标如下:
L 2 ( D ) = ∑ x , y l o g P ( y ∣ x 1 , . . . , x n ) L_2(D)=\\sum_x,y log P(y|x_1,...,x_n) L2(D)=x,y∑logP(y∣x1,...,xn)
D表示带标签的训练数据集, x 1 , . . . , x n \\x_1,...,x_n\\ x1,...,xn是输入特征。
本文又构造了一个带辅助的学习目标,用来给有监督微调学习来用,以更快收敛且能得到更好的概括性(这里是通常直接最大化 L 2 ( D ) L_2(D) L2(D),但论文里专门设计了带有辅助的学习目标来作为优化目标,如下)。
L 3 ( D ) = L 2 ( D ) + λ L 1 ( D ) L_3(D)=L_2(D) + \\lambda L_1(D) L3(D)=L2(D)+λL1(D)
这里的 L 1 ( D ) L_1(D) L1(D)是辅助学习目标, λ \\lambda λ是超参,一般设为0.5,表示辅助学习目标对整体学习目标的贡献度。
下游任务的训练时,会在transformer层之后增加一层线性和softmax层,以此来学习下游任务。 - 特定任务的输入转换。为了最小化地修改模型结构,微调时会将下游任务的输入转换成有序序列,修改如下:
a. 在输入序列首尾增加起始和结束字符。
b. 在样本的不同部分之间,增加切分符,以表示输入的有序性。比如问答类任务,多个选项间就增加了切分符。
GPT-1 训练数据集
GPT-1使用BooksCorpus语料集。该语料包括大约7000本没出版过的书籍,能够学到一些市面上不可见的数据信息。而这类信息不太可能在下游任务中出现。另外,该语料还包括大量的连续文本,能够给模型提供了学习大范围独立性的可能性。
GPT-1 模型结构和应用细节
GPT-1模型使用了12层解码器,自注意机制的transformer结构。跟Transformer的原始结构是保持一致的。遮挡能够帮助模型扩大视野,学习到双侧信息。应用细节如下:
- 无监督训练
- 使用了大约4万个合并之后的字节对编码词表
- 输入token使用768维词向量表示,位置向量也同时在训练时候进行学习。
- 使用了12层自注意层,每层有12个Attention-Heads。
- 对位置前置层,有3072维的状态值来表达其信息。
- Adam优化器,学习率设置为2.5e-4。
- 正则化的部分,注意力、残差、向量dropout技术都用到了,其中dropout比例0.1,L2正则用在了非Bias参数上。
- GELU作为激活函数。
- 模型训练参数:epoch=100 ,batch=64,seq_len=512,模型共有117M的参数。
- 有监督调优
- 在下游任务上进行大约epoch=3轮的有监督微调。预训练已经学到了足够丰富的信息,这里只需要很少的轮次训练微调即可。
- 大部分预训练的超参都无需微调,直接使用。
GPT-1 效果性能和总结
在对比的12个专项SOTA的有监督模型学习任务中,GPT-1有9项是表现优异的。
GPT-1 performed better than specifically trained supervised state-of-the-art models in 9 out of 12 tasks the models were compared on.
另一个牛逼的地方是该模型在各项任务上的zero-shot优异表现。论文里指出该模型在不同的NLP任务上,像是问题回答、主题解析、情感分析等,都经过了zero-shot的效果评估。
GPT-1证明了一条路径是行得通的,即语言模型可以作为有效的预训练目标,从而提升其泛化性。这也为后序语言模型在大模型的邪路上狂奔提供了坚实的试验基础。GPT-1表明了迁移学习+微调的可行性,粗暴地展示了生成预训练的力量美,其他模型只需要通过更大的数据集和更多的参数,来解锁释放其巨大潜力即可。
GPT-2代
GPT-2就是利用更大的数据集和更多参数,来不断提升模型性能。其主要提升和术语概念如下:
GPT-2 学习目标和概念介绍
- 任务调整。语言模型的通用目标是 P ( o u t p u t ∣ i n p u t ) P(output|input) P(output∣input)。GPT-2为了能够使用同一个无监督模型来学习多任务,做了调整 P ( o u t p u t ∣ i n p u t , t a s k ) P(output|input, task) P(output∣input,task)。此处修改称之为任务微调,模型对不同任务做相同输入而产生不同输出。有的模型在架构级别实现任务调节,在架构级上提供输入和任务,注意与此处要区分开。
- zero-shot学习和zero-shot任务迁移。一个非常有意思的GPT-2能力是零样本任务迁移能力,零样本学习是零样本任务迁移的一个特例,即没有提供任何样本,模型直接根据指令来理解任务。不需要像GPT-1那样来调整序列作微调,GPT-2直接接受输入然后理解自然语言任务然再给出答案。
GPT-2 训练数据集
为了能够搞到高质量的数据集,论文作者们爬取了Reddit平台数据的高赞文章。最终大概有40GB文本数据,来自8百万文章,称之为WebText,比BookCorpus要更大。该训练数据集剔除了Wikipedia文档,但测试集中包含有Wikipedia文档。
GPT-2 模型结构和应用细节
GPT-2有15亿参数,比GPT-1大10倍有余(117M参数),与GPT-1的主要区别如下:
- GPT-2有48层,并且词向量是1600维的。
- 更大的词表字典,有50256个词。
- 更大的batch尺寸(512),更大的上下文窗口(1024个词)。
- 每个模块的输入层的Layer Normalization被去掉了,在最后的自注意模块上增加了一个Layer Normalization层。
- 初始化时,残差层的权重设置为 1 / N 1/\\sqrtN 1/N,其中N是残差层的数量。
作者分别训练了117M,345M,762M,1.5B大小参数的模型,每个模型依次比前一个模型要更低模糊性。这表明语言模型在同样语料上的模糊性(perplexity),要随着参数的增加而降低。因此,最大的模型也在各项下游任务上具有最好的效果表现。
GPT-2 性能效果和总结
GPT-2在很多下游任务上做了评估,比如阅读理解、内容总结、语言翻译、问题回答等。
- GPT-2在8项语言类任务上作zero shot时,能够提升其中7项SOTA效果。
- 儿童书籍数据集被用来评估模型在名词、介词、命名实体上的效果。GPT-2提升了通用名词和实体命名任务的最优效果大概7%。
- LAMBADA数据集被用来评估模型在确定长范围上的独立性和句子最后单词预测效果。GPT-2降低了模糊性从99.8到8.6,并且也显著提升了准确率。
- GPT-2在4项基线阅读理解任务的zero shot情况中有3项是效果显著的。
- 法语翻译成英语的任务中,GPT-2仅以zero shot模式就比大部分无监督模型要更好,但是比不上SOTA的效果。
- GPT-2暂时不能胜任文本总结类任务,它的效果稍次于分类模型。
GPT-2表明,在使用更多参数在更大的训练集上学习,可以有效提升语言模型能力来理解任务,并能够以zero shot模式下提升SOTA效果。论文指出,随着模型能力的提升,效果增加呈现log线性趋势。而语言模型的模糊性,则没有饱和的趋势,仍然随着参数的增加而持续下降。这表明GPT-2的尺寸仍然可以更大,来进一步降低模糊性并提升语言理解能力。
GPT-3代
为追求更大更强,OpenAI训练了拥有1750亿参数的GPT-3模型。这一模型比微软Turing NLG语言模型还要大10倍,比GPT-2大100倍。终于在大模型的邪路上越走越远了。鉴于其以超大规模的参数在更大规模语料上的训练学习,GPT-3以zero-shot和few-shot模式在下游任务上表现优异。不仅如此,还具有了写作能力,并与人类写作难以区分。更令人惊叹的是,它还可以执行从未明确训练过的即时任务,比如数字求和、编写SQL查询语代码、解读句子单词、编写React和JavaScript代码等。简直强到没朋友的那种。
GPT-3 学习目标和概念介绍
- 情境学习(In-context Learning)。大语言模型通过文本训练数据来提升自己的模式识别能力和其他能力。在学习根据已知文本预测下个词的主要任务时,语言模型也开始识别语料中的模式来降低学习损失。之后,这一能力有助于zero shot任务迁移。当被提供了很少样本,或者描述做什么的时候,语言模型匹配到了样本模式(通过过往相似数据和知识学习到的)来完成任务。这是语言模型的强大能力,可以通过模型参数数量来不断提升。
- few-shot, one-shot, zero-shot setting。如前所讨论,few/one/zero shot 设定是零样本任务迁移的特殊情况。在few-shot中,模型可知任务描述和少量样本;在one-shot中,模型只能得知一个样本;在zero-shot中,模型啥样本也获取不到。随着模型能力的提升,few/one/zero-shot下的模型能力都得到了提升。
GPT-3 训练数据集
GPT-3在5个不同的语料集上训练,每个语料集都有一个权重。高质量的数据集采样更多,模型在其上训练更多轮次。这五个数据集分别为Common Crawl, WebText2, Books1, Books2 和Wikipedia。
GPT-3 模型结构和应用细节
GPT-3与GPT-2的模型结构一致,只有很少的区别如下:
- GPT-3有96层,每一层有96个Attention heads。
- 词向量的尺寸从1600变为12888。
- 上下文窗口尺寸也从1024变为2048。
- Adam优化器的参数 β 1 = 0.9 ; β 2 = 0.05 ; ϵ = 1 0 − 8 \\beta_1=0.9;\\beta_2=0.05;\\epsilon=10^-8 β1=0.9;β2=0.05;ϵ=10−8
- 使用了交替稠密和局部带状稀疏注意力模式。
GPT-3 性能效果和总结
GPT-3比在数据集LAMBADA和PennTreeBank上训练的SOTA模型效果要好(在few/zero-shot模式下)。对其他数据集,则不能击败SOTA,但是能提升zeor-shot下的SOTA效果。GPT-3在闭卷问答、模式解析、翻译等任务中也变现不错,经常打平或超过最先进的微调模型。对大部分任务而言,该模型通常在few-shot下表现要好于 one/zero-shot模式下。
除了传统NLP任务评估之外,该模型还在算数假发、单词解读、新闻生成、学习和使用新词等综合任务上进行了评估。诸如此类的任务,模型效果也在随着参数增加而提升,模型也在few-shot下表现要好于one/zero-shot模式。
GPT-3 局限性和更广泛的影响
GPT-3的缺陷也在论文中讨论,并给出了进一步提升的地方。
- 尽管GPT-3能够产生高质量的文本,但在长句子下回失去连贯性且会不断重复片段。在某些任务中,GPT-3表现一般,比如自然语言推理(一个句子是否暗指另一个句子),完形填空,一些阅读理解任务等。论文指出,GPT模型的单向性是造成这类问题的大概原因,并建议训练双向模型以解决此类问题。
- 另外一个局限性,GPT-3使用通用语言建模目标,每个token的权重均等,缺少面向任务/目标预测的概念。为解决这类问题,论文提出了一些方法,比如增强学习目标,使用强化学习来微调模型,添加其他模式等。
- 其他GPT-3的局限性,包括大模型的复杂而昂贵的推理过程,模型和生成结果的低可解释性,不确定性(什么有助于模型实现其few-shot学习行为)。
- 除了上述局限性,GPT-3还存在着各种潜在风险,比如类人类文本生成能力的滥用-网络钓鱼、垃圾邮件、误导信息传播、其他欺诈行为。模型会受限于其训练语料的偏见,生成的内容也会具有性别、民族、种族和总监的偏见。因此,要非常谨慎小心地使用模型并且监督其生成的文本内容。
结束语
本文总结了3篇GPT相关的文章,作为ChatGPT的前传出现在这里,是想让大家在了解ChatGPT的时候,对其前期的技术积累有个基本的概要了解。想要了解更多,还是建议大家看论文本身。
Reference
- [1] Radford, A., Narasimhan, K., Salimans, T. and Sutskever, I., 2018. Improving language understanding by generative pre-training.
- [2] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D. and Sutskever, I., 2019. Language models are unsupervised multitask learners. OpenAI blog, 1(8), p.9.
- [3] Brown, Tom B., Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan et al. “Language models are few-shot learners.” arXiv preprint arXiv:2005.14165 (2020).
- [4] Rei, M., 2017. Semi-supervised multitask learning for sequence labeling. arXiv preprint arXiv:1704.07156.
- [5] Waswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L. and Polosukhin, I., 2017. Attention is all you need. In NIPS.
有个发表论文时,作者与编辑交流修改意见的网站
以上是关于GPT-4 还没玩透,GPT-5已遭众人围剿的主要内容,如果未能解决你的问题,请参考以下文章