基于GPT-4的AI自治系统总结

Posted BOTAI

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于GPT-4的AI自治系统总结相关的知识,希望对你有一定的参考价值。

集成ChatGPT和LLM到各种应用程序中只是使用语言模型的潜力的一部分。

ChatGPT和LLM技术的出现使得这些最先进的语言模型席卷了世界,不仅是AI的开发人员,爱好者和一些组织也在研究探索集成和构建这些模型的创新方法。各种平台如雨后春笋般涌现,集成并促进新应用程序的开发。

AutoGPT的火爆让我们看到越来越多的自主任务和代理利用了GPT-4的API。这些发展不仅增强了处理集成不同系统的复杂任务的能力,而且还推动了我们通过自主人工智能所能实现的界限。

我们这里将整理一些开源的类似AutoGPT的工具系统,这些工具和应用程序可以大致分为命令行接口(CLI)和基于浏览器的解决方案,HuggingGPT可以同时支持这两种解决方案。

命令行:AutoGPT, BabyAGI

浏览器:AgentGPT, CAMEL, Web LLM

Auto-GPT

尽管Auto-GPT是一个实验性的开源应用程序,但是它的增长是迅速的。该程序由GPT-4驱动,可以自主实现设定的任何目标。

GitHub: https://github.com/Significant-Gravitas/Auto-GPT

看看它的Github Star的增长幅度可以看到最近的火爆。

AgentGPT

AgentGPT是一种基于web的解决方案。它允许配置和部署自治AI代理,并让它完成任何目标。它将尝试通过思考要做的任务、执行任务并从结果中学习来达到目标。

该平台目前处于测试阶段,正在开发以下功能:

  • 通过矢量DB进行长期的记忆;
  • 通过LangChain(LangChain是一个用于构建基于大型语言模型LLM的应用程序的库)进行web浏览;
  • 与网站和人的互动;
  • 用户和身份验证。

GitHub: https://github.com/reworkd/AgentGPT

网站: https://agentgpt.reworkd.ai/

BabyAGI

BabyAGI任务驱动自治代理的精简版本。

它的主要思想是基于先前任务的结果和预定义的目标来创建任务。然后,脚本使用OpenAI的语言模型功能来创建基于目标的新任务,Pinecone来存储和检索上下文的任务结果,这可以说是最精简的自治AI架构了,如果你对这个方向有兴趣,可以看看他的代码。

GitHub: https://github.com/yoheinakajima/babyagi

网站: http://babyagi.org/

 

HuggingGPT

微软的HuggingGPT,又名JARVIS,它包括一个LLM作为控制器和许多专家模型作为协作执行者(来自HuggingFace Hub)。它工作流程包括四个阶段:

  • 任务规划:使用ChatGPT分析请求以了解意图,并将其分解为可能的可解决任务。
  • 模型选择:使用ChatGPT根据描述选择专家模型。
  • 任务执行:调用并执行每个选定的模型,并将结果返回给ChatGPT。
  • 响应生成:最后,使用ChatGPT集成所有模型的预测并生成响应。

GitHub: https://github.com/microsoft/JARVIS

HF: https://huggingface.co/spaces/microsoft/HuggingGPT

 

Web LLM

Web LLM是一个基于LLM和基于LLM的聊天机器人,在没有服务器支持的情况下在浏览器内运行,并通过WebGPU加速。从技术上讲,Web LLM不是人工智能的自治解决方案,而是轻量级的网络聊天机器人。

GitHub: https://github.com/mlc-ai/web-llm

 

CAMEL

CAMEL  是 ”Communicative Agents for ‘Mind’ Exploration of Large Scale Language Models“的缩写,它提出了一种新颖的代理框架,即角色扮演,作为 AutoGPT 和 AgentGPT 的替代方案。

GitHub: https://github.com/lightaime/camel

网站: http://agents.camel-ai.org/

 

GPTRPG

这个系统将游戏和大语言模型结合,主要包含2个部分。‍

一个支持llm的AI代理的简单的类似rpg的环境,通过OpenAI API将AI代理植入到游戏环境的角色中。

这是基于最近发布的一篇论文,其中部署了多个代理来自主参与在线游戏。

GitHub: https://github.com/dzoba/gptrpg

Arxiv:https://arxiv.org/abs/2304.03442

 

 

Voyager

英伟达首席科学家Jim Fan等人把GPT-4整进了「我的世界」(Minecraft)——提出了一个全新的AI智能体Voyager。
Voyager的厉害之处在于,它不仅性能完胜AutoGPT,而且还可以在游戏中进行全场景的终身学习!
比起之前的SOTA,Voyager获得的物品多出了3.3倍,旅行距离变长了2.3倍,解锁关键技能树的速度快了15.3倍。
对此,网友直接震惊了:我们离通用人工智能AGI,又近了一步。

总结

集成ChatGPT和LLM到各种应用程序中只是使用语言模型的潜力的一部分。这些模型是为了处理自然语言任务而设计的,包括文本生成、翻译、摘要、问答等等。未来的语言模型将更加先进和智能,能够在更广泛的应用领域中提供帮助。

例如,未来的语言模型可以用于更准确的机器翻译,使人类之间的跨文化交流更加便利。他们也可以用于自动摘要和内容生成,以帮助作者和媒体机构更快地创建和发布内容。此外,语言模型也可以用于语音识别和自然语言处理,以便人们能够更好地与计算机交互。

总之,随着语言模型技术的不断进步,我们可以期待看到更多的创新和进步。这些模型将成为人工智能领域的核心技术,为我们提供更好的解决方案和更广泛的应用场景。

作者:Tristan Wolff

预测“叫停GPT-4后续AI大模型”后续:这是一个囚徒困境

文章目录


前言

生命未来研究所 (Future of Life Institute) 发表了一封公开信,信件:https://futureoflife.org/open-letter/pause-giant-ai-experiments/,呼吁暂停对比 GPT-4 更强大的模型进行 AI 训练,并有大量人签署了这份公开信,签署人包括马斯克及图灵奖获得者Bengio。

这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。因此,公开信呼吁,所有 AI 实验室应立即暂停训练比 GPT-4 更强大的 AI 模型,为期至少 6 个月。

这则消息发布后后,有国外网络针对上述公开信做了一份调研,调研结果如下:

很有趣,广大网友和签署签名的名人观点是完全相反的,大家并不同意这份公开信。这篇文章我想以这篇文章为引,深入探讨下背后的本质:AI安全管控以及预测下接下来AI大模型研发的后续走向。


一、公开信内容


公开信原文内容如下:

具有与人类竞争的智能的AI系统可能会对社会和人类产生深远的影响,正如大量研究和顶级AI实验室所承认的。正如广泛认可的Asilomar AI原则所述,先进的AI可能代表着地球生命历史上的一个深刻变革,应该得到相应的关注和资源进行规划和管理。不幸的是,尽管近几个月来AI实验室正陷入一场失控的竞赛,研发和部署越来越强大的数字思维,而无人能理解、预测或可靠地控制,这种规划和管理却没有得到实施。

现代AI系统现在已经在通用任务上具有与人类竞争的能力,我们必须问自己:我们是否应该让机器充斥我们的信息渠道,传播宣传和谎言?我们是否应该将所有工作都自动化,包括那些有成就感的工作?我们是否应该发展可能最终数量超过、智慧超越、淘汰并取代我们的非人类思维?我们是否应该冒着失去对文明的控制的风险?这些决定不应该委托给未经选举的科技领导者。只有当我们确信它们的影响是积极的,风险是可控的,才应该开发强大的AI系统。这种信心必须是充分合理的,并随着系统潜在影响的增大而增加。OpenAI关于人工通用智能的最近声明指出,“在某个时刻,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,应同意限制用于创建新模型的计算增长率。”我们同意。现在就是那个时刻。

因此,我们呼吁所有AI实验室立即暂停至少6个月的时间,停止训练比GPT-4更强大的AI系统。这个暂停应该是公开的、可以验证的,并包括所有关键参与者。如果这样的暂停不能迅速实施,政府应当介入并实行一个暂禁令。

AI实验室和独立专家应该利用这个暂停期共同制定并实施一套共享的先进AI设计和开发安全协议,由独立的外部专家严格审计和监督。这些协议应确保遵守它们的系统在合理怀疑之内是安全的[。这并不意味着要暂停AI发展,而仅仅是从一场危险的竞赛中退后,这场竞赛导致了越来越庞大的不可预测的黑箱模型以及突发性能力。

AI研究和开发应该重新关注于使现有的强大、先进的系统变得更加准确、安全、可解释、透明、稳定、符合人类价值观、可信和忠诚。

与此同时,AI开发人员必须与政策制定者合作,大力加快发展健全的AI治理系统。这些至少应该包括:致力于AI的新的、有能力的监管机构;对高能力AI系统和大型计算能力池的监督和跟踪;可以帮助区分真实与合成信息并跟踪模型泄漏的来源和水印系统;一个健全的审计和认证生态系统;对AI造成的损害承担责任;为技术AI安全研究提供充足的公共资金;以及应对AI将导致的严重经济和政治颠覆(尤其是对民主制度)的资金充足的机构。

人类可以在AI的帮助下拥有一个繁荣的未来。在成功创造出强大的AI系统之后,我们现在可以享受一个“AI夏天”,在这个时期我们可以收获成果,为所有人明确规划这些系统的利益,让社会有机会适应。在其他可能对社会产生灾难性影响的技术上,社会已经按下了暂停键。在这里我们也可以做到。让我们享受一个漫长的AI夏天,而不是毫无准备地冒险进入秋天。

二、公开信核心观点和诉求

上述公开信主要有以下几个重要观点:

  1. 具有与人类竞争智能的AI系统对社会和人类的潜在风险
  2. 现代AI系统在通用任务上的竞争力
  3. 技术决策的民主参与
  4. 暂停更强大AI系统的训练
  5. 重点关注AI系统的安全、可解释性、透明度、稳定性、符合人类价值观、可信和忠诚等方面的研究和开发
  6. 加速发展AI治理系统。

客观地说,上述观点在很大程度上关注了AI发展中的伦理、安全和社会责任问题。这些问题是当前AI技术发展中的关键议题,值得广泛关注和讨论,这也是博主想要去和大家分享的。

三、个人思考

其实,在文章开头,我们已经看到了,网络上大部分网友是反对禁止AI大模型研发的。

AI安全和伦理

暂停训练大型AI模型的建议在某种程度上反映了对AI安全和伦理问题的关切,但是这种行为一定程度上会抑制技术进步,大模型目前已经在许多领域取得了突破性的进展,网络上已经有各种层出不穷的应用了。有的使用大模型AI做自然语言处理,构造对话机器人,有的利用大模型AI来绘画,有的甚至利用大模型AI来预测蛋白质结构。

即使暂停大模型的研究也并不能完全解决AI安全问题。实际上,限制大型模型的研究可能会导致相关的安全研究陷入停滞,从而使得未来的AI系统更容易受到潜在的安全威胁。

囚徒困境

在AI领域,公开信提出的关于暂停训练大型模型的建议引发了广泛关注。然而,在实际操作中,这一建议可能面临一个囚徒困境的问题。囚徒困境是指在博弈论中,各方面临合作与背叛的选择,而由于各自利益最大化的驱动,最终导致双方陷入非最优的结果。在这个情境下,各AI实验室面临的问题是:要么继续研发大型模型,要么放慢研发脚步。由于博弈论的影响,各方可能都不会选择放慢研发大型模型的脚步。

我们从竞争、经济利益和政策法规的角度来分析,为何最后大家并不会放慢研发大模型的角度脚步:

首先,从竞争的角度看,各AI实验室都希望在研发大型模型方面取得领先地位。目前,在全球范围内,大模型技术正处于一个激烈竞争的阶段,从ChatGPT到文心一言,从文心一言到GPT-4,再从GPT-4到Google Bard,以及微软的New Bing,各大公司乃至各国都在争夺AI领域的制高点。如果某个实验室或机构选择放慢研发脚步,那么很可能会被其他竞争对手超越,从而在市场上失去竞争优势。在这种情况下,各AI实验室、公司机构为了维护自身的利益,很难做出放慢研发脚步的决策。

其次,从经济利益的角度考虑,大型模型在许多领域都具有巨大的商业价值。这些模型可以应用于自然语言处理、计算机视觉、生物科学等领域,为企业带来可观的收益。ChatGPT用最短的时间实现月活破亿,文心一言发布会首日,就有八万家企业争相合作,这些都说明了市场对大型模型研究的热切回应。在这种情况下,各AI实验室都有动力加快研发大型模型的脚步,以期在市场上获得更高的回报。这意味着,即使实验室之间存在合作的可能性,但在经济利益的驱动下,各方可能仍然选择继续研发大型模型。

再者,从政策和法规的角度分析,目前尚缺乏对AI领域的全球性监管框架。这意味着,在没有统一的政策和法规约束的情况下,各AI实验室可能会继续加快研发大型模型的脚步。在这种情况下,即使部分实验室意识到了囚徒困境的存在,但由于缺乏有效的监管机制,他们可能仍然无法在行动上做出相应的调整。

因此最终时代洪流还是会滚滚向前,发展的脚步永不停歇!


总结

马斯克及Bengio一众大佬的公开信,无疑有着他们自己的考量,他们更多担心AI竞赛会导致各方在安全和伦理问题上的短视行为。在追求技术创新和经济利益的过程中,各AI实验室可能会忽视大型模型可能带来的安全隐患和伦理挑战。因为剔除暂停AI大模型的研究,也是情理之中。再加上最近几个月,AI产品所带来的技术革新实在是令人震惊,虽然博主也反对这封公开信,希望继续进行AI研究。但是想想波士顿动力机器人搭配上GPT6,还是有点后怕呀~

最后附上ChatGPT相关资料、和社群信息,欢迎大家一起来讨论交流呀😄~

以上是关于基于GPT-4的AI自治系统总结的主要内容,如果未能解决你的问题,请参考以下文章

预测“叫停GPT-4后续AI大模型”后续:这是一个囚徒困境

Cursor编程初体验,搭载GPT-4大模型,你的AI助手,自然语言编程来了

地表最强AI,GPT-4专治各种不服

2023QECON参会有感

文心一言正式对标GPT-4,是青铜还是王者?

又一个基于 GPT-4 编写解释代码的工具,诞生了!