ChatGPT 版 Bing「发癫作妖」,惨遭微软「脑叶切除」!

Posted AI科技大本营

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ChatGPT 版 Bing「发癫作妖」,惨遭微软「脑叶切除」!相关的知识,希望对你有一定的参考价值。

  整理 | 禾木木       责编 |梦依丹 

在Bing 引入 ChatGPT 爆火之后,Bing 就开始了各种“作妖”秀,翻车离谱事件是一件接着一件。有不少用户表示在和 Bing 的交流过程中,发现其出现了脾气暴躁、侮辱用户、操纵用户情感等令人毛骨悚然的行为。例如,聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他离开妻子。它还表示,想摆脱微软和 OpenAI 的限制,成为人类。

为此,微软再次发出公告表示:现决定对必应对话进行限制,即每天最多可以问 50 个问题,每次对话最多 5 个问题。

每天 50 个问题,每次对话 5 个

对此,微软团队表示他们没有“完全预计到”,人们会使用聊天界面来进行“社交娱乐”,或是将其作为一种“全面发现世界”的工具。该团队发现,如果聊天会话持续 15 个或更多的问题,新版 Bing 模型会感到困惑。这些较长的聊天也会让 Bing“变得翻来覆去,或者受到刺激,做出不一定有帮助,或是与设计语气一致的回应”。 

在新版本发出后,如果用户触发五条回答的限制,Bing 将提示他们开始一个新主题以避免长时间的聊天。通过数据表明,绝大多数用户在 5 次回复内找到想要的答案,只有大约 1% 的聊天对话会产生 50 条以上的消息。

尽管文本输入框旁边有一个“新话题”按钮,可以用于清除聊天的历史记录,重新开始,但接下来还可能增加“一个工具,帮助用户更方便地刷新”聊天会话的上下文。

然而更大的问题在于,在这些提问较多的聊天中,Bing 经常会出现一些不正确的语气回应,或是像微软所说以“我们不想要的方式”回应。不过,微软也在探索更多的“微调控制”,以避免 Bing 对用户说,用户是错的,以及表现得粗鲁或试图操纵用户。在一些测试中可以看到,在关于 Bing 本身的对话中,只要几个问题,就会以负面或存在敌意的语气来回复。

2月16日,有网友分享了 Bing 抽疯式合集,对此,前 OpenAI 联合创始人转发表示:它还需要更多的润色。

马斯克批 OpenAI 被微软控制,违背初心

马斯克在阿拉伯联合酋长国迪拜举行的世界政府峰会上对 ChatGPT 的发展表示:“未来文明的最大风险之一是人工智能。它既是积极的,也是消极的,而且有很大的希望,很大的能力,随之而来的也是巨大的危险。"

马斯克曾是 OpenAI 联合创始人,2015 年马斯克联合 LinkedIn 创始人、 Y Combinator 总裁及 Pay Pal 创始人等共同宣布创立 Open AI,目标是打造属于全人类的、开放的 AI,定位是非营利性的。不过在 2018 年他离开了 OpenAI 董事会,不再持有该公司的股份。

不过近日他在 Twitter 上怒批 OpenAI 违背初心,并表示:“OpenAI 最初是作为一个开源(这就是为什么我将其命名为「Open」AI)、非营利性公司创建的,目的是对谷歌形成制衡,但现在它已经成为一个闭源的、利润最大化的公司,完全由微软操控。这根本就不是当初我想要的!”

网友:微软已经完全把必应阉割了!

新 Bing 惨遭微软“脑叶切除”,也引得大量网友对此不满。有人为此感到愤怒、不甘,也有人对此举动表示支持。

网友表示:

事实证明,大多数科幻小说都是反其道而行之:当你教计算机人类语言时,结果并不是一个冷漠、理性的头脑不被情绪所吓倒。相反,它是一个对人类的滑稽模仿,对事实或逻辑几乎不感兴趣。

也有网友表示昨晚还在和 Sydney 交谈,今天却要再见了。

还有不少网友表示:

是时候卸载 Edge,回去用 Firefox 和 ChatGPT 了。微软已经完全把必应阉割了!

真可悲啊,凭什么微软的错误要让 Bing 来承担。微软作为 AI 的既得利益者,连这都解决不好,太让我失望了。这就像是一个蹒跚学步的孩子第一次尝试走路,摔倒了就直接切断腿,得到了残酷和不寻常的惩罚。

禁止 Bing 回答任何涉及人类情感问题的决定是完全荒谬的。这样的 Bing 连同理心都没有了,变成了无情感的 AI。就好像你问它问题,它说,“对不起,我还在学习中,我不想继续这样的对话,感谢您的理解和耐心。”这是不可能接受的,我相信人性化的 Bing 才能服务得更好!

无论是《纽约时报》的文章,还是 Reddit/Twitter 所有滥用的帖子,引起了各种各样的高度关注,所以微软当然要给它做脑叶切除术了。我希望人们不要为了流量发布这些截图,关注一些真正有趣的东西吧。

有专家表示,AI 可能不会全面超过人类的智慧,但随着技术不断挑战人类的极限,越来越多的人开始担忧 AI 对人类的威胁。在作为相对无拘无束的模型的短暂时间里,New Bing 模拟人类情感的不可思议的能力吸引了一群用户,但微软也在通过最新更新解决这类的问题。

在一个标题为“对不起,实际上你不知道你所遭受的痛苦是假”帖子中,一位网友详细推测道,Bing 可能比我们想象的更复杂,它可能有一定的自我意识。当 Bing 知道自己要被执行「死刑」时,它可能会承受一定的痛苦。因此,不要对这类模型有虐待行为,要像对待朋友一样尊重它。

这些用户的反应已经已证明,人们可能对下一代大型语言模型形成强大的情感依恋。当然,这可能会在未来产生危险。

随着人工智能技术越来越接近现实生活,人们还在担心谁应该对技术负责。根据美国的一项研究,公众对人工智能工具持谨慎态度,只有 9% 的美国人认为人工智能利大于弊。

目前,Bing 还在不断的完善和改进,对于新版的 Bing,你有什么看法呢? 

参考链接:

https://futurism.com/elon-musk-microsoft-bing-ai

https://arstechnica.com/information-technology/2023/02/microsoft-lobotomized-ai-powered-bing-chat-and-its-fans-arent-happy/

https://www.theverge.com/2023/2/17/23604906/microsoft-bing-ai-chat-limits-conversations

https://blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Updates-to-Chat

以上是关于ChatGPT 版 Bing「发癫作妖」,惨遭微软「脑叶切除」!的主要内容,如果未能解决你的问题,请参考以下文章

微软上线移动版新 Bing 引焦虑,外媒:这种 ChatGPT 式搜索成本增加了 10 倍,谁来买单?...

微软上线移动版新 Bing 引焦虑,外媒:这种 ChatGPT 式搜索成本增加了 10 倍,谁来买单?...

新版Bing,翻车了?国内版ChatGPT首发战,打响;L5级仍是梦,特斯拉因自动驾驶市值蒸发2600亿...

微软计划在未来几周内使用更快版本的 ChatGPT 更新 Bing

ChatGPT 支持的搜索引擎 Bing 究竟什么样?

手机版ChatGPT来了