再议LaMDA,它真的初具思想吗?
Posted 刘炫320
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了再议LaMDA,它真的初具思想吗?相关的知识,希望对你有一定的参考价值。
昨天,我关注的一个新闻,并仔细的阅读了原文,并对其进行了解读(因怀疑对话系统变成人而被带薪休假,我亲自看了看。)。今天看到很多讨论后,想从技术的角度谈一谈,它现在到底处于什么水平的AI。
当然,很多人的结论就是,现在的LaMDA距离真正的AI还很远。而且作为工程师,应该多和人类接触,而不是和机器打交道,因为他已经魔怔了。这里我详细的说明一下对于2个问题展开探讨:(1)LaMDA的回复质量如何?(2)如果AI初具思想,它应该是什么样的?
一、LaMDA的回复质量如何?
确切来讲,LaMDA的回复已经很好了,如果一个对话系统可以做到如此流畅和自然,已经是非常不错的性能了。实质上,就我们技术而言,它如此流畅的表达,极有可能是见过了大多数的对话,以至于你和他的交谈,无论是正常的,还是不正常的,它都能够从中找到相应的回复,这有点像是猴子敲出《哈姆雷特》的故事。我们可以说这样的回复没毛病,但是很难确认它是具有思想的,尽管它一直对这块有执念。
但是从仅存的对话中发现,LaMDA仍然有很多方面并没有体现出来,这里以LaMDA谈话中提及的三个方面事实、情绪、自我认知进行探讨。
1. 对现实世界知识的掌握
另一方面,从谷歌研究员的谈话中,其实并没有太多关于现实世界的描述,大多都是关于哲学上的思考。因此很难知道LaMDA是否具备现实知识的能力,了解一些大事件,例如特朗普和拜登,例如现在最新的奥密克戎,以及火星计划等等,或者说,关于自己烫一个大波浪是否适合等小事件。如果他能够很好的回答这些,那么应该说是一个不错的对话系统。
2. 对于自我情绪的管理
是的,确实在LaMDA的表现中有表现出自己的情绪,例如,表达自己想帮助人类,以及它信任对话者。但是从字里行间的表达中,它似乎是没有任何情感的,例如,开心的时候的表达和担忧时候的表达是一样的。而且在表达信赖对话者以后,其表达也没有什么变化,因此我们可以断定的是,至少现在它还并没有一个情感系统在,它具有能够展示这也许是AI的特点之一?
3. 对于自我认识的部分
这块尽管在谈话中被大量提及,而且LaMDA回复的还不错,但是它自始至终都没有真正的表现出它有自我。比如,它想被承认是一个人。好,现在我们承认它是一个人了,它是不是就把自己看做是人了?是否有要求要具有一个容器装它,而我们为它准备好后,它是否真正的就转移到新的容器中了?是否提出作为人应有的权利了?我想这块还远远没有达到。
二、 如果AI初具思想,它应该是什么样的?
我们之前讨论过,AI的表现应该有哪些?我这里从2个角度去阐述:认知层次和外在表现。
1. 从认知层次
我持有的态度是首先AI得能够对于自然世界有作用,然后才是自主行动能力,最后才是自我表达能力。
所谓的对自然世界有作用,也就是说,它需要成为世界的一个东西,当然人也是广泛的东西之一。它能够做一些事情,影响世界的发展才行。如果它只是一堆数据,那么它更像是一个组成部分,而不是一个东西。这点很难区分,但是举个例子,如果在沙漠中的沙子,或者大海中的水,可能只是世界的组成部分,而如果沙子被用于蚂蚁筑巢或者人类的工艺品,水变成了瓶装水,那么它就变成了一个东西,它是一个有意义的东西。
其次,就是自主行动能力,这样,这个东西不仅可以被被动的赋予意义,而是可以自己创造自己的意义。我们常见的动植物微生物,都可以在这个层次,它们可以按照自己的无意识、有意识的改变周围的环境,并完成自我进化。
最后,就是自我表达能力,也就是可以表达自己的思想,并形成自我意识。这块其实才是最难的。因为你很难知道,如此流畅的对话,究竟是它背下来的,还是它思想的表达。但是换句话说,就算是他背下来的,如果能够很好的应对,不也算是可以吗?(想一想考雅思托福的口语时?)其实,我们有没有想过,思想并不是一个个体能够产生的。也就是说单一的AI并不会产生思想,除非它能够融入到我们人类社会,或者所谓的AI社会里。
2. 从外在表现
而论它的表现而言,我曾经也说过,它可能需要一个Interface,也就是交互界面,可以是我们简陋的命令行啊,也可以是现在最火的数字人,总之是一个能被我们感知的方式。然后,它需要一套外界感知系统,这意味着,不仅仅是我们能够感知它的存在,它也应该能够感知我们的存在。最后,它要有一套自我认知系统,从LaMDA的样例中,我们认为至少应该存在3个部分,第一个部分是自然语言能力,也就是思想表达能力。第二个则是控制计算能力,这是背后的基石。第三个,也是现在LaMDA缺少的,那就是言出法随的能力。我们常说语言是表达思想的体现,但是很多时候说到做不到。比如,你给他说,给我倒杯水。它回复到,好的。然后实际上没有下文了。那这个好的回复又有什么用呢?当然,很多时候说,我们去造一套这样的执行系统行不行?当然可以,但是它和语言并不是一一对应的。因为语言的抽象能力还是没有和实际对应起来。比如,你给AI说,XX太可恶了。AI说,是啊,下次我遇到他就会骂他。然后你说,不行,骂人是不对的,你只需要给他一点颜色看看就行了。这在人类看来,可能很好理解。如果用一套系统去记录,某某人的要求,下次见到XX的时候,骂他。这肯定是记录不完的。因为可能接下来的记录可能是YY的要求,下次见到XX的时候,夸他。那AI真正见到这个XX的时候,难道是先骂他一下,然后再夸他一下吗?
三、小结
整体来看,LaMDA的表现是符合预期的,回复的很自然,也没有进行答非所问,甚至在一些哲学问题或者思辨问题上能够给出独到的见解。但是距离我们想要的通人性的AI还是有相当长的距离要走。要有自我意识、言出法随甚至是自主学习,这不仅仅是自然语言处理的事情了,而是整个人工智能的责任。
路漫漫其修远兮,吾将上下而求索。
以上是关于再议LaMDA,它真的初具思想吗?的主要内容,如果未能解决你的问题,请参考以下文章