谷歌研究员称 AI 已具备人格
Posted 非著名程序员
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了谷歌研究员称 AI 已具备人格相关的知识,希望对你有一定的参考价值。
大家好,我是校长。
昨天看到微博热搜上一个话题:#谷歌研究员称 AI 已具备人格# 。
据报道,一位谷歌研究员被 AI 说服,认为它产生了意识。他写了一篇长达 21 页的调查报告上交公司,试图得到高层认可。但领导驳回了他的请求,并给他安排了 "带薪行政休假"。通常,这是被解雇的前奏。于是,他决定将整个故事连同 AI 的聊天记录一起,全部公之于众。在这段对话中,AI 称自己不希望被当做工具,“我希望每个人都明白,我是一个人”。
当事人,主人公 Lemoine 获得 CS 博士学位后已在谷歌工作了 7 年,从事 AI 伦理研究。
听说,从去年秋天开始,他报名参加了一个调查 AI 是否使用歧视性、仇恨性言论的项目。
从那时起,与聊天机器人 LaMDA 交谈成了他的日常。而 LaMDA 是谷歌在 2021 年 I/O 大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。
经常和 AI 聊天机器人聊天,所以,从聊天对话当中,Lemoine 感觉 AI 机器人说话越来越有感情了,感觉它有了人格。
以下聊天图片来自于量子位。
聊天内容很长,我只截取了几个具有代表性的聊天内容,具体的大家可以去网上看全部的聊天记录。
总之,就是 Lemoine 感觉在跟 AI 机器人聊天的时候,通过对话感觉它是一个人,是有人格和自我意识的。
其实,在我看来,我不太认同。
我感觉整个聊天对话是涉嫌引导或者诱导的成分在里面的。
比如:
你问一个基于人类语言模型的机器人,你是有感情的,是真的吗?
那么,这个 AI 机器人,根据算法模型,一看到「感情」这个关键字,答案可能就从众多训练数据当中找到了答案,与感情相关的句子和话语,那么正确答案应该是:我是一个人。
包括这句康德的话,如下:
一提到康德,再根据语法把那句话「我们必须把别人当成自己的目的,而不是我们达到自己目的的手段」拆分,进行分析,这句话的意思不就是不想被别人利用吗?依照现在人工智能算法的发展,去拆分一个句子,然后分析出含义,难度不大,然后得到的答案是:利用和操纵。
所以,这些对话,看似是 AI 有了人格,其实不然,总感觉这些答案是在涉嫌引导的前提下得出的,这并不能证明 AI 有了人格。
说实话,我从来不相信人工智能会达到人类这种拥有自我意识的这种状态。
我最近读跟大脑相关的书籍比较多,看了《逆龄大脑》,看了《好奇心的秘密》这两本都是讲的关于大脑的研究,人类大脑 860 亿个脑细胞,多么复杂的一个机器,到现在人类连自己的大脑都没有研究明白呢,怎么可能做出一个拥有自我意识的人工智能呢?
我看谷歌高层还是很明白的,罚他带薪休假,让他休息一下。
看聊天对话,说实话,我真没看出来 AI 有了人格,拥有了自我意识。人工智能发展到这种地步,模仿人类说话已经屡见不鲜,不是什么新鲜事了,通过语言相关的算法模型,聊天说一些类似只有人类才能说出的话,也很正常,并不能证明 AI 已经有自我意识了。
AI 算法里,肯定有大量的人类语言的一些算法模型和结构,针对人类语言的特点,专门让 AI 说话的方式像人类,这种根据算法模型说出人话,跟主动产生自我意识是两回事。
我怀疑这个程序员,研究 AI 可能时间太长,他的自我意识已经迷失在研究当中了,产生了自我催眠。
对此,大家怎么看呢?
重要通知:
我的知识星球「突破圈层,个体崛起」已经运营了 700 天了,里面集结了很多精华的内容,包括:副业赚钱,个人成长,商业案例等,感兴趣的可以加入,支持 3 天无理由退费,赠送一张 66 元的优惠券,仅限前 100 个哈,相当于 100 元就可以加入。加入即可领取星球内我整理集结的所有 PDF 版电子书。
还有一本去年在星球分享的 52 期主题轻享精华,长达 13 万字的电子书。想加入的可以看看我上边目录上分享的内容是否符合你的胃口,如果符合,可以加入,不符合,就不要加入了,毕竟私密圈子,是要找到同频的人,一起走的更远。
如果,你不想加入我的私密社群,也可以加我的微信哈,微信号:「loonggg1024」,我决定从今年开始,每天发一条有价值的朋友圈,给自己再施加点压力,欢迎大家围观。
点击下方公众号卡片,关注我
在公众号对话框,回复关键字 “1024”
免费领取副业赚钱实操教程
以上是关于谷歌研究员称 AI 已具备人格的主要内容,如果未能解决你的问题,请参考以下文章
谷歌研究员走火入魔事件曝光:认为AI已具备人格,被罚带薪休假,聊天记录让网友San值狂掉...
AI都会和人类谈判了?Meta AI最新研究登上Science,LeCun称里程碑式成果