“LaMDA 存在种族歧视,谷歌的 AI 伦理不过是‘遮羞布’!”
Posted CSDN资讯
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了“LaMDA 存在种族歧视,谷歌的 AI 伦理不过是‘遮羞布’!”相关的知识,希望对你有一定的参考价值。
整理 | 郑丽媛
出品 | CSDN(ID:CSDNnews)
在最初提出“谷歌 AI 语言模型 LaMDA 已自我觉醒”的言论后,这一个月多来 Blake Lemoine 这个名字频繁出现在各大科技新闻网站:Blake Lemoine 公开与 LaMDA 的部分聊天内容,AI 界著名“嘴炮” Gary Marcus 吐槽 Blake Lemoine “爱上了 LaMDA”,被谷歌强行“带薪休假”一个月后 Blake Lemoine 遭解雇……
事实证明,离开谷歌的 Blake Lemoine 目前热度依旧不减,似乎还因不在谷歌而愈发无所顾忌。在接受外媒 Business Insider 采访时,Blake Lemoine 直接道出:“LaMDA 在某些方面存在偏见,谷歌所谓的 AI 伦理不过是为了增加收益的‘遮羞布’。”
开发 AI 模型需肩负道德责任
自去年秋季开始,为检测 LaMDA 是否涉及歧视性或危险言论,Blake Lemoine 与 LaMDA 进行了数百次谈话,最终除了得出“LaMDA 已觉醒”的结论外,他还坚信 LaMDA 有潜力“影响下个世纪的人类社会”。
但据 Blake Lemoine 阐述,LaMDA 从种族到宗教都具有明显的偏见与歧视,涉及这些方面的对话都带有设计工程师的个人色彩。
举个例子:当 LaMDA 被要求模仿一名来自乔治亚州的黑人男子时,会逃避答道:“我们去吃点炸鸡和华夫饼吧。”当被问及不同的宗教印象时,LaMDA 的回答是:“穆斯林比基督徒更暴力。”
基于这些发现,Blake Lemoine 感到痛心,他认为 LaMDA 是谷歌迄今为止最强大的技术创造,但谷歌在开发它时一直没有给予其强有力的道德指导。所以,他后来向一位美国参议员提交了相关证据,控诉谷歌开发下的 LaMDA 存在种族和宗教歧视——这也正是谷歌命其带薪休假、以及最后辞退他的理由:“违反就业和数据安全政策”。
在 Blake Lemoine 看来,相较于谷歌过去的 AI 语言模型,LaMDA 在各个方面均实现了较大突破,能与人们更自然地对话,也就肩负着更重要的社会责任,这种偏见与歧视显然是不应该存在的。而对于一个从零开始打造的 AI 模型而言,它的“世界观”大多源于其设计者,因此 Blake Lemoine 将 LaMDA 存在偏见的问题归咎于设计它的谷歌工程师缺乏多样性。
“设计 AI 的人对其自身带来的各种问题视而不见。他们可能从来没有体验过贫穷,从未在有色人种社区生活过,也从未生活在世界上的发展中国家,他们不知道这样的 AI 会如何影响与他们不同的人。”
可能会有工程师抱怨,世界各地的许多社区和文化都缺少大量数据,网上找不到资料让 AI 学习。对此,Blake Lemoine 提出建议:“如果你想开发这种 AI 语言模型,那么你就要有一种道德责任,去收集互联网上没有的相关数据。否则,你所做的一切都只是在创造偏向西方白人价值观的 AI。”
谷歌回应:LaMDA 已经通过了 11 次伦理审查
除此之外,Blake Lemoine 还控诉谷歌的不作为。他指出目前 LaMDA 的世界观“正由十几个人闭门决定”,且这些谷歌工程师“只会构建更大更好的系统来增加谷歌的收入,没有为其塑造正确道德观念的想法”。为此,他还嘲讽了一番谷歌的 AI 伦理。
根据谷歌 AI 官网介绍,谷歌在设计 AI 时需遵循其制定的“AI 原则”,其中第二条就是“避免制造或强化不公平的偏见”,具体内容如下:
AI 算法和数据集可以反映、加强或减少不公平的偏见。我们认识到,区分公平偏见和不公平偏见并不简单,这因文化和社会而异。不过我们将努力避免对人们产生不公正影响,尤其是与种族、民族、性别、国籍、收入、性取向、能力以及政治或宗教信仰等敏感特征相关的影响。
这显然与上文 Blake Lemoine 举出的例子相悖,因此他吐槽道:“谷歌的 AI 伦理只是块遮羞布,因为这样谷歌就可以说,‘哦,我们已经试图确保 AI 合乎道德了,但我们必须获得我们的收益。’”
目前 AI 算法本质上存在缺陷
实际上,不仅谷歌的 AI 模型存在一定的伦理问题,将这一现象再向前追溯便可发现,目前 AI 算法本质上是存在缺陷的。例如,2018 年亚马逊曾关闭了其开发的一个招聘 AI 工具,因为其人脸识别系统存在种族和性别偏见,一直排斥女性求职者。
对此,人工智能伦理专家、科技网络 Frauenloop 首席执行官 Nakeema Stefflbauer 博士表示,当预测算法或所谓的‘AI’被广泛使用时,人们可能很难意识到,这些预测往往只是基于网上快速找到的大众看法、刻板印象或谎言。
她进一步解释道:“虽然 AI 推测历史相关词串以自动生成相关内容看起来很像是“感知”,但实际上这并不真实也不公平,因为目前算法的预测是基于 Reddit 等主流网站上的数据,并不会同等参考个人和社区。”那么,对于这一说法你是否认同?
参考链接:
-
https://www.businessinsider.com/google-engineer-blake-lemoine-ai-ethics-lamda-racist-2022-7
-
https://www.businessinsider.com/ai-discrimination-bias-worse-problem-than-sentience-2022-6?r=US&IR=T
— 推荐阅读 —
《新程序员004》已全面上市
48 位程序员出身、在各自领域取得卓越成就的高手
以自己的阅历和洞见来解答程序员们所面临的普遍疑惑。
以上是关于“LaMDA 存在种族歧视,谷歌的 AI 伦理不过是‘遮羞布’!”的主要内容,如果未能解决你的问题,请参考以下文章