第二十一篇:伦理/道德Ethics

Posted flying_1314

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第二十一篇:伦理/道德Ethics相关的知识,希望对你有一定的参考价值。

目录

什么是伦理/道德?

我们为什么要关心?

为什么道德很难?

学习成果

大纲

反对 NLP 道德检查的论据

我们应该审查科学吗?

H5N1

透明度不是更好吗?

AI vs. Cybersecurity

核心 NLP 伦理概念

偏见

词嵌入中的偏差

双重用途

OpenAI GPT-2

隐私

GDPR

AOL 搜索数据泄露

小组讨论

提示

自动刑期预测

自动简历处理

语言社区分类

打包带走~


什么是伦理/道德?

我们应该如何生活——苏格拉底

• 正确的做法是什么?
• 为什么?

我们为什么要关心?

• AI 技术越来越多地被部署到现实世界的应用程序中
• 对人们产生真实而切实的影响
• 当事情变糟时,谁的责任?

为什么道德很难?

• 与科学不同,通常没有客观真理
• 新哲学系学生可能会问功利主义等基本伦理理论是否正确
• 但物理新学生不太可能质疑热力学定律
• 在检查问题时,我们需要从不同的角度思考来证明我们的理由

学习成果

• 多考虑您构建的应用程序
    ‣ 不仅仅是它的性能
    ‣ 社会背景
    ‣ 对其他人的影响
    ‣ 意外伤害
• 成为对社会负责的科学家或工程师

大纲

• 反对 NLP 道德检查的论据
• 核心 NLP 伦理概念
• 小组讨论

 

反对 NLP 道德检查的论据

我们应该审查科学吗?

• 引入道德检查或流程时的常见论点:
    ‣ 科学研究应该有限制吗? 审查研究是否正确?
• 伦理程序在其他领域很常见:医学、生物学、心理学、人类学等

• 过去,这在计算机科学中并不常见
• 但这并不意味着这不应该改变
• 技术越来越多地融入社会; 我们现在所做的研究可能比 20 年前得到更多部署

H5N1

• 荷兰病毒学家 Ron Fouchier 在 2011 年发现了如何使禽流感的潜在危害更大
• 荷兰政府反对发表研究
• 引发了大量讨论和关注
• 制定了国家政策

透明度不是更好吗?

• 公开发表敏感研究总是更好吗?
• 论点:如果在地下进行,情况会更糟
• 如果目标是提高认识,科学出版物不是唯一的方法
    ‣ 可以与媒体合作提高意识
    ‣ 不需要暴露技术

AI vs. Cybersecurity

• 在网络安全应用程序中公开漏洞是可取的
    ‣ 便于开发者解决问题
• 但同样的逻辑并不总是适用于 AI
    ‣ 不容易修复,一旦技术出来


核心 NLP 伦理概念

偏见

• 大多数 NLP 伦理研究都集中在这方面
• 有偏见的模型对某些用户组的表现不利
    ‣ 通常基于人口特征,如性别或种族

• 偏见不一定是坏事
    ‣ 指导模型在缺乏更多信息的情况下做出明智的决定
    ‣ 真正无偏的系统 = 做出随机决策的系统
     ‣ 压倒证据时不好
• 偏差可能来自数据、注释、表示、模型或研究设计

词嵌入中的偏差

• 词类比(第 九篇文章):

但!:

‣ 词嵌入反映和放大社会中的性别刻板印象
‣ 为减少词嵌入偏差做了大量工作

双重用途

• 每种技术都有主要用途,以及意想不到的次要后果
    ‣ 核电、刀具、电
    ‣ 可能会被滥用于它们原本不打算做的事情。
• 由于我们不知道人们将如何使用它,我们需要意识到这种二元性

OpenAI GPT-2

• OpenAI 开发了 GPT-2,一种在大量网络数据上训练的大型语言模型
• 启动了 NLP 中的预训练模型范式
    ‣ 对下游任务的预训练模型进行微调(BERT 第十篇文章)
• GPT-2 还具有惊人的生成能力
    ‣ 可轻松微调以生成假新闻、制造宣传

• 预训练的 GPT-2 模型在 9 个月内分阶段发布,从较小的模型开始
• 与各种组织合作研究这段时间内非常大的语言模型的社会影响
• OpenAI 的努力值得称道,但这是自愿的
• 进一步提出有关自律的问题

隐私

• 经常与匿名混为一谈
• 隐私意味着没有人知道我在做什么
• 匿名意味着每个人都知道我在做什么,但并不知道是我

GDPR

• 欧盟数据隐私法规
• 还涉及个人数据的传输
• 旨在让个人控制其个人数据
• 处理欧盟公民个人数据的组织受其约束
• 组织需要对数据进行匿名处理,以便无法识别人员身份
• 但我们有技术去识别作者属性

AOL 搜索数据泄露

• 2006 年,AOL 发布用户匿名搜索日志
• 日志包含足够的信息来消除个人身份
‣ 通过与电话簿列表的交叉引用,确定了个人
• 针对 AOL 提起的诉讼

小组讨论

提示

• 主要用途:它促进伤害还是促进社会利益?
• 偏见?
• 双重用途问题?
• 隐私问题? 它使用什么类型的数据?
• 其他需要考虑的问题:
    ‣ 能否将其武器化以对抗人群(例如面部识别、位置跟踪)?
    ‣ 是否将人们归入简单的类别(例如性别和性取向)?
    ‣ 它是否创造了另一种现实(例如假新闻)?

自动刑期预测

• 根据法庭文件预测个人刑期的模型

自动简历处理

• 一种处理简历/简历以自动筛选面试候选人的模型

语言社区分类

• 区分 LGBTQ 和异性恋语言的文本分类工具
• 动机:了解 LGBTQ 社区使用的语言与异性恋社区的不同之处

打包带走~

• 考虑您构建的应用程序
• 思想开放:提出问题,与他人讨论
• NLP 任务并不总是只是技术问题
• 请记住,我们构建的应用程序可能会改变他人的生活
• 我们应该努力成为对社会负责的工程师/科学家

 

砰砰砰~完结撒花,理论部分就暂告一段落,后续可能会更新些代码实战相关的内容,敬请期待哟!再次感谢大家的一路观看~ 有问题老规矩随时评论交流哦!

 

以上是关于第二十一篇:伦理/道德Ethics的主要内容,如果未能解决你的问题,请参考以下文章

第二十一篇:伦理/道德Ethics

第二十一篇:伦理/道德Ethics

第二十一篇 生命的全景

flask第二十一篇——练习题

第二十一篇 数据增强

第二十一篇 jQuery 学习3 特效效果