未来AI上战场?—— 兰德公司报告《人工智能的军事应用》2020年8月31日出版
Posted 新书问我
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了未来AI上战场?—— 兰德公司报告《人工智能的军事应用》2020年8月31日出版相关的知识,希望对你有一定的参考价值。
兰德公司这份报告研究了人工智能(AI)在军事上的应用,并考虑了其伦理含义。
作者调查了广泛分类为人工智能的各种技术,考虑了它们在军事应用中的潜在利益,并评估了这些技术带来的伦理、操作和战略风险。
在比较了美国、中国和俄罗斯的军事人工智能发展努力之后,作者研究了这些国家关于禁止或规范自主武器的发展和使用的建议的政策立场,武器控制倡导者发现人工智能的军事应用尤其令人不安。
他们发现,潜在的对手正在越来越多地将人工智能集成到一系列军事应用中,以追求作战优势,他们建议美国空军组织、训练和装备,以在一个由人工智能授权的军事系统在所有领域都很突出的世界中占上风。
尽管禁止自主武器的努力不太可能成功,但各国越来越认识到,与军事人工智能相关的风险,将需要人类操作者对其就业保持积极的控制。
因此,作者建议空军联合参谋部,和其他国防部领导人与美国国务院合作,寻求更大的技术合作和政策协调与盟友和合作伙伴,同时探索建立信任和风险降低措施与中国、俄罗斯和其他国家试图发展军事AI。
✧内容梗概✧
第一章 介绍
第二章 人工智能的军事应用
第三章 军事人工智能的风险:伦理、操作和战略
第四章 美国的军事人工智能
第五章 中国的军事人工智能
第六章 俄罗斯的军事人工智能
第七章 美国公众对军事人工智能的态度评估
第八章 结论和建议
附录A 专家访谈:方法、数据和分析
附录B公众态度调查:方法、数据和分析
关键内容
人工智能在军事系统中的集成可能会稳定增长
各种形式的AI对于战斗应用都有严重的影响。
人工智能将在战争中提出新的道德问题,而有意识的关注可能会减轻最极端的风险。
尽管联合国正在进行讨论,但在短期内不太可能对军事AI实行国际禁令或其他规定。
美国在军事人工智能方面面临重大国际竞争
中国和俄罗斯都在追求军事化的AI技术。
军事AI向其他州和非州参与者的潜在扩散是另一个值得关注的领域。
军事AI的发展带来了一系列需要解决的风险
从人道主义的角度来看,道德风险很重要。
操作风险源于有关AI系统的可靠性,脆弱性和安全性的问题。
战略风险包括AI可能会增加发生战争的可能性,升级不断发生的冲突并扩散为恶意行为者。
美国公众普遍支持对军事人工智能的持续投资
支持程度部分取决于对手是否使用自动武器,自卫系统是否必要以及其他上下文因素。
尽管对道德风险的理解会根据威胁的情况而有所不同,但对于人类责任的需求已达成广泛共识。
指挥官应负责任。
在每个系统的整个生命周期中,都需要人类参与,包括其开发和监管。
以上是关于未来AI上战场?—— 兰德公司报告《人工智能的军事应用》2020年8月31日出版的主要内容,如果未能解决你的问题,请参考以下文章
资料上新KFBZ2020-021人工智能技术在军事领域的应用
兰德公司发布报告——利用人工智能实现空军联合全域指挥控制能力