人工智能就像“潘多拉魔盒”,控制不好怎么办?
Posted 网络传播杂志
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了人工智能就像“潘多拉魔盒”,控制不好怎么办?相关的知识,希望对你有一定的参考价值。
“人工智能就像一个‘潘多拉魔盒’。如果控制不好,有可能会成为人类‘最后的发明’。”这是清华大学人工智能国际治理研究院院长薛澜对于人工智能的理解。“潘多拉魔盒”随时有可能开启,我们该如何控制其风险?从薛澜院长与传播君的对话中,你或许可以找到答案。
清华大学人工智能国际治理研究院院长薛澜
人工智能是第四次工业革命的标志性成果,它的潜在重要性绝不亚于甚至远超前几次工业革命中的蒸汽机、电力、原子能和半导体。人工智能日益成为世界大国的博弈焦点,各国已从传统的技术、产业比拼,延伸到国际治理的较量。
薛澜:的确,当前国际上对“人工智能该如何治理”的讨论有很多。各国对人工智能治理之所以如此关注,是因为意识到了人工智能对经济、社会、政治、军事等多方面产生的巨大影响,尤其是意识到了人工智能对人类社会产生的潜在负面影响。
人工智能发展速度快,影响范围广,就像一个“潘多拉魔盒”,一旦打开,再难关上。如果控制不好,人工智能有可能会成为人类“最后的发明”。
这就像原子弹发明之后,国际社会对核能使用的不同规则显著影响了国际政治经济格局,国际核能治理对有核国家和无核国家有着显著不同的利益影响。
各国在新一轮技术革命中,一方面希望能控制人工智能的风险,另一方面也希望抢先利用人工智能促进经济社会发展,加强国际竞争力,并在国际人工智能治理体系中抢占话语权,甚至成为规则的主导者。
薛澜:世界各国很难制定统一的人工智能国际治理规则,主要原因有以下几个方面:
薛澜:国际上,许多组织和机构都在努力推进全球达成对人工智能治理的共识。我们梳理了不少国际组织、国家政府、社会组织、代表性企业等提出的人工智能准则,发现大家在一些基本问题上还是有较高共识的。
例如,大家基本都认为在人工智能治理中,应该坚持人本主义、可信赖性、负责任、包容性、可解释性等基本理念。
去年,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八条治理原则,受到了国内的广泛关注和国际社会的高度认可。
虽然各国的国情不同、发展阶段不同,但是人工智能国际治理基本上都离不开这些基本原则。
今年以来,新冠肺炎疫情席卷全球,成为冷战结束以来最严重的突发性全球危机。目前新冠肺炎疫情已波及全球200多个国家和地区,世界经济面临复杂严峻形势,国际秩序受到严重冲击,这对网络空间国际治理带来更大的变数和挑战。
薛澜:新冠肺炎疫情让国际社会看到了人工智能在应对疫情方面发挥的巨大作用。
在疫情检测和药物研发方面,人工智能技术能迅速提高工作效率;
在疫情追踪方面,人工智能以及相应的信息技术也“大显身手”,比如正在中国普遍应用的“健康码”,就是利用技术实现精准追踪和治理的良好示范。
但目前,国际社会对于如何利用好这些技术还有很大的争论,有些国家也开始实施了类似“健康码”的措施,这些都能促使全球重新思考技术背后的隐私等问题。
薛澜:新冠肺炎疫情目前给人工智能国际治理带来的消极影响似乎更加显著,尤其是在中美两个大国之间。
首先,新冠肺炎疫情使得各国围绕人工智能的沟通和合作变得更加困难。从2018年开始,中美之间就存在各种贸易争端和科技争端,新冠肺炎疫情暴发之后,中美学者虽然在线上还有所交流,但实际上在人工智能的技术层面、产业层面和政府层面的交流变得更加敏感,已经影响到双方的相互了解。
其次,新冠肺炎疫情使得许多国家更加强调“本国利益优先”。这些国家从国家安全角度重新考虑全球产业链布局与对外合作,例如美国希望更多制造业回流到本土,新的贸易保护主义可能抬头,这不仅对人工智能,而且对其他领域的国际科技合作交流也会产生很大的不利影响。
再次,我们从这次新冠肺炎疫情中也可以看到,即使是在美国这样的发达国家,其国内社会对新冠病毒的科学应对也存在非常重大的分歧,经济、宗教、道德、政治、种族等多方面因素纠缠在一起,使得科学抗“疫”难以实现。
当然,新冠肺炎疫情暴发之后,国际社会也一定会反思全球应对重大危机事件的机制和理念,从而加强国际合作和沟通协调,对人工智能国际治理也可能会更加重视。
在第六届世界互联网大会上,机械手臂现场“演奏”钢琴。
6月24日,清华大学人工智能国际治理研究院成立会议举行。研究院旨在积极参与引领全球治理体系改革,为完善人工智能全球治理贡献中国智慧、注入中国力量。
薛澜:清华大学成立人工智能技术、产业和治理三个研究院,体现了引领人工智能发展的长远考虑。
人工智能研究院主要探究人工智能理论与技术,智能产业研究院重点关注人工智能产业化,而人工智能国际治理研究院则主要关注治理规则研究。
从研究到应用,再到治理,三个研究院彼此呼应和促进,形成了人工智能研究的跨学科良性循环。
人工智能技术是把“双刃剑”,如果没有良好的规则指引,那么就可能会野蛮生长,造成不可逆的消极后果。
在这三驾马车中,“治理”相当于导航仪,可以为科学研究、技术发展和产业应用提供方向和游戏规则,明确什么可为、什么不可为、谁可以参与、怎么参与等问题。
只有在明确的原则、方向、目标、主体、对象和工具等组成的治理体系指引下,人工智能技术和产业才能健康发展。如果没有良好的治理体系和规则,我们很有可能会走入如同在环保领域经历过的“先污染,后治理”一样的困境。
我们要吸取这些教训,不仅要避免重蹈历史的覆辙,还要利用技术和产业方面的优势,积极参与乃至引领人工智能国际治理,为人工智能造福全球做出贡献。
另外,人工智能国际合作潜力很大,但前提是大家要有基本的治理规则,就像传统产业中的技术标准一样。我们希望能够通过这个平台的搭建,与其他国家在人工智能国际治理方面更好地交流意见,形成共识。
薛澜:依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院集结了清华大学人工智能技术、伦理、公共管理、科技政策、计算法学、国际关系等多个优势学科的力量。
研究院现有骨干研究人员14名,博士后5名,他们主要来自清华大学社科学院、公管学院、法学院、交叉信息学院等院系,以及部分校外合作单位。
为致力于研究人工智能技术发展和应用对国家、社会、人类的影响,并探寻如何建立公正合理的人工智能国际治理体系与秩序,研究院将重点围绕人工智能国际治理理论与前沿实践展开研究,揭示人工智能全球治理竞争与合作动因,把握人工智能国际治理体系未来的发展方向,提出我国参与人工智能国际治理的路径与策略。
薛澜:十分认同。对新兴技术进行治理或者利用新兴技术进行社会治理,需要我们首先对技术本身有深刻的认识。
人工智能同许多新兴技术一样,具有不确定性、模糊性、快速成长性以及社会影响显著性等特征,但同时又有算法黑箱等个性特征,这加剧了人工智能治理的复杂性。
要实现人工智能的良好治理,一方面需要深度结合“硬科学”的前沿进展,掌握人工智能基础架构、算法和应用等涉及的科学原理和缄默知识,这样才能清晰地了解人工智能技术的细节及其所涉及的伦理、隐私和安全等方面的问题,从而明了其实质和影响。
另一方面,治理也不一定都是“软”的,我们也可能利用技术本身的“硬”力量对人工智能技术的算法歧视和社会影响等问题进行治理。
清华大学在人工智能“硬科学”方面走在世界前列,这使我们的人工智能治理研究有了非常好的基础。我们在治理“软科学”领域研究实力的增强,也将会反过来促进“硬实力”的提升。
因此,“软硬”结合是研究院的鲜明特色,希望研究院能够充分利用这些优势,真正为人工智能发展与治理做出实质性贡献。
(责编:陈历凤)
以上是关于人工智能就像“潘多拉魔盒”,控制不好怎么办?的主要内容,如果未能解决你的问题,请参考以下文章
网页闯关游戏(riddle webgame)--SQL注入的潘多拉魔盒
2018传智黑马Python人工智能视频教程(基础+就业+面试)
学习人工智还死拽着Python不放?大牛都在用Anaconda5.2.0