人工智能的十大可怕事实

Posted 新老教师公号

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了人工智能的十大可怕事实相关的知识,希望对你有一定的参考价值。





我们正处于第四次工业革命中,其特征是机器人技术和自动驾驶汽车技术的进步,智能家电的普及等等。人工智能(AI)是所有这些技术的最前沿,它是自动化计算机系统的发展,可以在人工智能方面与人类匹敌甚至超越人类。

10.自动驾驶汽车可能会被编程“指挥”杀死你

人工智能的十大可怕事实

假设你正在开车。然后,一群孩子突然出现在您的车前。你踩了刹车,但没有用。现在,你有两个选择:第一个是让孩子们跑过去并挽救你的生命。第二种是转入附近的墙壁或系缆柱,从而挽救了孩子,但自杀了。你会选哪一个?

大多数人都同意他们会转入系缆柱并自杀。

现在,假设你的汽车正在自动驾驶,而你是乘客。你是否仍希望它转入系缆柱并杀死你?大多数同意他们是驾驶员的人都会转向护柱,他们也同意他们不希望自己的自动驾驶汽车转向护柱并杀死他们。实际上,如果他们知道这样的汽车会故意使他们处于事故危险之中,他们甚至不会购买这种汽车。

这将我们引到另一个问题:汽车会做什么?

这些汽车将按照编程的方式进行。实际上,无人驾驶汽车的制造商没有说话。像Apple,Ford和Mercedes-Benz这样的大多数公司,在每个实例上都巧妙地回避了这个问题。戴姆勒公司(戴姆勒公司的母公司)的一位高管曾表示,他们的自动驾驶汽车将“不惜一切代价保护乘客”。但是,梅赛德斯·奔驰驳斥了这一点,称其车辆的制造是为了确保这种困境永远不会发生。这是模棱两可的,因为我们都知道这种情况将会发生。

谷歌对此表示清白,并表示其自动驾驶汽车将避免撞到未受保护的道路使用者和移动物体。这意味着汽车将撞到系船柱并杀死驾驶员。Google进一步澄清说,如果发生意外事故,其自动驾驶汽车将撞到任何两辆汽车中较小的一辆。实际上,谷歌自动驾驶汽车可能一直都在试图靠近较小的物体。Google目前拥有一项技术专利,该技术可使自动驾驶汽车在行驶中从大型汽车转向小型汽车。

9.机器人可能像人类一样要求权利

人工智能的十大可怕事实

随着AI的当前趋势,机器人有可能达到自我实现的阶段。发生这种情况时,他们可能会像人类一样要求自己的权利。也就是说,他们将需要住房和医疗保健福利,并要求他们有权投票,在军队服役并获得公民身份。作为回报,政府将使它们纳税。

这是由英国科学与创新办公室地平线扫描中心联合进行的研究。这项研究是由英国广播公司(BBC)在2006年报道的,当时人工智能还远远不够先进,其目的是推测他们在50年后可能会看到的技术进步。这是否意味着机器将在大约40年后开始要求公民权?只有时间证明一切。

8.自动杀手机器人正在使用中

人工智能的十大可怕事实

当我们说“自动机器人杀手锏,”我们平均的机器人可以在没有人类的干扰杀死。无人机不算数,因为它们是由人控制的。我们正在谈论的自动杀手机器人之一是SGR-A1,这是由三星Techwin(现称为Hanwha Techwin)和高丽大学联合开发的哨兵。SGR-A1类似于大型监控摄像头,但它具有可以自动锁定并杀死任何目标的大功率机枪。

SGR-A1已经在以色列和韩国使用,它们已经在与朝鲜的非军事区(DMZ)上安装了多个装置。韩国拒绝激活自动模式,该模式允许机器确定谁杀谁不杀。取而代之的是,该机器处于半自动模式,在该模式下,它可以检测目标并需要得到操作员的批准才能执行杀戮行动。

7.战争机器人可以切换侧面

人工智能的十大可怕事实

2011年,伊朗从美国军方手中捕获了高度机密的RQ-170前哨隐形无人机。最后一个单词是必要的,因为这意味着无人机没有被击落。伊朗声称,它在欺骗GPS信号并使其认为自己处于友好领土后,迫使无人机降落。一些美国专家声称这是不正确的,但随后,无人机并没有被击落。所以发生了什么事?

就我们所知,伊朗可能是在说实话。无人机,GPS和机器人都基于计算机,众所周知,计算机确实会遭到黑客攻击。战争机器人只要能上战场,也不会有什么不同。实际上,敌军极有可能企图砍掉他们,并将其用于对付他们的同一支军队。

自主杀手机器人尚未广泛使用,因此我们从未见过任何黑客入侵。但是,想象一下,有一群机器人突然在战场上转投效忠并转而反对自己的主人。或想象朝鲜在DMZ入侵这些SGR-A1岗哨枪并将其用于对付韩国士兵。

6.俄罗斯利用机器人在Twitter上传播宣传

人工智能的十大可怕事实

机器人正在接管Twitter。南加州大学和印第安纳大学的研究表明,所有Twitter帐户中约有15%(4800万)由机器人操作。Twitter坚持认为这一数字约为8.5%。需要明确的是,并非所有这些机器人都是不好的。有些实际上是有益的。例如,有一些机器人可以使人们了解自然灾害。但是,有一些被用于宣传,尤其是俄罗斯。

俄罗斯仍在使用这些机器人在美国选民中引起分歧,并诱使他们在2016年大选期间投票支持唐纳德·特朗普的消息。另一个鲜为人知的事件是俄罗斯利用这些机器人在2016年英国脱欧公投期间诱使英国选民投票退出欧盟。

全民公决的前几天,超过15万名俄罗斯机器人程序此前集中在与乌克兰战争和俄罗斯吞并克里米亚有关的推文上,突然开始推出支持英国退欧的推文,以鼓励英国退出欧盟。这些机器人在公投后的两天内发送了约45,000则脱欧专业推文,但公投后立即下降到几乎为零。

更糟糕的是,俄罗斯也使用这些相同的机器人来使Twitter禁止那些公开宣传其广泛使用该机器人的记者。俄罗斯检测到一篇报道该机器人存在的文章后,便找到作者的Twitter页面,并使其机器人跟随作者,直到Twitter怀疑涉嫌由机器人操纵而禁止作者的帐户。

最糟糕的是,俄罗斯在机器人游戏方面已取得了重大进步。如今,它已从使用完整的漫游器转变为使用由人和漫游器共同操作的电子人。这使Twitter更加难以检测和禁止这些帐户。

5.机器会胜任工作

人工智能的十大可怕事实

毫无疑问,机器将有一天取代我们的工作。但是,我们不知道是什么时候接管他们的,到什么程度?好吧,正如我们将要发现的,在很大程度上。

根据顶级咨询和审计公司普华永道(PwC)的数据,到2016年,机器人将占据日本21%的工作,英国30%的工作,德国35%的工作以及美国38%的工作。到2030年。到下个世纪,他们将接手超过一半的人类可用工作。

受影响最大的部门是运输和仓储,其中56%的劳动力是机器。其次是制造业和零售业,其中机器将占据所有可用工作的46%和44%。

谈到“何时”,据推测,到2027年,机器将在驾驶卡车,到2031年将为零售店配备人员。到2049年,他们将写书,到2053年,他们将进行手术。只有很少的专业可以摆脱机器入侵。一个是教会部长的角色,他将继续任职不是因为机器无法运行教堂,而是因为大多数人不赞成由机器人传教。

4.机器人学会了欺骗

人工智能的十大可怕事实

以人类风格,机器人正在学会欺骗。在一个实验中,位于亚特兰大的佐治亚理工学院的研究人员开发了一种算法,该算法允许机器人决定是否欺骗其他人或机器人。如果机器人决定采用欺骗手段,研究人员将采用一种算法,使机器人可以决定如何欺骗人和机器人,同时降低被欺骗者或人被发现的可能性。

在实验中,给了机器人一些保护的资源。它经常检查资源,但每当检测到该区域中存在另一个机器人时,便开始访问错误的位置。该实验是由美国海军研究办公室赞助的,这意味着它可能具有军事用途。监视军事物资的机器人如果发现敌军正在监视他们,则可以改变其巡逻路线。

在另一个实验中,这次是在瑞士洛桑联邦理工学院,科学家创造了1000个机器人并将它们分为十组。机器人被要求在指定区域内寻找“好资源”,同时避免在“坏资源”周围徘徊。每个机器人都有一个蓝灯,只要发现好的资源,它就会闪烁以吸引其小组的其他成员。从第一个实验中选出了最好的200个机器人,并将它们的算法“杂交”以创建新一代的机器人。

机器人在寻找良好资源方面进行了改进。但是,这导致了拥挤,因为其他机器人拥挤了奖品。实际上,事情变得如此糟糕,以至于发现资源的机器人有时被推离了发现。500代后,机器人学会了在发现良好资源后就保持熄灯状态。这是为了防止拥塞,以及防止其他人加入他们的可能性。同时,其他机器人进化为通过寻找机器人会熄灯会聚的区域来找到躺着的机器人,这与他们被编程执行的操作完全相反。

3.人工智能市场正在被垄断

人工智能的十大可怕事实

人工智能市场正在被垄断。较大的公司正在以惊人的速度购买较小的AI初创公司。按照当前的趋势,我们最终将获得由极少数公司控制的AI。截至2016年10月,报告显示苹果,Facebook,英特尔,Twitter,三星和谷歌等公司在五年内购买了140家人工智能企业。

在2017年前三个月中,大型科技公司收购了34家AI初创公司。更糟糕的是,他们还花了大钱聘请人工智能领域的顶尖学者。如果未选中此选项,则可以猜测我们的前进方向。

2.人工智能将在推理和智力上超越人类

人工智能的十大可怕事实

人工智能分为两类:强人工智能和弱人工智能。今天我们周围的AI被归类为弱AI。这包括所谓的高级AI,例如智能助手和自1987年以来就一直在击败国际象棋大师的计算机。强弱AI的区别在于推理和像人脑一样行为的能力。

弱小的AI通常会执行其编程要执行的操作,而不管该任务对我们来说看起来有多复杂。另一方面,强大的AI具有人类的意识和推理能力。它不受其编程范围的限制,并且可以决定在没有人工输入的情况下该做什么和不该做什么。强大的AI暂时不存在,但科学家预测它们应该在十年后。

1.人工智能可能摧毁我们

人工智能的十大可怕事实

就像《终结者》电影系列中发生的那样, 人们担心世界最终可能会陷入AI 启示。AI可能毁灭我们的警告不是来自一些随机的科学家或阴谋论者,而是来自像斯蒂芬·霍金,埃隆.马斯克和比尔·盖茨这样的杰出专业人士。

比尔·盖茨认为,人工智能将变得太聪明而无法控制。斯蒂芬·霍金持相同观点。他认为AI不会一夜之间变得狂暴。相反,他认为机器会因为过于擅长于其工作而毁灭我们。我们与AI的冲突将从他们的目标不再符合我们的目标开始。

马斯克将AI的扩散与“召唤恶魔”进行了比较。他认为这是对人类的最大威胁。为了防止AI启示,他建议政府在营利性公司做“一件非常愚蠢的事情” 之前就开始监管AI的发展。



人工智能的十大可怕事实     人工智能的十大可怕事实  
老教师公号 感谢 您关注!

老教师公号是特级教师宋伟富分享教育教学文学艺术生活智慧和优质资讯的平台(老教师书店系平台合作微店,可点击左下角“阅读原文”前往选购),倡导品质生活,践行服务宗旨,传播分享文化,营造书香氛围。除原创外,推文及素材多采编于网络,版权归有关权益人所有。推文观点不代表公号立场。如有侵权请联系删除!联系微信xxjyswf

人工智能的十大可怕事实

人工智能的十大可怕事实新老教师公号 人工智能的十大可怕事实老教师公号 老教师公号特刊
关注后推文每天会悄悄潜入您的订阅号消息中
                               
                                 
                                 
                               
                                  
                                    
                                    
                                  


   老教师书店入口!!!

以上是关于人工智能的十大可怕事实的主要内容,如果未能解决你的问题,请参考以下文章

十大视频场景化应用工具+五大视频领域冠军顶会算法重磅开源!

人工智能十大流行算法,通俗易懂讲明白

转:比谎言更可怕的,是对真相视而不见

你为什么会恐惧人工智能?它有什么可怕之处?

十大Intellij IDEA快捷键

十大Intellij IDEA快捷键