注册

危言耸听?人工智能机器人5年内毁灭人类


来源:中关村在线

人工智能、核战争、自然流行病以及气候变化被视为最危险因素,报告作者们认为“终结者”式的杀人机器人可能在5年内灭绝人类。

据英国媒体报道,全球挑战基金会近日发布《2016年全球灾难风险报告》(又被称为末日报告),概述了人类面临的最紧迫全球风险。其中,人工智能、核战争、自然流行病以及气候变化被视为最危险因素,报告作者们认为“终结者”式的杀人机器人可能在5年内灭绝人类。

“终结者”式机器人5年内灭绝人类

“末日报告”称,人类正处于空前危险状态,距离被灭绝只差一线之隔。报告中列举了2016年人类面临的最大全球灾难性风险,包括与气候变化有关的天灾、自然传染病(比如禽流感)以及核战争等,它们很有可能在未来5年中发生。

其他风险还包括人造病毒、“地球改造工程”(比如向海洋中添加铁以吸收大气层中的碳)失败以及人工智能带来的灾难性威胁。从历史上看,全球性灾难已经罕有发生。但是一旦发生,意味着将有数百万人死亡。最极端的例子包括1918年发生的流感疫情,导致5000万人死亡,超过一战遇难总人数。20世纪60年代,人类曾无限接近“末日”。当时正是冷战高峰期,核战争一触即发。

与此同时,科幻电影中常见的末日元素,比如小行星撞地球或超级火山爆发,今年却都处于垫底儿位置。这份报告凸显了全球灾难性风险,它们可能抹杀10%人类,也就是7.4亿人。

为了具体化全球灾难性风险,报告中引用车祸进行对比。报告中指出,一个人死于灭绝事件的几率很小,每年仅为0.1%,但却比遭遇交通事故遇难高4倍。而随着二氧化碳排放增加、缺少相应措施和财政投资,这些与气候变化有关的灾难风险还会继续累积。

全球挑战基金会创始人拉兹洛·松鲍特弗尔维(Laszlo Szombatfalvy)解释说:“我希望这份报告能加深人们对全球灾难性风险的了解,同时推动人们寻找应对这些风险的最好方式。”

报告中指出,国际社会需要采取有力措施避免全球温度上升超过上限,那会对粮食安全和人类生命造成破坏性影响。对于世界各国领导人来说,合作是应对危及人类生存的风险的唯一方式。

[责任编辑:朱羽寒 PT008]

责任编辑:朱羽寒 PT008

标签:机器人 人工智能 毁灭人类

凤凰科技官方微信

0
凤凰新闻 天天有料
分享到: