报告称人工智能机器人5年内毁灭人类

据英国媒体报道,全球挑战基金会近日发布《2016年全球灾难风险报告》(又被称为末日报告),概述了人类面临的最紧迫全球风险。其中,人工智能、核战争、自然流行病以及气候变化被视为最危险因素,报告作者们认为“终结者”式的杀人机器人可能在5年内灭绝人类。

“终结者”式机器人5年内灭绝人类

“末日报告”称,人类正处于空前危险状态,距离被灭绝只差一线之隔。报告中列举了2016年人类面临的最大全球灾难性风险,包括与气候变化有关的天灾、自然传染病(比如禽流感)以及核战争等,它们很有可能在未来5年中发生。

其他风险还包括人造病毒、“地球改造工程”(比如向海洋中添加铁以吸收大气层中的碳)失败以及人工智能带来的灾难性威胁。从历史上看,全球性灾难已经罕有发生。但是一旦发生,意味着将有数百万人死亡。最极端的例子包括1918年发生的流感疫情,导致5000万人死亡,超过一战遇难总人数。20世纪60年代,人类曾无限接近“末日”。当时正是冷战高峰期,核战争一触即发。

与此同时,科幻电影中常见的末日元素,比如小行星撞地球或超级火山爆发,今年却都处于垫底儿位置。这份报告凸显了全球灾难性风险,它们可能抹杀10%人类,也就是7.4亿人。

为了具体化全球灾难性风险,报告中引用车祸进行对比。报告中指出,一个人死于灭绝事件的几率很小,每年仅为0.1%,但却比遭遇交通事故遇难高4倍。而随着二氧化碳排放增加、缺少相应措施和财政投资,这些与气候变化有关的灾难风险还会继续累积。

全球挑战基金会创始人拉兹洛·松鲍特弗尔维(LaszloSzombatfalvy)解释说:“我希望这份报告能加深人们对全球灾难性风险的了解,同时推动人们寻找应对这些风险的最好方式。”

报告中指出,国际社会需要采取有力措施避免全球温度上升超过上限,那会对粮食安全和人类生命造成破坏性影响。对于世界各国领导人来说,合作是应对危及人类生存的风险的唯一方式。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。