2018/04/25 08:49 凤凰网科技
据《每日邮报》北京时间4月25日报道,一家主要的安全智库兰德公司(以下简称“兰德”)警告称,最早在2040年,人工智能就可能发动造成人类毁灭的核战争。
兰德称,催生“世界末日人工智能”机器的技术发展,可能会促使一些国家利用它们的核武库冒险。
在冷战期间,被称作“相互确保摧毁”的状态,维持了两个超级大国之间不稳定的平衡。
然而,人工智能的进步可能意味着“相互确保摧毁”状态遭到破坏,从而削弱对方反击的潜力,而且,这种趋势可能无法阻止。
冷战期间相互确保摧毁维持了超级大国之间脆弱的平衡
兰德称,未来数十年,人工智能的进步,可能破坏“相互确保摧毁”对拥核国家的约束力。
就像在20世纪40年代和50年代的冷战时期,未来核冲突的每一方都有理由担心对手获得技术优势。
改进的人工智能技术,加上更多的传感器和开源数据,可以使各国相信他们的核能力是脆弱的。
报告称,这可能会导致它们采取更激进的措施,跟上美国这样的竞争对手。
兰德研究人员、报告共同作者安德鲁·洛恩(Andrew Lohn)表示,“有些专家担心,人们越来越依赖人工智能会导致新型的灾难性错误。”
各国都面临在技术真正成熟前使用人工智能的压力。因此未来数十年要保持战略稳定性极端困难,所有核大国必须参与新体系的形成,以降低核风险。
报告称,另一种令人担忧的情况是,指挥官可能根据人工智能助手提供的建议作出发动攻击的命令,而人工智能助手接收的信息本身可能就是错误的。
除了提供糟糕的建议外,这样的系统也可能容易受到黑客攻击,从而引发了恶意第三方发动第三次世界大战的可能性。
尽管如此,有人认为人工智能可以通过提高情报收集和分析的准确性,来提高未来的战略稳定性。
专家表示,对用于监测和解释对手行为的分析过程进行改进,可以减少可能导致对抗意外升级的错误计算或曲解。
鉴于未来的改进,最终人工智能系统有可能发展出比人类更不容易出错的能力,因此有助于保持长期的战略稳定性。
根据与在核问题、政府部门、人工智能研究、人工智能政策和国家安全方面的专家举行的一系列研讨会期间收集的信息,兰德研究人员,得出了上述结论。
这项研究是展望2040年重大安全挑战的更广泛研究活动的一部分,考虑了政治、技术、社会和人口趋势的影响。
“人工智能会增加核战争的风险?”研究的全部资料发布在兰德网站上。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。