最近几十年来,人工智能和核战争一直被认为是夸大其辞的。但如今,前者已成为科技潮流。然而,大众对人工智能的认知存在偏差——即使人工智能没有直接控制核武器,它也有可能增加核战争爆发的风险。
由于核武器的存在,当一国政府想使用核武器威胁另一个有核国家时,它将面临核报复的风险,因此大国间能保持着核平衡。除了核威慑力量之外,核平衡还需要国家间的保证和再保证,即当一个大国向其盟国提供 “核保护伞”时,盟国也必须保证在他们的防御战中可以使用核武器,即使这些国家处于危险之中。
然而,由于威慑、保证和再保证常常是相互矛盾的,核平衡是脆弱的。现在,人工智能的出现,可能让核平衡变得更加脆弱。
在当今世界复杂的地缘政治环境中,战略家们需要对冲突进行评估,明确可以采取的方案和可能产生的后果。人工智能会有助于战略家们的工作吗?在大多数情况下,人工智能可能比人类更容易出错。诸如在对冲突局势进行判断的任务中,应用人工智能仍遥遥无期。人们必须付出很多努力,才能让机器在帮助世界避免核战争这一领域发挥作用。最近的研究表明,当对手欺骗人工智能系统、控制一些输入时,人工智能会得出错误的结论。
在世界各地,传感器和摄像头的数量在不断增加,人工智能具备根据不同来源的信息进行预测的能力,这可能会引发各国对核导弹和核潜艇遭受打击的担忧。在冷战期间,超级大国寻求削弱“第一次打击”的能力,这是一个危险的战略。每个超级大国都认为对方可能会发动一场打击,而一旦发生核战争,发动 “第一次打击”的一方会获得巨大优势,因此超级大国往往会采取先发制人的战略。所以在冷战时期,意外核战争的风险其实一直存在。
未来几年,人工智能在追踪和瞄准敌方核武器方面将取得快速进展,这可能会进一步破坏核平衡的基础,即各大国可能会质疑他们的核导弹和核潜艇是否更容易遭到打击。而核报复能力的削弱,将大大增加意外核战争的可能性。
作者:安德鲁·约翰、爱德华·盖斯特(《原子科学家公报》) 编译:孙辰(上海全球治理与区域国别研究院)
编辑:陆益峰 陆纾文 责任编辑:沈雷
*文汇独家稿件,转载请注明出处。