人工智能(AI)对威慑和战争意味着什么
昨天(2026年1月6日), 范德堡大学(Vanderbilt University)的布雷特·V·本森 (Brett V. Benson)和布雷特·J·戈德斯坦 (Brett J. Goldstein) 在《外交事务》杂志以”人工智能的迷雾”为题发表评论,回答了这项技术对威慑和战争意味着什么的一些问题。本森先生是该大学政治学和亚洲研究副教授。戈德斯坦先生是校长国家安全和战略倡议特别顾问,也是该校工程学院的研究教授。请读他们下面的评论:
人工智能正迅速成为国家安全决策不可或缺的一部分。世界各国的军队已经依赖人工智能模型来筛选卫星图像、评估对手的能力,并就何时、何地以及如何部署武力提出建议。随着这些系统的发展,它们有望重塑各国应对威胁的方式。但先进的人工智能平台也可能破坏威慑,而威慑长期以来一直是美国安全战略的总体基础。
有效的威慑取决于一个国家是否有能力且愿意对对手造成不可接受的损害。人工智能增强了这种可信度的一些基础。更好的情报、更快的评估和更一致的决策可以通过更清晰地向对手传达一个国家的防御能力及其使用这些能力的决心来加强威慑。然而,对手也可以利用人工智能来破坏这些目标:他们可以污染各国依赖的模型的训练数据,从而改变其输出,或者发起人工智能驱动的影响行动来左右关键官员的行为。在高度紧张的危机中,这种操纵可能会限制一个国家维持可信威慑的能力,并扭曲甚至瘫痪其领导人的决策。
设想这样一个危机场景:中国对台湾实施了全面经济制裁,并在该岛周围举行了大规模军事演习。美国国防官员求助于人工智能系统来帮助制定美国的应对措施——但他们并不知道,中国的信息行动已经通过污染这些系统的训练数据和核心输入来破坏了这些系统。结果,这些模型夸大了中国的实际能力,低估了美国的战备状态,从而产生了一种扭曲的评估,最终阻碍了美国的动员。与此同时,中国的影响力宣传活动,在Facebook和TikTok等平台上突然涌现的大量人工智能驱动的虚假内容的助推下,抑制了美国公众对干预的支持。由于无法准确解读情报和评估公众情绪,美国领导人可能会得出结论:采取果断行动风险过高。
中国察觉到有机可乘,随即对台湾实施全面封锁,并开始发动无人机袭击。它还利用深度伪造技术在岛内散布美国官员表示愿意放弃台湾的虚假视频、显示美国支持率暴跌的伪造民意调查以及美国放弃台湾的谣言。在这种情况下,如果美国发出可信的信号表明其有意做出回应,或许可以阻止中国升级局势——如果美国官员没有受到被污染的AI系统和扭曲的公众情绪的影响,他们很可能就会采取这种做法。人工智能非但没有增强威慑力,反而削弱了美国的信誉,为中国的侵略打开了大门。
随着人工智能系统在领导人的决策中变得越来越重要,它们可能会赋予信息战在胁迫和冲突中强大的新作用。因此,为了在人工智能时代加强威慑,政策制定者、国防规划者和情报机构必须认真研究人工智能模型如何被武器化,并确保针对这些威胁的数字防御措施能够跟上步伐。未来危机的结果可能取决于此。
人工智能时代的威慑
要使威慑发挥作用,对手必须相信防御者既有能力造成严重损失,也有决心在受到挑战时这样做。军事力量的一些要素是显而易见的,但其他一些要素——例如某些武器能力、战备水平和动员能力——则更难从外部衡量。决心更是难以捉摸:通常只有一国领导人才能确切地知道他们发动战争的意愿有多强。因此,威慑的关键在于一个国家如何有效地发出可信的信号,表明其能力和行动意愿。
耗费巨大的军事行动,例如重新部署兵力或提高战备水平,能够增强可信度,因为这些行动需要时间、资源和政治风险。例如,2001年巴基斯坦一个武装组织袭击印度议会后,印度在其与巴基斯坦的边境集结军队,并通过可信地表明其行动能力和决心,阻止了巴基斯坦对印度领土的进一步袭击。民主国家固有的国内政治压力也能增强可信度。民主国家的领导人必须对公民负责,如果他们发出威胁后又退缩,可能会招致政治反弹。例如,1982年阿根廷占领福克兰群岛后,英国强大的公众压力增强了首相玛格丽特·撒切尔采取行动的决心,从而使英国的军事回应威胁更具可信度。这种问责制通常使民主国家的威慑威胁比专制国家的威胁更有分量。速度也是一个因素:当一个国家被认为能够迅速自动地应对威胁时,其威慑威胁就更具可信度。
从表面上看,人工智能似乎非常适合加强威慑。通过处理海量数据,人工智能可以提供更好的情报,澄清信号,并通过更快、更全面的分析加速领导人的决策。在乌克兰战争中,人工智能工具使乌克兰军队能够扫描卫星和无人机图像,识别俄罗斯军队和装备的动向、导弹阵地和补给路线;提取并整合雷达、声波和无线电信号数据;并快速筛选训练手册、情报报告或其他材料,从而更全面地了解俄罗斯的军事实力。对于国防规划者来说,这些信息可以让他们更清晰地评估自身军事能力与对手军事能力之间的差距。
人工智能还可以通过确保双方的行动能够清晰地传达给对方来增强威慑力。由于各国经常有虚张声势的动机,它们可能难以证明自己真正准备好兑现威胁。相比之下,人工智能工具可以确保当一个国家采取代价高昂的行动来表明其决心时,这些行动能够快速、清晰、一致地传达出去。对手自身的人工智能系统可以有效地解读这些信号,从而降低误判的风险。例如,通过实时跟踪国内公众舆论,人工智能工具可以帮助民主国家表明其已做好行动准备,因为它可以显示其威胁的回应得到了真正的政治支持。对手随后可以使用他们自己的人工智能工具来确认这种支持是否真实。利用人工智能来识别人类可能忽略的模式和异常情况——例如部队调动、资金流动或网络活动的突然变化——可以帮助领导人更清晰地了解对手的意图。
由于侵略者可以利用目标国反应中的哪怕是轻微的延迟——例如夺取领土或以其他方式推进其目标——威慑的最佳效果在于目标国能够说服侵略者,它将迅速做出反应,使其无法获得任何时间优势。人工智能通过使防御者能够更早地发现挑战并更快地做出反应,从而有助于增强这种认知。改进领导人的长期规划也可以增强并在更长的危机中保持信誉。通过利用关于兵力、地理、补给线和联盟的数据运行大量的“假设”情景,人工智能可以为领导人提供更清晰的冲突发展图景,并帮助他们在情况变化时保持战略的一致性。
优势与脆弱性
增强威慑力的人工智能技术也可能使其容易受到攻击。人工智能系统如果被操纵,非但不能帮助一个国家可信地传达其自身的信息,反而可能使领导人对其自身的能力和决心产生怀疑。对手可以利用人工智能来扭曲公众舆论,或者污染一个国家领导人所依赖的人工智能系统。通过部署这两种策略——人工智能驱动的影响力行动和人工智能模型投毒——对手可以重塑一个国家的信息环境,从而直接影响其威慑力。在最糟糕的情况下,这种混乱可能导致一个国家的威慑失败,即使其潜在的能力和决心都很强大。
敌对势力还可以利用影响力行动来攻击一个国家的公众以及影响该国国家辩论的各界人士,包括政府决策者。数据科学和生成式人工智能的最新进展使影响力行动在三个相互关联的领域变得更加强大:目标识别、人物形象塑造和个性化内容定制。此前,试图进行有针对性宣传的敌对势力只能根据相似特征将人群分组。然而,借助现代人工智能,他们可以使用数据科学自动完成这一过程,从而大规模地针对个人进行攻击。
利用这些工具,人工智能可以预测目标对特定叙事或旨在吸引他们注意力的虚假社交媒体资料的易感性。过去,机器人程序笨拙且容易被识破,而如今,生成式人工智能可以创建所谓的“合成人物形象”,这些形象看起来真实可信,难以被轻易识破。这些虚假资料可以随着时间的推移不断完善,最终与真实用户难以区分——它们拥有逼真的发帖习惯、兴趣爱好和语言特征。此外,现在可以大规模创建和运营虚假账户,这使得它们更难被检测到。这些发展使得这些人物形象能够将合成内容传播到目标群体中。它们可以在多个社交媒体平台上散布信息,从而引导舆论并加剧分裂。例如,为了削弱美国公众的决心,这些虚假人物形象可能会散布诸如美军兵力捉襟见肘、盟友搭乘美国安全顺风车、或某些国际事业不值得为之奋斗等言论。在多个平台上放大这些信息可以使虚假信息看起来像是真的,或者至少制造足够的混乱来破坏公众对某个问题的共识。
人工智能系统可能会赋予信息战在胁迫和冲突中强大的新作用。
利用数千个独特的虚假账户,人工智能工具可能很快就能实时地向全体民众提供个性化定制的内容。这就是认知战,其对威慑的影响显而易见。由于民主国家的威慑信誉很大程度上取决于国内政治压力,因此操纵公众情绪的行动会削弱该国发出决心信号的能力。人工智能的操纵可能会使一个国家的国内民众不太愿意支持对外国侵略行为——尤其是针对盟友的侵略行为——采取强有力的军事回应,从而扭曲民意调查数据以及民主领导人关注的其他所谓的公众经验信号。这可能会使这些领导人无法确定他们究竟拥有多少支持,以及如果他们屈服,他们可能会面临多大的反弹。这种不确定性会导致犹豫不决,削弱领导人的决心,并使他们的决策变得模糊不清——所有这些都可能使国家的威慑威胁显得不那么可信。
与国家结盟的团体已经在探索如何通过人工智能驱动的影响力行动来破坏信息安全。例如,中国公司 GoLaxy 利用生成式人工智能工具和庞大的开源数据集,构建被监视个人的详细心理画像,并大规模部署模仿真实用户的虚拟身份。该公司的行动通常包括收集有影响力人物的详细信息,利用这些信息生成可能说服目标受众的信息,然后通过精心设计的社交媒体账号发送这些信息。通过实现高度的精准性并在多个平台上放大误导性叙事,此类行动可以制造混乱,腐蚀公共舆论,并削弱使威慑信号在国外具有可信度的国内基础。GoLaxy 与中国国家战略目标保持一致,并与国家关联的研究机构和超导公司存在联系,使其成为一个复杂的宣传机器。
我们在范德堡大学国家安全研究所分析的文件显示,GoLaxy已在香港和台湾开展行动,并一直在收集美国国会议员以及世界各地公众人物的档案。开源情报使对手能够出于战略目的,建立关于政客、军事领导人和士兵的全面档案。然后,可以利用这些信息进行精准的目标人物行动。例如,为了取得战术胜利,对手可以利用深度伪造信息攻击士兵,这些信息包含对战场状况或家庭情况的虚假描述,并且包含这些士兵的准确个人信息,从而使这些虚假信息看起来足够真实,足以分散他们的注意力或破坏部队凝聚力。在政治领域,对手可以将政客的真实照片与克隆的声音或面部特征相结合。即使这些信息从未被发布,其泄露的威胁也可能抑制目标人物的言论,阻碍立法程序,或削弱领导人的决心。从战略角度来看,敌对势力可以模拟当局发出虚假命令,要求部队撤退或转移到其他通信渠道,这可能为对手创造机会,使其获得优势。结果是造成认知上的战争迷雾。
毒化信息源
对手制造不确定性的另一种途径是模型毒化:战略性地操纵政府赖以进行情报收集和决策支持的人工智能系统。通过破坏这些系统的训练数据或损害其分析流程,对手可以扭曲防御方对其相对实力和威胁紧迫性的理解。一个低估对手实力的系统会助长防御方不必要的自信;一个夸大威胁性质的系统则会导致犹豫不决。无论哪种情况,有效操纵此类人工智能系统不仅会使防御方的危机管理复杂化,还会削弱其威慑信号的可信度,从而造成危险的风险。
本质上,模型毒化是通过操纵模型的数据管道,使其忽略重要信息并吸收虚假输入来实现的。这反过来又会导致系统做出误导性或有缺陷的评估。一种方法是在人工智能系统用于学习的数据集中植入虚假信息。这些隐藏的信息对人类审查员来说看似无害,但却会削弱或扭曲模型的推理能力——例如,诱骗它将某些类型的恶意软件标记为良性,从而使对手能够绕过人工智能驱动的防火墙。尽管目前尚未记录到此类攻击的实际案例,但当前的AI研究表明,现有数据集容易受到此类数据投毒攻击。曾经的理论设想如今已成为现实。
攻击者还可以通过创建被篡改的网页来污染模型。人工智能系统会持续不断地在互联网上进行实时搜索以获取新信息;这些网站可以向其注入隐藏的指令,从而扭曲模型的评估结果。如果用于筛选传入数据的过滤器不够强大,即使少量被篡改的网站也可能导致不准确的响应。
模型投毒是一种尤其隐蔽的信息战形式,它允许攻击者通过改变防御者用于获取信息的工具的运作方式,来扭曲防御者对其自身及他方能力和决心的理解。在危机时刻,投毒攻击可能导致领导者犹豫不决,甚至做出错误的判断,从而削弱威慑力,并为局势升级打开大门。
未雨绸缪
人们曾预期人工智能系统的出现将通过向对手发出更清晰的信号,从而增强威慑力,使其了解防御者的能力和决心。但这些系统所驱动的信息战日益增长的使用却可能适得其反。即使在早期阶段,这种新型信息战也表明,人工智能技术可以影响信息的解读方式,给判断过程带来不确定性,并扭曲支撑决策的数据。随着人工智能的进一步发展,这些威胁只会变得更加强大。
即使是像美国这样的强国,如果遭受先进的人工智能信息战攻击,也可能难以有效地传递其威慑可信度。对于政策制定者和普通民众而言,挑战在于如何利用人工智能的优势,同时防止其被武器化。必须与支撑这些技术的发展速度同步,尽快制定应对这种新威胁的策略。
应对这一挑战需要各国政府和研究人员采取措施,加强分析系统的安全性,防止模型被恶意篡改,并在发现人工智能驱动的影响行动时积极予以反击。例如,为了打击像 GoLaxy 这样的公司,美国及其盟友必须能够快速检测和破坏虚假网络,并利用能够识别和消除人工智能驱动的虚假身份的工具,防止其蔓延。开展关于合成媒体及其识别方法的教育活动,也能增强公众对这种威胁的认识。民主国家政府、社交媒体和人工智能平台以及跨学科研究人员应该携手合作,开发此类解决方案。
在战略层面,美国应该投资开发能够快速检测虚假信息的科技。政府、学术界和私营部门应该设计新的决策保障措施和数据过滤系统,使其能够抵御被污染的输入数据,同时与美国盟友合作,揭露和惩罚大规模信息战的幕后黑手。此外,该联盟应该系统地测试新模型,以找出缺陷——包括日常使用中可能并不明显的各种数据污染——并以严格透明的方式进行测试,以便进行同行评审。强有力的保障措施和严谨的测试对于确保人工智能系统在极端压力或危机时刻能够可靠运行至关重要。
在人工智能时代,威慑力不能再仅仅依赖于能力和决心。它要求领导人、国防战略家和其他决策者能够在信息环境受到广泛数字干扰的情况下,仍然保持信息环境的可靠性。