徐贲:AI如何改写人类的战争伦理?
创始人
2026-03-30 18:23:35
0

人类战争史,从某种意义上说,是一部技术手段与伦理相互追赶的历史,而贯穿其中最深层的张力,始终是责任与代价之间的结构性错位:决定战争的人,往往不是承担战争代价的人。战略智慧早在数千年前便已洞见“擒贼先擒王”的最优逻辑——直接打击敌方决策核心,以最小代价瓦解最大抵抗——却因技术手段的根本性缺失,只能将这一理想束之高阁,转而依赖规模化的人员消耗来解决战争问题。数百万平民子弟因此成为领导者决策的代价承担者,而决策者本身却享有事实上的“后方豁免”(de facto rear-area immunity)。这里的“后方”本义来自战场空间意义上的后方,指远离直接交火区域、相对安全的指挥与支援区域。留在“后方”或者藏进坚固的地堡,这不仅是技术问题,更是深嵌于权力结构中的系统性不公正。

AI时代的到来,正在从技术层面颠覆这一结构。深度学习、实时目标识别、自主武器系统与卫星情报网络的融合,第一次赋予人类将古老战略理想转化为可重复、可规模化实施手段的能力。正如鲁珀特·史密斯(Rupert Smith)在《武力的效用》开篇所言,“战争不再存在”( “War no longer exists”)——这里的“战争”,指的是那种以大规模动员与工业化消耗为特征的传统战争形态。(Smith, The Utility of Force, 2005, p.1)。取而代之的,是一种精准、不对称、以决策层为直接打击对象的新战争形态。

但本文所要论证的,不只是“AI使擒贼先擒王成为可能”这一技术命题。更根本的是:AI正在重写战争的责任分配机制。前现代战争中,责任在上、代价在下——决策者安全,士兵牺牲;工业战争时代,责任扩散、代价全民化——总体战将整个社会卷入消耗;而AI战争时代,责任重新收敛,精准指向决策节点——战争的代价,开始回流至发动战争的人。理解这一责任结构的历史演变,才能理解AI时代战争变革的真正深度。

我们将沿着这一主轴,依次探讨:擒贼先擒王作为战略理想的历史渊源与技术困境;现代科技如何逐步打破这一困境;战争伦理与可实施手段之间的动态耦合;技术成熟后擒贼先擒王的必然趋势;以及这一变革带来的新伦理挑战,包括“算法化处决”的哲学困境、组织形态的共进化演变、认知斩首的深层威胁,与“零门槛战争”的终极风险。

古代“擒贼先擒王”:战略理想与责任结构的历史起源

战争作为一种权力行为,其最根本的不公正,早在人类文明形成之初便已显现:那些拥有决定战争之权力的人,往往并非承担战争之代价的人。这一结构性悖论,催生了与之对应的战略直觉——既然战争的源头是少数决策者,为何不直接打击这一源头,而要驱赶无数无名者去相互消耗?

孙子在《孙子兵法·谋攻篇》中,以最精炼的语言表述了这一直觉的战略含义:“故上兵伐谋,其次伐交,其次伐兵,其下攻城……不战而屈人之兵,善之善者也。”这一判断的逻辑层次分明:最高明的战争,是打击敌方的战略意图与决策能力;其次是瓦解敌方联盟;再次才是正面军事交锋;大规模攻城战则是代价最高、效率最低的下乘之选。“不战而屈人之兵”,不是消极主义,而是指向战争的最高效率——通过震慑或精准清除关键决策者,使敌方丧失继续抵抗的意志与能力,而无须动员百万军队进行肉搏。这一理想,从责任结构的角度看,实际上是要求战争的代价由决策者而非普通士兵来承担。

在西方战争理论体系中,克劳塞维茨(Carl von Clausewitz)提供了与孙子遥相呼应却路径不同的理论框架。在《战争论》第八卷“战争计划”中,他提出了著名的“重心”概念:“从敌我双方的主要特征中,会形成一个重心,它是全部力量与运动的枢纽,一切都依赖于它。这就是我们必须集中全部力量打击的点。”(Clausewitz, On War, Book Ⅷ, Howard & Paret trans.)他进一步建议“如果可能,将其追溯至单一一点”——领导层与指挥链正是这一“枢纽”最直接的人格化体现。克劳塞维茨同样清醒地认识到,战争是“政治通过其他手段的延续”(On War, Book I),因此战争的终极逻辑,必然指向驱动政治决策的核心人物。

克劳塞维茨,普鲁士少将、军事理论家,他的《战争论》被视作军事策略与科学的开创性著作。

然而,孙子的洞见与克劳塞维茨的逻辑,都在同一道技术门槛前碰壁。古代武器的精度有限、射程不远、情报滞后,领导层通常深藏于后方要塞,被厚重的军事层级与地理纵深所保护。历史上不乏擒贼先擒王的成功案例,但无一例外依赖高度偶然的条件:汉代傅介子潜入楼兰酒席刺杀国王,依赖极端的情报渗透与个人勇气,无法复制;蒙古军队围攻钓鱼城,蒙哥汗意外被击伤而死,是防御性偶然而非主动战略;历次反法联盟讨论针对拿破仑的暗杀方案,均因保护层级过密而无法实施。这些案例揭示了一个共同结构:在前现代战争中,成功的擒贼先擒王几乎总是依赖奇袭、渗透或意外,而非系统性、可重复的技术能力。

然而,即便进入现代战争时期,“擒贼先擒王”依然难以从偶发事件转化为稳定战略。对国家元首或最高指挥层的定点打击,仍然受到多重结构性约束:情报的不完全性、决策链条的冗余设计、安保体系的层层防护,以及政治后果的高度不确定性。历史上确有若干震撼性的成功案例,例如1943年盟军在“复仇行动”(Operation Vengeance)中击毙日本海军名将山本五十六,依赖的是对其行程的精确破译与一次性机会窗口;又如冷战及其后时期针对个别政治或军事领导人的“定点清除”,往往建立在长期情报积累与技术优势之上,但仍难以复制为普遍适用的作战范式。

与此同时,也有大量失败或放弃的计划,恰恰说明问题的另一面。二战期间针对阿道夫·希特勒的多次暗杀行动(包括“女武神行动”),尽管在战术上精心策划,却因偶然因素与结构性防护而功败垂成。即使在技术条件显著进步的20世纪后半叶与21世纪初,国家领导人依然通过分散指挥、机动位置与信息隔离来降低被“斩首”的风险。

《至暗时刻》剧照。

这些经验表明,在工业化乃至信息化战争阶段,“斩首行动”虽已从纯粹的偶然事件转向“高风险、高成本的特种能力”,但仍未成为一种低成本、可规模化、可重复的战略工具。它依旧依赖稀缺情报、精密协调与时间窗口,且往往伴随着巨大的政治与战略不确定性。因此,在AI时代之前,孙子式的“擒贼先擒王”与克劳塞维茨式的“重心打击”,始终停留在一种理想与现实之间的张力之中——前者在观念上清晰而优雅,后者在实践中却被技术与组织结构反复抵消。

技术瓶颈的长期存在,催生了与之相应的伦理规范体系,以“合理化”这一现实不平等。国际法与战争伦理逐渐发展出保护领导层的规则框架:禁止暗杀、区分战斗人员与非战斗人员——而非战斗人员的定义中,微妙地将后方指挥官纳入相对安全的范畴。历史学家约翰·基根(John Keegan)在《战争的面孔》(The Face of Battle, 1976)中深刻指出,战争史在很大程度上是精英阶层书写的历史,充满对“荣耀对决”的浪漫化,却对普通士兵的具体苦难语焉不详。这一书写传统本身,就是领导层“后方豁免”的意识形态支撑——当手段不可行时,宣布相应目标为禁忌,既能彰显文明性,又恰好符合既得利益者的偏好。

这便是前现代战争责任结构的历史遗产:责任在上,代价在下。理想虽明晰,手段却缺失,而伦理规范恰好填补了这一缺失,使不平等的责任分配得以制度化。这一结构,将随着技术革命的到来被彻底动摇。

《窃听风暴》剧照。

现代科技的崛起:从工业化消耗到外科手术式精准

从前现代战争到工业战争,责任结构发生了一次重要但并非根本性的变化:代价不再只由基层士兵承担,而是扩散至整个社会——但决策者自身,依然享有相对的物理安全。凡尔登战役双方各损失约三十万人,斯大林格勒战役的百万级伤亡,将工业化消耗战的内在逻辑推至极致:以量换胜,以社会总体承受能力的崩溃来决定战争结果。领导层在这一框架下反而具有战略稳定价值——敌方领导层若被消灭,可能引发无序崩溃,反而难以谈判终战;保留其存在,才能在筋疲力尽时签署停战协议。工业战争在客观上强化了领导层保护。

马丁·范克雷费尔德(Martin van Creveld)在《战争的转型》(The Transformation of War, 1991)中对这一范式进行了历史性解剖。他指出,自1945年以来,以国家为单位、以军队为工具的大规模战争正在全面瓦解:核武器使大国之间的工业战争成为相互确保毁灭的自杀游戏,而大量实际发生的冲突,则是非国家行为者参与的低强度持久战。国家对暴力的垄断正在瓦解,大规模人民动员从“合理”变为“高代价荒谬”。

然而,范克雷费尔德未能充分预见的是:精确技术与AI的出现,正在为国家行为者提供一种全新的战争工具,使其能够以极低的人员代价实现精确的战略效果——既不必走向核毁灭的极端,也不必陷入低强度冲突的长期泥沼。这一发展,正是从工业战争向精准战争转型的技术基础。

1991年海湾战争是这一转型的历史分水岭。美国主导的多国联军使用激光制导炸弹与“战斧”巡航导弹,对伊拉克指挥通信体系实施精准打击,在极短时间内瓦解了伊拉克军队的协调能力。与越战的无休止消耗相比,联军士兵伤亡微乎其微,而伊拉克的军事基础设施损失惨重。精确制导武器虽然只占投弹总量的约10%,却造成了60%以上的关键目标破坏。这场战争第一次向世界展示了精确战争的战略潜力,但其局限同样清晰:对移动目标尤其是领导层人员的实时追踪能力十分有限,萨达姆·侯赛因始终未被锁定为可靠打击目标。

无人机技术的成熟,代表了精确打击能力的第二次飞跃。从2001年阿富汗战争开始,“持久凝视”(persistent stare)能力第一次被系统性地应用于高价值人员目标:无人机可以在目标上空持续巡逻数十小时,积累“模式生活情报”(pattern of life intelligence),掌握目标的日常规律,选择最佳打击时机。这使得打击高价值人员从“偶然性奇袭”转变为“系统性猎杀”。但早期无人机系统仍高度依赖人工判断,每一次打击都需要漫长的情报分析链条,规模化能力受到根本制约。

《生化危机5:惩罚》剧照。

机器学习与人工智能的介入,是精确打击能力第三次也是迄今最根本的飞跃。AI在战争情报链条中的核心贡献,体现在几个相互强化的层面。目标识别自动化方面,深度学习算法可以整合卫星图像、信号情报、人力情报与社交媒体分析,将原本需要数周的情报处理压缩至实时完成。以色列国防军开发的“福音”(Gospel)AI系统,据报道能够每天自动生成数以百计的打击目标推荐,极大扩展了战场情报处理能力。模式行为预测方面,AI不仅能识别目标在已知位置的存在,还能基于历史行为数据预测其未来位置与活动规律,实现“预测性定位”(predictive targeting),使移动目标追踪从技术难题变为常规能力。在“杀伤链”(kill chain)的时间压缩方面,传统从发现到打击的全过程耗时数天乃至数周;AI驱动的现代杀伤链,理论上可将某些环节压缩至分钟级甚至秒级,对打击高机动性领导层目标具有决定性意义。

史密斯在2005年已预见了这一方向的大轮廓:“武力的效用必须被重新定义——不再是通过压倒性数量赢得战场,而是通过精准效果实现政治目的。”(Smith, The Utility of Force, 2005, p.267)AI的出现,正是将这一“精准效果”推向了极致,并第一次为擒贼先擒王提供了可规模化、可重复实施的物质基础。工业战争时代扩散至全民的战争代价,正在被技术重新汇聚,指向决策节点。

战争伦理与可实施手段:一部动态耦合的历史

理解战争伦理演变的关键,在于摆脱一种常见的误解:将战争伦理视为超越历史的绝对道德命令,认为某些行为“本质上”被禁止,与技术条件无关。事实上,战争伦理从来都是技术条件、权力结构与道德哲学三者复杂博弈的产物,随着技术条件的变化而持续演进。历史提供了一个反复出现的规律:当某种手段在技术上不可行时,伦理体系倾向于将其宣布为“禁忌”;而当技术使其成为可行时,伦理体系则经历压力与重新阐释,最终在某种程度上接纳这种新手段。

化学武器的历史是这一规律的清晰例证。一战之前,化学武器并无明确的国际法禁止,因为其大规模使用的技术能力尚未成熟。一战中的毒气使用造成了毁灭性的人道主义灾难,引发了国际社会对新禁忌的迫切需求,最终形成了1925年《日内瓦议定书》的禁用规范——伦理禁止是在技术成熟且被证明具有滥杀性之后才形成的。战略轰炸的历史则展示了相反方向的演变:早期针对平民城市的空袭遭到国际社会普遍谴责,但随着技术能力的规模化,双方都接受了“战略轰炸”作为战争手段,伦理边界大幅后退。无人机定点清除的逐步合法化,则是最直接的当代案例:2001年以来的大量实践,催生了伦理论证的成熟。迈克尔·沃尔泽(Michael Walzer)在2016年《代达罗斯》杂志的论文中明确表态:“无人机杀戮与狙击手步枪在道德上无异……这是不对称战争的理想武器。”(Walzer, "Targeted Killing and Drone Warfare", Daedalus, 2016)伦理共识追随了技术实践。

《反思无人机》

作者:(法)夏马尤

译者:焦静姝

版本:商务印书馆

2024年12月

沃尔泽在《正义与非正义战争》(Just and Unjust Wars, 1977)中构建的正义战争框架,为理解这一演变提供了最具影响力的理论工具。他区分“开战正义”(jus ad bellum)与“作战正义”(jus in bello),并将“区分原则”(discrimination)与“比例原则”(proportionality)置于后者的核心:只能攻击战斗人员而非平民,且预期军事收益必须大于附带平民伤亡。这一框架从一开始便为精确打击领导层留下了理论空间。沃尔泽明确写道:“在战时,军事领导人显然是合法目标……狙击手被派去击杀来访的上校或将军,这是针对杀戮,但没人会指责他非法或错误。”(Walzer, Just and Unjust Wars, 1977)

AI精确打击技术的出现,以一种特定方式解决了区分原则与比例原则之间长期存在的内在张力。在传统炸弹轰炸时代,即使目标是军事设施,附带的平民伤亡也难以避免,区分原则常常被技术限制所违背。AI精确打击在理论上使区分原则的实现更为可行:算法可以在打击前实时评估目标周边的平民存在,甚至在检测到特定情形时中止打击。而从比例原则的计算看,以精确导弹定点清除某指挥官,与通过大规模轰炸整个城区来摧毁同一指挥所相比,前者在附带伤亡方面显然更符合伦理要求。这一逻辑引出了一个具有挑战性的推论:AI精确打击,在符合伦理的意义上,实际上是一种道德“进步”——它使战争在技术上更接近正义战争理论的理想标准。

然而,正是在这一表面上清晰的道德进步叙事中,潜藏着需要深入审视的哲学困境。

《少数派报告》剧照。

处决逻辑还是战争逻辑:AI时代伦理的深层裂缝

当战争从“群体性暴力”转向“高度个体化的定点清除”,一个传统正义战争框架尚未充分回答的问题浮出水面:减少无辜伤亡,与定向处决特定个体,并不自动等价为道德进步。这两者之间,存在一道深刻的哲学裂缝。

传统战争伦理建立在一个基本假设之上:战争是两个政治共同体之间的武装冲突,其中的杀戮是匿名的、结构性的,而非针对特定个人的。士兵杀死的,不是“张三”,而是“敌方战斗人员”;被杀死的,也不是“李四”,而是“我方士兵”。这种匿名性,是战争伦理与谋杀伦理之间的关键区别——正义战争理论的核心假设之一,是战争中的杀戮不等同于对个人的谋杀,因为它指向的是抽象的“敌方战斗人员”身份,而非具体的个人存在。

AI精确打击,从根本上打破了这一匿名性。当算法生成的是附有姓名、照片、行动规律与位置坐标的特定个人目标档案;当打击决策针对的是“某某指挥官”而非“敌方指挥所”;当杀伤链终点是一个有名有姓、被长期追踪的具体人物——战争的逻辑与处决的逻辑之间的界限,便开始模糊。这不只是哲学上的精致区分。它指向一个实践中的真实困境:AI精确打击既不像传统战争(群体性、匿名性、相互暴力),也不像司法程序(有明确的程序正义、辩护权利、无罪推定),而是介于两者之间的某种“算法化处决机制”——它有战争的权力授权,却行使着类似处决的个体化暴力。

这一困境在非对称冲突中尤为尖锐。当美国以“参与敌对行动”为由,将某个也门或巴基斯坦部落领袖列入打击名单,并由AI系统在其正常生活场景中(而非战场上)实施致命打击时,整个过程缺乏任何形式的第三方审查、辩护机会或错误纠正机制。目标无法知道自己已被列入名单,无法申诉或证明自己无辜,甚至在许多情况下,连打击后的错误识别都没有任何追责程序。这与司法处决的本质区别,不在于结果(死亡),而在于过程——后者有程序正义的全部保障,前者一无所有。

沃尔泽本人对这一滑坡有所警惕,他坚持认为“和平时期政治暗杀在民主国家绝不允许”(Walzer, 2016),并强调战时定点清除的合法性,必须严格限定于“直接参与指挥作战”的目标。但“直接参与”的边界,在AI时代正在以令人担忧的方式扩张。当“行为特征分析”(signature strikes)——不基于具体身份,而基于行为模式——成为打击依据时,传统战争伦理要求的具体目标识别已被彻底架空。你不是因为你是谁而被打击,而是因为你的行为模式被算法标记为“威胁特征”。这是算法化处决逻辑最危险的极端:不需要确认你的身份,只需要你的行为符合某种模式。

这一困境指向了一个更深层的结构性问题:AI战争的道德进步叙事(更少附带伤亡、更符合区分原则),是以一种新的道德代价为前提的——将战争逻辑与处决逻辑的边界抹平,创造出一种在历史上前所未有的暴力形式:有国家授权、无程序保障、依靠算法执行、针对特定个体的定向致死机制。“更少伤亡”并不自动意味着“更正义”,如果这种“更少伤亡”是通过彻底放弃程序正义、个人尊严与错误纠正机制来实现的。

《敦刻尔克》剧照。

技术成熟后擒贼先擒王的趋势必然性

尽管存在上述深刻的伦理张力,擒贼先擒王在技术成熟后成为主流战略趋势,其内在逻辑却是强大的。这一逻辑的力量,来自三个相互强化的层面:战略有效性的实证支撑、责任结构重塑的伦理吸引力,以及威慑机制的根本性转变。

战略有效性的问题,有实证数据可供参考。哈佛大学肯尼迪政府学院的帕特里克·约翰斯顿(Patrick Johnston)在2012年发表的《斩首管用吗?》(“Does Decapitation Work?”)中,分析了1975年至2003年间118场叛乱与反叛乱冲突中的斩首案例,核心发现是:成功的斩首行动使政府方获胜的概率提高约25%,并能显著缩短冲突持续时间、降低暴力强度(Johnston, International Security, Vol.36, No.4, 2012)。这并非“万能银弹”的证明,约翰斯顿本人强调了组织特性与执行质量的关键调节作用,但它提供了有统计意义的实证支持,证明擒贼先擒王在特定条件下具有可量化的战略优势。更值得注意的是反事实分析:在不实施斩首的情况下,这些冲突会以什么方式延续?大多数情况下,答案是持续的大规模伤亡。即使斩首行动本身造成一定的附带伤亡,只要它能缩短冲突周期,其净效果仍可能在总体伤亡层面是正面的。

反对擒贼先擒王的声音,在表面上采用伦理与法律的语言,但其实质动机值得深入审视。决定国际战争规则的人,正是战争中最可能成为被打击目标的人;国际法由国家代表谈判,国家由领导层代表——任何强化领导层保护的规则,都具有天然的政治支持基础。从这个视角看,1976年美国《总统行政令11905号》禁止美国政府雇员参与暗杀活动,可以被解读为一种制度化的“精英互保协议”。当以色列、美国实施精确打击时称之为“精准反恐”;当伊朗代理人或俄罗斯实施类似行动时,则遭到强烈谴责——这种双重标准本身,揭示了“伦理反对”背后深藏的利益逻辑:反对者并非不懂其有效性,而是担心自己成为那个“先走的人”。

但在已然开打的战争中,这些反对理由终究无法阻挡技术与利益的合力。克劳塞维茨已经指出,战争是“政治通过其他手段的延续”(On War, Book I);如果战争的终极目的是政治意志的实现,那么直接打击产生这一政治意志的来源,在逻辑上始终优于间接的大规模消耗。AI的独特贡献在于将这一优先级在实践层面彻底兑现:系统可以24小时持续追踪,无需人类执行者暴露生命风险;算法可以预测继任者行为,提前阻断重建;多轮打击链条的自动化规划,甚至可以实现“斩首+后勤切断”的复合效果。

擒贼先擒王在技术成熟后最深刻的战略影响,或许不在于战争中的实际打击效果,而在于其对战争决策的威慑结构转变。传统战争威慑建立在“如果你发动战争,你的国家将受到打击”的集体性基础上——代价最终由全体国民承担,而非专门由决策者承担。这是一种责任与代价之间的根本性错位。AI精确打击正在创造一种全新的“个人化威慑”:如果你发动战争,你本人将成为优先打击目标。这一威慑结构,在逻辑上比集体性威慑更为精准,也更符合正义——它要求决策者为自己的决策付出直接代价,而非将代价转嫁给无辜的国民。史密斯所描述的战争形态转变(Smith, 2005),在这一维度上获得了其最深刻的伦理含义:战争的代价,终于开始回流至战争的源头。

《猎杀本拉登》剧照。

斩首战略与组织形态的共进化:一个结构性困境

然而,擒贼先擒王的战略有效性并非一成不变的常数,而是嵌套在一个更复杂的动态过程之中。当斩首战略日趋系统化,被打击的组织并非静止地等待被消灭,而是在持续的压力下发生适应性演化。这一共进化过程,揭示了AI时代擒贼先擒王战略一个深层的结构性困境:越有效的斩首,反而可能催生越难以被斩首的组织形态。

约翰斯顿的《斩首管用吗?》研究已经指出,斩首对高度个人化领导层依赖型组织效果最佳,对高度官僚化组织效果有限,而对去中心化网络结构则效果最差(Johnston, 2012)。这一发现本身,就隐含了一个演化压力的逻辑:当领导层面临持续的精确打击威胁,组织的生存压力会驱动其向更难被打击的结构形态演变——减少对可识别领导层的依赖,发展分布式决策机制,培育无需中央指挥的自主执行能力。基地组织在持续反恐打击下的碎片化演变,正是这一逻辑的历史展现:核心领导层被持续清除,组织并未瓦解,而是以更难追踪的“特许分支”形式在全球范围内扩散——ISIS、基地组织马格里布分支、也门基地组织,每一个分支都拥有相当程度的自主性,无需等待中央指令便可发动行动。

这一共进化过程的结构性含义,远超单纯的战术层面。它指向一个可能的历史趋势:AI精确打击的持续压力,正在为未来的政治与军事组织形态施加一种强大的演化选择压力——向“不可斩首形态”演化。那些拥有高度分布式决策机制、去中心化执行能力与无明确领导层的组织,将在AI时代的生存竞争中占据优势。这不是科幻推测,而是组织演化在持续压力下的逻辑必然。

这一趋势带来了一系列深刻的后果。从战争效果的角度,AI擒贼先擒王并不会终结有组织的武装抵抗,而是推动其向更扁平、更弥散、更难以被技术手段定位的形态演变。去中心化组织固然在协调大规模行动上能力有限,但在持续骚扰、点状打击与信息战方面,往往具有更强的韧性。范克雷费尔德早已预见,战争转型后,冲突将更趋持久化、低强度(van Creveld, 1991);AI驱动的擒贼先擒王,可能加剧而非减轻这一趋势。

从更广的政治层面看,这一共进化压力甚至可能塑造未来政治权力的组织逻辑。当集中式的领导结构意味着极高的脆弱性,权力组织将面临“集中以便有效”与“分散以便存活”之间的根本性张力。这不是某一类武装组织独有的问题,而是AI时代所有权力结构必须面对的新现实。

《国土安全》(第八季)剧照。

认知斩首:比物理清除更深远的战争维度

在擒贼先擒王的讨论中,物理清除往往占据着分析的中心,但从长远的战略影响看,认知层面的“斩首”或许远比物理层面更为根本,其影响也更为深远和难以逆转。

物理斩首消灭的是特定的决策者;认知斩首改变的,是谁被视为“决策者”、什么被视为“现实”、哪种政治选择被视为“可能”。AI最深刻的战争能力,或许不在于“杀谁”,而在于定义谁是敌人、谁是领袖、哪种叙事是真实的。这是一种在战争史上全新的权力形式:对集体认知本身的塑造能力。

认知斩首在技术层面有多种实现路径,彼此相互强化。通过AI生成的深度伪造(deepfake)技术,可以制造高度逼真的虚假视频或音频,显示某位领导人发表特定声明、做出特定决定,从而在其组织内部制造信任危机与决策混乱——这是对领导权威的认知层面消解,无需物理接触。通过算法驱动的大规模信息干预,可以系统性地塑造目标人群对敌方领导层的认知:强化负面形象、放大内部矛盾、制造分裂叙事,使领导层在其支持群体的认知中“死去”,即使其物理上仍然存在。更深层的形式,是对决策信息生态的系统性污染:当AI可以在敌方的情报收集与分析系统中注入大量精心设计的虚假信号,敌方领导层的决策依据本身便遭到了侵蚀,其判断能力的削弱不亚于物理清除。

史密斯在《武力的效用》中深刻指出,现代战争的核心争夺在于“叙事的合法性”(legitimacy of narrative)(Smith, 2005, p.371)——谁能控制战争叙事,谁便能左右冲突的政治结果。AI深假技术与算法信息战,是在这一战场上的终极工具。它们不需要杀死一个领袖,只需要使其在关键受众的眼中失去合法性,或使其决策依据的信息基础遭到彻底瓦解。

认知斩首的另一个重要维度,是对“决策者”本身的定义权之争。在AI驱动的信息战中,影响政治决策的关键节点可能并非传统意义上的政治或军事领导人,而是信息流通的枢纽——关键媒体节点、意见塑造者、算法推荐系统的设计参数。谁能控制这些认知基础设施,谁便拥有了更深层的“斩首”能力:不是消灭某个具体的决策者,而是从根本上塑造整个决策生态,使某些选择看起来“不可能”,使某些领导人看起来“不正当”,使某种政治意志在形成之前便遭到消解。

孙子关于“上兵伐谋”的古老智慧,在认知斩首的维度上获得了最深刻的当代回响:“伐谋”的最高境界,不是杀死执行谋略的人,而是瓦解谋略得以产生的认知与信息基础。这是一种比物理清除更彻底、更持久,也更难以防御的战争形式——因为它的战场,是人类认知本身。

《国土安全》(第八季)剧照。

零门槛战争:AI带来的最危险遗产

从以上分析中,浮现出一个贯穿AI时代战争变革的最危险命题:AI真正降低的,不是战争的破坏力,而是发动战争的心理门槛。沃尔泽在2016年的论文中已经触及这一问题,他警告道:“轻松战争的代价,是更多的战争。”(Walzer, 2016)但这一警告的全部含义,值得更充分的展开。

传统战争的高代价,在一个意外的维度上发挥着维护和平的功能:它使发动战争的决定沉重而难以轻率。当一场战争意味着己方将有数万乃至数十万士兵阵亡,意味着国内民众将面临漫长的牺牲与消耗,这种集体性代价会在政治决策者心中形成强大的抑制力量——不是出于道德,而是出于政治生存的本能。即使是最鲁莽的领导人,也必须面对战争带来的社会动荡与政治反噬。这是工业战争时代“代价全民化”这一结构性不公正,反而产生的一个意外的和平红利。

AI精确打击系统的出现,正在系统性地消解这一抑制力量。当己方战斗人员的生命风险接近于零(无人机操作员坐在数千公里外的控制室,自主武器系统完全无需人员暴露),当打击行动可以在媒体雷达之下悄然进行而无需公开宣战,当战争的政治代价被“精准”与“必要”的话语框架所消解——发动武装行动的门槛,在政治心理层面,已经发生了根本性的改变。

《西线无战事》剧照。

这一“零门槛”效应在实践中已有显著体现。美国在奥巴马政府时期大幅扩展了无人机打击项目,在也门、巴基斯坦、索马里等多个国家实施了数百次打击行动,其中许多发生在从未正式宣战的地区——正是因为无人机行动的低政治代价,使得这些行动可以在国内政治审查的雷达之下持续进行。这代表了一种新型冲突形态的兴起:持续的、低强度的、从未被正式宣布的武装干预,介于和平与战争之间,却拥有战争的全部致命效力。

这一趋势的长期影响,可能比任何单次战争更为深远。当“决定使用武力”的政治代价持续降低,国际关系中的暴力阈值将系统性地下移。更多的争端将以武力手段解决,而非通过外交协商;更多的“预防性打击”将以算法分析为依据而非明确的迫在眉睫的威胁;更多的国家将在模糊的法律框架下,以“精准”与“必要”为名,实施事实上的持续武装干预。

核威慑与精确打击的危险交集,进一步加剧了这一风险。当核国家意识到对手的AI系统具备在开战首日精确消灭其核武器指挥链的能力,其核战略的稳定性将受到严峻挑战。兰德公司研究员詹姆斯·阿克顿(James Acton)已经警告,AI精确打击能力的提升,正在侵蚀核威慑体系赖以运作的“第二次打击能力”(second-strike capability)的可信度:如果一个国家相信自己的核力量可能在第一轮打击中被精确摧毁,它在危机中采取先发制人行动的压力将大幅上升(Acton, "Escalation through Entanglement", International Security, 2018)。AI带来的“更精准的常规战争”,可能在核战略博弈的层面,反而推动着人类向它本应避免的最坏结果靠近。

零门槛战争的终极悖论在此显现:AI使战争在单次行动层面更“清洁”、更“精准”、更“有限”,却在系统层面使战争更频繁、更持续、更难以终止,并在极端情况下为核升级埋下隐患。这是AI时代战争变革最深重的遗产——不是战争变得更人道,而是战争变得更容易发动。孙子的终极智慧“不战而屈人之兵”,在这一语境下获得了全新的迫切含义:真正的进步,不在于将战争打得更精准,而在于将战争发动的门槛维持在足以令决策者三思的高度。

《安德的游戏》剧照。

结语:技术进步与文明选择之间的永恒张力

回到开始的核心命题:AI时代的战争变革,正在重写人类战争的责任分配机制。前现代的“责任在上、代价在下”,工业时代的“责任扩散、代价全民化”,正在让位于一种新的结构——责任重新收敛,指向决策节点。孙子关于“伐谋”的战略理想,克劳塞维茨关于打击“重心”的战略逻辑(Clausewitz, On War, Book Ⅷ),沃尔泽关于精确打击伦理正当性的论证(Walzer, 2016),史密斯宣告的工业战争终结(Smith, 2005),共同勾勒出这一历史方向的清晰轮廓。

然而,这一“进步”充满了深刻的复杂性。擒贼先擒王在责任结构上更接近正义,却在实践中创造了“算法化处决机制”这一前所未有的暴力形式。AI精确打击减少了附带伤亡,却降低了发动战争的心理门槛,可能带来更多而非更少的暴力总量。斩首战略在战术层面有效,却在结构层面推动被打击组织向更难以被消灭的去中心化形态演化。物理斩首有其明确的技术路径,而认知斩首——对集体认知与信息生态的系统性塑造——则打开了一个在历史上全新的、边界更难界定的战争空间。

这些复杂性不应成为否认AI战争变革深度的理由,而应成为驱动我们更严肃地思考技术进步与文明选择之间永恒张力的动力。技术进步本身是中性的,但其展开的方向,取决于人类在伦理框架、国际法规范与政治意志层面所做的选择。AI使擒贼先擒王从梦想变为现实,这是迟到数千年的技术兑现;但如何在这一新现实中,既保留其对责任结构的正义性修正,又防范其对战争门槛的危险侵蚀,这是属于我们这个时代的文明课题。

最终,和平仍依赖外交与威慑,战争的减少仍依赖政治智慧而非技术精度。但在冲突不可避免时,一个更公正的战争形态,应当是让那些决定战争的人,而非无数无名的普通人,站在历史最残酷的舞台最前排。这是残酷的进步,是人道的逻辑,也是孙子“不战而屈人之兵”的理想在技术时代最现实的投影——将发动战争的代价,重新归还给发动战争的人。

作者/徐贲

编辑/李永博

校对/王心

相关内容

热门资讯

李煜晖:AI+本土化,海外华文... 中新网3月30日电(李季苏亦瑜)从智能备课到“AI中文老师”,从标准化教学到本土化生成,AI技术正在...
AI如何在企业中“落好”和“用... 当前,全球人工智能(AI)产业正超越单纯的大模型竞争,向科学智能、智能体(Agent)、具身智能、A...
徐贲:AI如何改写人类的战争伦... 人类战争史,从某种意义上说,是一部技术手段与伦理相互追赶的历史,而贯穿其中最深层的张力,始终是责任与...
雷军发微博称小米AI人才招聘专... 3月30日,小米创办人、董事长兼CEO雷军发文表示,小米今年在AI领域研发及资本开支高达160亿,已...
企微开源“养虾大杀器”!AI可... 智东西作者|江宇编辑|漠影企业微信把接口端“掀开了一层”!智东西3月30日报道,刚刚,企业微信正式把...
谷歌TurboQuant算法开... 谷歌发布TurboQuant革命性AI推理算法,将KVCache压缩至3bit,内存占用减少6倍、推...
美图CPO陈剑毅:积极融入全球... @page{size:8.27in11.69in;margin-left:1.25in;margin...
中信建投:头部企业持续加大AI... 每经AI快讯,中信建投研报称,近期OpenClaw从爆款开源工具升级为现象级AI产品,凭借GitHu...
纳米抗体+AI,生物医药新革命 近期,美国迈阿密大学与法国图尔大学的科研团队在《自然·通讯》期刊上公布了一项突破性成果:科学家成功从...
领益智造:2026年将加速AI... 3月30日,领益智造(002600.SZ)发布《致股东信》称,2025年,公司围绕“战略定力、固本培...