参考消息网11月24日报道英国《金融时报》网站11月17日刊登一篇文章,标题是《人工智能:战争新规则》,作者是海伦·沃勒尔。全文编译如下:
有关人工智能(AI)在战争中应用的讨论带来了一种反乌托邦的恐惧。军事指挥官们期望拥有一支数字化部队,速度更快、准确度更高,超越人类指挥的战斗。然而,也有人担心随着AI在战争中扮演愈发核心的角色,军事指挥官可能会失去对战争的控制,因为冲突可能会迅速升级,且缺乏道德或法律层面的监督。
理解并降低这些风险是我们这个时代的军事要务。西方逐渐达成的一个共识是,部署核武器的决策不应交给AI。联合国秘书长古特雷斯更是进一步呼吁全面禁止完全自主的致命武器系统。
监管必须跟上技术发展的步伐,这至关重要。但在科幻作品激发的兴奋场景下,人们很容易忽略实际可能发生的事情。正如哈佛大学贝尔弗科学和国际事务中心的研究人员所指出的,AI乐观派常常低估部署完全自主武器系统所面临的挑战。AI在战斗中的能力完全有可能被过度夸大。
这一观点的主要支持者安东尼·金教授认为,AI不会取代人类,而是会用于提升军事洞察力。尽管战争的性质正在改变,远程技术也在改进武器系统,但他坚称:“战争的完全自动化不过是一种幻想。”
当前,AI在军事领域的三个应用场景都算不上完全自主。AI正被用于规划与后勤、网络战(包括破坏、间谍活动、黑客攻击和信息战)以及最具争议的武器瞄准。后者已在乌克兰的战场上投入使用。基辅的军队使用AI软件来指挥无人机,在接近敏感地点时能够避开俄罗斯的干扰器。
有一种有趣的观点认为,对在战争中应用AI感到恐惧和震惊的人中,可能有一部分是那些不熟悉残酷但现实的军事规范的人。部分反对将AI用于战争的声音与其说是针对自主系统的使用,不如说是反对战争本身。
AI公司对于在军事领域应用其产品的态度发生了巨大转变。2024年初,开放人工智能研究中心(OpenAI)明确禁止将其AI工具用于战争,但到了当年年底,它与安杜里尔公司签署了一项协议,帮助该公司在战场上击落无人机。
这一步虽不是完全自主武器,但绝对是AI在战场的应用,标志着一个重大转变,即科技公司可以公开其与军工系统的联系。
反对AI战争的人可分为几类。其中一类人根本不认同瞄准更精确就意味着伤亡更少,或者说,他们认为这只会导致更多战争。想想阿富汗无人机战争的第一个阶段。随着无人机袭击的实施成本降低,我们真的能说它减少了杀戮,还是仅仅意味着每花一美元就能造成更多破坏呢?
但还有一类批评者来自熟悉战争现实的人,他们对这项技术的根本局限性有非常具体的不满。例如,前美国海军战斗机飞行员、乔治·梅森大学工程与计算机科学教授米茜·卡明斯就直言不讳地认为,大语言模型在军事场景中特别容易犯严重错误。
我们应该继续质疑AI战争系统的安全性,并保证政治领导人在这方面负起责任。我们也应对一些科技公司就AI在战场上可能实现的目标所作出的“极其宏大的承诺”持怀疑态度。
新的国防科技领域为军方提供的东西,既是机遇也是风险。危险在于,在AI武器军备竞赛过程中,这些新兴能力可能无法得到它们迫切需要的审视和讨论。
(编译/涂颀)