2026年2月27日,美国总统特朗普在其社交媒体平台发文,下令美国所有联邦机构立即停止使用AI企业Anthropic的技术产品,并给出最长6个月的逐步淘汰过渡期。与此同时,美国国防部宣布将Anthropic列为“供应链风险”企业,这一标签此前通常仅用于制裁被认为与外国敌对势力有关联的公司,意味着任何与美国军方有业务往来的承包商都不得再与Anthropic开展新合作。
这场封杀的导火索源于Anthropic与五角大楼之间持续数月的合同争端。双方此前签订了一份价值约2亿美元的合作协议,Anthropic为五角大楼提供其旗下AI大模型Claude的相关服务,但同时设定了两条明确的使用红线:Claude模型不得用于完全自主武器研发,也不得用于对美国公民的大规模监控。五角大楼对此提出异议,要求Anthropic解除这些限制,允许军方将该模型用于“所有合法用途”,甚至包括武器研发、情报收集等敏感领域。经过多轮谈判,Anthropic始终坚守底线,拒绝妥协。在五角大楼发出“2月27日下午5:01前同意,否则后果自负”的最后通牒后,Anthropic CEO Dario Amodei回应“凭良心无法答应”,宁丢合同也不让步。
这一事件并非孤立的商业纠纷,而是AI技术快速发展背景下,科技企业伦理立场与国家军事需求之间矛盾的集中爆发。Anthropic作为AI安全治理的积极倡导者,此前就曾支持美国加州SB 53法案,该法案要求前沿AI企业制定系统性安全框架、定期发布透明度报告等,与Anthropic自身的安全理念一脉相承。而美国政府则从国家安全角度出发,希望毫无限制地利用AI技术提升军事能力,双方的核心诉求差异最终导致了这场决裂。
从美国政府的角度来看,此次封杀行动是维护国家安全利益的必要举措。特朗普在声明中怒斥Anthropic为“左翼疯子”“觉醒公司”,称其行为危及美国军人生命与国家安全,试图胁迫“战争部”遵从公司服务条款而非美国宪法,是“灾难性错误”。国防部长皮特·海格塞斯则强调,五角大楼需要的是“没有意识形态约束”的AI,军方的AI“绝不能是觉醒的”,认为Anthropic试图“攫取对美国军方作战决策的否决权”,违背了五角大楼承包领域的常规规则。
在当前大国竞争加剧的背景下,AI技术被视为未来军事竞争的核心领域。美国政府认为,对AI技术的军用应用设置限制,将阻碍美军在AI军事化进程中的步伐,削弱美国的军事优势。此外,特朗普政府的这一决策也带有明显的政治考量,通过打击具有“激进左翼倾向”的科技企业,迎合其保守派支持者的诉求,巩固自身政治基础。
Anthropic则将此次事件定义为对AI伦理底线的坚守。公司始终认为,人工智能的可靠性目前不足以操控完全自主武器,一旦出现失误,可能导致不可挽回的人道主义灾难;而将AI用于大规模国内监控,则可能侵犯公民的隐私权和自由权,违背民主社会的基本原则。Anthropic的立场得到了部分科技界人士的支持,超过550名来自谷歌和OpenAI的员工联合签署公开信,呼吁自家高管拒绝五角大楼的越界要求,声援Anthropic的伦理坚守。
从企业发展角度来看,Anthropic的这一决策也与其长期的品牌形象塑造相关。作为一家以AI安全为核心竞争力的企业,坚守伦理底线有助于提升其在全球市场的声誉,吸引那些重视AI伦理的客户和投资者。虽然短期内失去了五角大楼的合同,但从长远来看,可能为其赢得更广泛的社会认可和市场空间。
此次事件对全球AI产业格局产生了深远影响。一方面,Anthropic面临巨大的商业损失和合规风险。其与美国军方的合同终止,以及被列为“供应链风险”企业,意味着将失去大量政府相关业务,估值可能受到冲击。同时,这一事件也向整个AI行业释放了强烈信号,即企业在与政府合作时,可能需要在伦理底线和商业利益之间做出艰难抉择。
另一方面,Anthropic的竞争对手则看到了市场机遇。马斯克旗下的xAI因对AI军用应用限制较少,迅速成为五角大楼的青睐对象,其Grok模型已获准用于一些最高机密行动。OpenAI也在与五角大楼谈判新的合作协议,试图在满足军方需求与维持企业安全底线之间寻找平衡。不过,xAI的Grok模型也因安全性和可靠性问题受到美国联邦总务署等机构的警告,其数据偏见和易受操纵的特性可能带来系统性风险。
Anthropic被封杀事件凸显了AI技术发展带来的治理困境,如何在国家安全、企业伦理和技术创新之间找到平衡,成为全球AI治理面临的重要课题。
它暴露了AI伦理与国家利益之间的深刻矛盾,也为全球AI治理敲响了警钟。在AI技术日益融入人类社会各个领域的今天,我们不能忽视其带来的风险和挑战。只有通过全球合作,建立健全的AI治理体系,才能确保AI技术朝着造福人类的方向发展,实现技术进步与伦理坚守的平衡。
上一篇:AI越发达,这一点越稀缺
下一篇:没有了