据《华尔街日报》报道,美国政府对伊朗实施的空袭行动中,使用了人工智能模型进行情报评估和目标识别。
具体承担这项任务的,是人工智能公司Anthropic旗下的Claude模型。
它被嵌入美军的指挥系统,协助处理海量情报数据、辅助识别潜在打击目标,并在虚拟环境中对行动方案进行推演。
这代表了当前AI军事化应用的主流方向。作为决策支持系统,提升信息处理和目标筛选的效率。然而,这一“辅助”角色其实划下了一道模糊的灰色地带。
当AI的运算结果直接影响指挥官的选择时,它究竟是工具,还是事实上的共同决策者?
1.军方为何终止与Anthropic合作
这次空袭的曝光,恰好发生在五角大楼与Anthropic终止合作的敏感节点。
双方矛盾的焦点,是Anthropic坚决不肯退让的两条红线:禁止将其AI用于针对美国公民的大规模监控,以及禁止将其整合进完全自主的致命性武器系统。
在Anthropic CEO Dario Amodei看来,前沿AI系统在可靠性上远未成熟,若因缺乏人类有效监督而导致误伤,将是无法承受之重。
但五角大楼认为,这种由私营企业设定的“安全护栏”是对军事决策权的僭越,无法适应复杂多变的战场现实。军方需要的,是能在“任何合法用途”下运行的AI。
这场僵局的结果,是特朗普政府以“供应链风险”为由,下令联邦机构停止与Anthropic合作,并设定了六个月的过渡期。
讽刺的是,封杀令墨迹未干,其技术就出现在了战场上。
2.转向OpenAI和xAI意味着什么
几乎在同一时间,五角大楼与OpenAI达成新的合作协议,而早在去年12月,其已与马斯克的xAI建立合作。两家公司的模型将被部署于军方的机密网络,OpenAI还被曝正参与为军方开发可由语音控制的自主无人机群。
值得注意的是,OpenAI曾明确禁止其技术用于军事领域,但自2024年起逐步放宽限制。如今其使命宣言中甚至删除了“安全”二字。
这种转变并非偶然:当军方需要AI提升作战效率,而AI公司需要军事订单维持增长,伦理考量在现实利益面前往往被搁置。
从Anthropic的被边缘化,到OpenAI和xAI的入局,折射出AI伦理治理模式的重大变化。
过去依靠企业自我约束的“硅谷理想主义”正在消退,取而代之的是国家权力与商业利益的深度绑定。当“国家利益”和“市场竞争”形成合力,曾经被寄予厚望的伦理防线变得异常脆弱。
曾因“价值观对齐”和“安全护栏”备受推崇的Claude,最终因其安全设计不够“顺从”而被弃用。
这留下一个真正的问题:当愿意配合的AI公司都拿到军方合同时,我们还能依靠什么来构筑最后的安全防线?



