当一家以“安全、有益”为宗旨的顶尖AI公司,被要求为军事行动提供“无限制访问”时,会发生什么?2026年2月,一场发生在华盛顿的闭门会议,将AI伦理与国家安全之间的尖锐矛盾推向了风口浪尖。美国国防部高级官员皮特·赫格塞斯(Pete Hegseth)向知名AI研究公司Anthropic发出强硬信号:要么完全满足国防部(DoD)的需求,要么面临“严重后果”。这一事件不仅关乎一家公司的选择,更触及了AI军事化应用这一全球性敏感议题的核心。

核心看点:

  1. 权力施压:国防部官员以“后果自负”的强硬姿态,要求Anthropic放弃对其模型的军事使用限制。
  2. 伦理困境:以安全、负责任AI为立身之本的Anthropic,正面临商业利益、国家意志与自身原则的三重考验。
  3. 行业风向:此事件可能成为分水岭,影响其他AI公司未来与政府及军方合作的策略与底线。

事件始末:从闭门会议到公开对峙

据《金融时报》报道,此次冲突的导火索是Anthropic试图限制其先进AI模型在军事领域的应用范围。作为由前OpenAI高管创立、以构建“可靠、可解释、可操控”AI系统为目标的公司,Anthropic在其使用政策中一直对高风险应用,尤其是涉及致命自主武器系统的开发,持谨慎甚至限制态度。

这一立场显然与美国国防部近年来加速推进AI军事化的战略产生了直接冲突。以皮特·赫格塞斯为代表的军方强硬派认为,在所谓“大国竞争”的背景下,美国必须充分利用私营部门最先进的AI技术来维持军事优势,任何技术上的自我设限都等同于将优势拱手让人。

因此,Anthropic的首席执行官被“传唤”至华盛顿。在会议中,赫格塞斯明确表达了国防部的要求:Anthropic必须为其提供对其AI模型的“无限制访问”(unfettered access),以满足从情报分析、网络作战到战场决策支持等一系列潜在军事用途。消息人士透露,赫格塞斯的措辞近乎最后通牒,暗示如果Anthropic不配合,可能会面临从合同排除到监管审查等一系列“后果”。

深度解读:为何是Anthropic?冲突背后的多重逻辑

1. 技术稀缺性与战略价值 Anthropic的核心模型(如Claude系列)在推理能力、安全对齐(AI Alignment)和复杂任务处理上处于行业领先地位。对于国防部而言,这类模型在模拟推演、密码破译、后勤优化乃至心理战信息生成方面具有不可估量的潜力。控制或优先获取这类技术,已成为大国军事科技竞争的新焦点。

2. 伦理旗帜与商业模式的碰撞 Anthropic自创立起就将“AI安全”作为核心卖点和差异化优势,吸引了大量关注伦理的投资和用户。向军方开放无限制访问,不仅可能违背其公开承诺,更会动摇其品牌根基,引发员工、投资者和社区用户的强烈反弹。这本质上是一场公司核心价值观与外部政治经济压力的对决。

3. “或 else”的潜台词:法律与政策工具箱 赫格塞斯的威胁并非空穴来风。美国政府拥有多种工具可向科技公司施压:

  • 《国防生产法》:在“国家安全”名义下,可强制要求企业优先满足政府订单。
  • 合同杠杆:国防部是许多科技公司的重要客户,失去合同意味着巨大经济损失。
  • 监管审查:可能通过反垄断、数据安全或出口管制调查,增加公司运营成本与不确定性。
  • 舆论塑造:将不合作的公司描绘为“不爱国”或“阻碍国家安全”,影响其公众形象。

行业涟漪:对AI生态的深远影响

此次事件向整个AI行业释放出明确信号:

1. “不作恶”的代价越来越高。 对于立志于负责任AI的初创公司,未来在接受政府投资或寻求合作时,将不得不更早、更严肃地思考技术被用于军事目的的边界问题。纯粹的技术理想主义将面临更严峻的现实挑战。

2. 地缘政治加速技术阵营分化。 美国军方对本土AI技术的强力整合,可能促使中国、欧盟等加速发展自主可控的AI技术栈,全球AI研发与供应链的“脱钩”风险在军事相关领域将进一步加剧。

3. 人才争夺战添新维度。 许多顶尖AI研究人员出于伦理原因,对军事项目持保留态度。如果Anthropic最终妥协,可能导致内部人才流失,并影响未来顶尖人才对加入此类公司的选择。

4. 投资者风险评估模型需更新。 除了市场、技术风险,AI公司的“地缘政治与伦理合规风险”将成为投资者必须考量的新重要因素。

未来展望:在夹缝中寻找平衡点

Anthropic与国防部的博弈,短期内可能以某种形式的折中方案告终。例如,建立严格的“使用范围”框架、设立独立的伦理监督委员会、或仅限于非致命性、防御性的支持项目。但这种平衡极其脆弱。

长期来看,这一事件凸显了全球范围内建立AI军事应用国际规范的紧迫性。类似《特定常规武器公约》关于致命自主武器系统的讨论,需要扩展到更广泛的军事AI应用领域。缺乏规则的红线,只会让企业和人类社会在“技术竞赛”中滑向不可预知的风险。

对于Anthropic和所有处于类似十字路口的科技公司而言,真正的考验在于:能否在巨大的压力下,坚守那些定义自身、并可能最终保护人类的技术伦理底线?这场华盛顿的较量,答案或许才刚刚开始书写。


原文链接:Pete Hegseth tells Anthropic to fall in line with DoD desires, or else - Ars Technica