技术支持
News

联邦法官驳回Anthropic在克劳德军事AI禁令案中的救济请求,定于5月举行口头辩论

4月8日,华盛顿一家联邦上诉法院驳回了Anthropic公司要求立即停止五角大楼将其Claude人工智能(AI)模型列入美国军事合同黑名单的申请。 要点:

分享
联邦法官驳回Anthropic在克劳德军事AI禁令案中的救济请求,定于5月举行口头辩论
  • 哥伦比亚特区巡回上诉法院于2026年4月8日驳回了Anthropic提出的紧急暂缓执行申请,这意味着五角大楼将Claude AI列入黑名单的决定将继续生效。
  • 五角大楼的供应链风险认定影响了包括亚马逊、微软和Palantir在内的主要国防部承包商。
  • 加速审理的口头辩论定于2026年5月19日举行,该裁决可能重塑美国政府的AI采购政策。

上诉法院裁定:诉讼期间国防部可维持对Claude AI的“供应链风险”认定

美国哥伦比亚特区巡回上诉法院在一份四页的裁决书中,驳回了这家总部位于旧金山的人工智能公司提出的紧急动议,该动议旨在暂停国防部长皮特·赫格塞斯发布的“供应链风险”认定。该裁决允许国防部在诉讼进行期间继续禁止承包商使用Claude。口头辩论已提前至2026年5月19日举行。

合议庭承认Anthropic“可能遭受某种程度的不可挽回的损害”,并列举了财务和声誉方面的损失。法官格雷戈里·卡茨斯和尼奥米·拉奥(均为特朗普任命)认为,权衡各方利益后应支持政府,理由是司法机关需管理五角大楼“在活跃军事冲突期间”获取AI技术的方式。

该禁令的起因可追溯至2026年2月下旬Anthropic与五角大楼官员谈判破裂。争议焦点在于Anthropic服务条款中的两项限制:禁止使用完全自主武器系统(包括无需人类监督的武装无人机群),以及禁止对美国公民进行大规模监控。

负责研究与工程事务的副部长兼五角大楼首席技术官埃米尔·迈克尔称,这些限制是阻碍军事竞争力的“不合理障碍”,特别是在对抗中国方面。官员们援引了“金色穹顶”导弹防御计划等项目,以及应对高超音速威胁所需的快速反应能力。

Anthropic提出有限的、逐案处理的例外条款,但拒绝取消核心安全防护措施,理由是当前的人工智能在做出高风险自主决策时存在可靠性问题。谈判最终破裂。随后,特朗普总统下令所有联邦机构停止使用Anthropic的技术,并要求现有部署在六个月内逐步淘汰。

随后,赫格塞斯对Anthropic进行了供应链风险定性,这一措施通常适用于华为等外国实体。该定性要求包括亚马逊、微软和Palantir在内的承包商,在任何与国防部相关的工作中停止使用Claude。Anthropic称此举是对其拒绝让政府凌驾于其AI安全政策之上的“非法报复行动”。

Anthropic于2026年3月同时提起两起诉讼。其中一起提交至美国加利福尼亚州北区地方法院;另一起则针对华盛顿特区巡回上诉法院管辖范围内关于供应链风险的特定采购法规。3月26日,美国地方法官丽塔·F·林(Rita F. Lin)在加利福尼亚州的案件中批准了Anthropic提出的初步禁令。 她裁定,政府的行动看似更具惩罚性而非保护性,缺乏充分的法律依据,且越权。该命令暂时中止了该指定的执行,允许政府和承包商在全面诉讼期间继续使用Claude。特朗普政府向第九巡回上诉法院提起上诉。 4月8日哥伦比亚特区巡回上诉法院的裁决与林法官的裁定相悖,从而在该指定目前是否可执行的问题上产生了法律上的紧张关系。 两家法院审查的法律框架不同,这解释了程序上的分歧。Anthropic在声明中表示,公司对其立场依然充满信心。“我们感谢法院认识到这些问题需要迅速解决,并坚信法院最终会认同这些供应链指定措施是非法的,”该公司表示。

《Claude Mythos》预览:Anthropic公司尚未发布的AI破解了Linux和OpenBSD中人类数十年未察觉的漏洞

《Claude Mythos》预览:Anthropic公司尚未发布的AI破解了Linux和OpenBSD中人类数十年未察觉的漏洞

Anthropic公司的Claude Mythos人工智能在各大操作系统和浏览器中发现了数千个零日漏洞。Project Glasswing项目启动,并提供1亿美元的信用额度。 read more.

立即阅读

行业观察人士指出,此案对美国人工智能发展而言是一个警示信号。计算机与通信工业协会首席执行官马特·施鲁尔斯表示,五角大楼的行动以及哥伦比亚特区巡回上诉法院的裁决“在美企正与全球同行竞争人工智能领导权之际,造成了重大的商业不确定性”。

该案目前将进入5月19日在哥伦比亚特区巡回上诉法院举行的加速审理程序,而第九巡回上诉法院的上诉程序仍在进行中。最终裁决很可能界定联邦政府将国内人工智能企业指定为国家安全风险的权限范围,并决定政府在施压私营企业修改其人工智能安全政策方面能走多远。