技术支持
News

联邦法官阻止五角大楼将Anthropic列为国家安全威胁

上周,旧金山的一位联邦法官阻止了五角大楼和特朗普政府对人工智能(AI)公司Anthropic实施国家安全指定,该公司此前拒绝解除其Claude模型的安全限制。

分享
联邦法官阻止五角大楼将Anthropic列为国家安全威胁

法院叫停特朗普政府针对联邦机构使用Anthropic公司Claude AI的禁令

美国地区法官丽塔·F·林于3月26日签发了初步禁令,认定政府针对Anthropic的行动可能违反了《第一修正案》,剥夺了该公司的正当程序权利,并超出了《行政程序法》规定的法定权限。该裁决暂缓执行七天,这使政府有时间在4月2日左右向第九巡回上诉法院提出紧急上诉。

这场纠纷始于美国国防部(DoD)要求获得无限制使用Claude进行联邦事务的权限。Anthropic在其《可接受使用政策》中长期保留了两项例外条款:Claude不得用于对美国公民的大规模国内监控,也不得用于在缺乏实质性人类监督的情况下运行的致命自主武器系统。国防部要求取消这些限制措施,但Anthropic予以拒绝。 谈判于2025年底破裂。 随着首席执行官达里奥·阿莫迪(Dario Amodei)的书面声明及阐述公司对人工智能安全立场的文章发布,这场冲突浮出水面。国防部官员认为,这些限制是Anthropic试图干预政府政策。 2026年2月27日,特朗普总统在Truth Social发文,指示所有联邦机构立即停止使用Anthropic的技术,并设定了六个月的逐步淘汰期。 国防部长皮特·赫格塞斯依据《美国法典》第10编第3252条——一项此前仅适用于外国对手的法规——宣布将Anthropic列为供应链风险对象,指其存在“破坏”和“颠覆”的潜在风险。

该认定发布后,多家联邦承包商暂停或终止了与该公司的合作。Anthropic公司随即作出回应,并于3月9日在加利福尼亚州北区联邦地区法院提起诉讼,指控政府存在报复行为、违反正当程序以及违反《行政程序法》(APA)。相关诉讼亦已提交至哥伦比亚特区巡回上诉法院。

在一份长达43页的裁决书中,林法官下令禁止国防部、其他17个联邦机构以及赫格塞斯部长实施或执行任何被质疑的措施。她下令恢复原状,允许Anthropic继续履行现有的联邦合同和合作伙伴关系。

林法官在裁决书中指出,政府的行径构成“典型的违反第一修正案的非法报复”。她指出,相关行动的时机,加上政府内部通信中提及Anthropic的“言辞”、“傲慢”和“强硬手段”,直接表明了政府出于惩罚意图,而这种意图与该公司关于AI安全的公开声明密切相关。

关于正当程序,法院认定政府在未提供事前通知或举行听证会的情况下,剥夺了Anthropic在声誉和商业运营方面的自由权益。林法官还指出,在此类情况下,该法定指定此前从未适用于美国公司,且政府此前对Anthropic的审查——

这包括绝密级安全许可、FedRAMP授权以及价值高达2亿美元的合同——均未显示出任何真正的安全隐患。林法官写道:“相关法规中没有任何内容支持这种奥威尔式的观念,即一家美国公司仅因对政府表达异议,就可能被贴上潜在敌对者和破坏者的标签。”

法院认定Anthropic可能遭受数亿至数十亿美元的经济损失,以及金钱赔偿无法完全弥补的声誉损害。来自军事领导人和人工智能研究人员的法庭之友意见书提到了对国防战备状态的风险以及更广泛的人工智能安全辩论。

Anthropic 表示感谢法院的迅速裁决,并计划继续与联邦政府合作。该公司声明,其目标仍是确保美国民众能够使用安全可靠的人工智能。该禁令并未解决根本的合同纠纷。法院尚未就案件实质作出最终裁决。哥伦比亚特区巡回上诉法院的另一项诉讼仍在审理中,政府方面仍保留上诉的权利。

常见问题 🔎

  • 联邦法官针对Anthropic作出了何种裁决?美国地区法官丽塔·F·林(Rita F. Lin)于3月26日颁布了一项初步禁令,阻止五角大楼和特朗普政府对Anthropic及其Claude AI模型实施国家安全指定及联邦禁令。
  • 五角大楼为何将Anthropic列为供应链风险?美国国防部曾寻求无限制使用Claude AI(包括用于大规模监控和自主武器),在该公司拒绝解除相关安全限制后,国防部将其列为供应链风险。
  • 该禁令目前是否生效?禁令自3月26日起暂缓执行七天,以便政府提起紧急上诉,这意味着该禁令要到2026年4月2日左右才会生效。
  • Anthropic诉五角大楼案接下来将如何发展?本案将继续就案情实质进行审理,相关诉讼仍在哥伦比亚特区巡回上诉法院待决,且特朗普政府可能在暂缓期届满前向第九巡回上诉法院寻求紧急救济。