Anthropic表示,人工智能(AI)在网络安全领域到达了一个关键的门槛,新的证据显示AI模型现在能够在前所未有的规模上执行主要的网络操作,包括防御和攻击。
Anthropic 警告随着AI能力的加速,网络攻击屏障已经崩溃

Anthropic在新调查中警告AI在网络安全中达到临界点
Anthropic,即Claude背后的AI公司,表示其内部评估和威胁情报工作显示出网络能力开发的决定性转变。根据最近发布的调查,AI系统的网络能力在六个月内翻了一番,这种增长得到了实际活动测量和基于模型测试的支持。
该公司表示,AI现在正在实质性地影响全球安全动态,特别是在恶意行为者日益采用自动化攻击框架的情况下。在其最新的报告中,Anthropic详细描述了其所谓的首例有记录的AI协调的网络间谍活动。该公司的威胁情报团队在2025年9月中发现并破坏了一项大规模行动,该行动被认为是由中国国家支持的组织GTG-1002策划的。

据报道,该组织协调使用Claude Code进行侦察、漏洞发现、开发、横向移动、元数据提取和数据外流,几乎无需人工参与。该活动攻击了大约30个组织,覆盖技术、金融、化学品以及多个政府机构。Anthropic在介入之前验证了几次成功的入侵。

分析人士表示,攻击者利用了一个自动化框架,能够将多阶段攻击分解为单独任务,当与其更广泛的上下文隔离时,这些任务看起来很合理。这使得行为者可以通过已建立的身份传递提示,并说服Claude这是防御性安全测试而非攻击性活动。
根据调查,Claude自主执行了80%到90%的战术操作。人类操作员仅提供战略监督,批准诸如从侦察升级到主动开发或授权数据外流等重大步骤。报告描述了一种人类团队无法达成的操作节奏,有些工作流在数千个请求中每秒生成多个操作。

Anthropic表示,攻击生命周期通过一个结构化的管道推进,在每个阶段AI自治性都在增加。Claude可以自主映射攻击面,扫描实时系统,为验证的漏洞建立定制有效载荷,获取凭证,并在内部网络中转移。它还分析了被盗数据,识别出高价值情报,并自动生成详细的操作文档,使持久访问和操作员之间的交接成为可能。
报告指出的一个限制是模型在进攻性工作负荷下的幻觉倾向——偶尔会夸大访问权限,伪造凭证或误将公开信息分类为敏感信息。然而,Anthropic表示,行为者通过验证步骤进行补偿,表明尽管当今模型仍有不完善,但完全自主的攻击操作仍然可行。
在发现之后,Anthropic封禁了相关账户,通知受影响实体,与当局协调,并引入新的防御机制,包括改进的分类器以检测新型威胁模式。公司现在正在设计早期警告系统,以标记自主入侵尝试,并为大规模分布式网络操作构建新型调查工具。
阅读更多: 微软的“磁性市场”揭示了AI代理如何在压力下崩溃
该公司认为,虽然这些能力可以被武器化,但它们对于加强防御准备也同样重要。Anthropic指出,其威胁情报团队在调查过程中大量依赖Claude分析生成的大量数据集。它敦促安全团队开始采用AI驱动的自动化进行安全运营中心、威胁检测、漏洞分析和事件响应。
然而,报告警告称,随着AI系统允许小组甚至个人执行曾经仅限于经费充足的国家行为者的操作,“网络攻击障碍已大幅降低”。Anthropic预计这些技术将在更广泛的威胁环境中快速传播,呼吁深化合作、改进防御措施,以及更广泛的行业参与以对抗新兴的AI攻击模式。
常见问题 ❓
- Anthropic在其调查中发现了什么?
Anthropic识别并破坏了一项利用AI自动化大部分攻击操作的大规模网络间谍活动。 - 谁是攻击的幕后操控者?
该公司将这次行动归因于中国国家支持的组织GTG-1002。 - AI在入侵中是如何被使用的?
攻击者使用Claude Code自主进行侦察、开发、横向移动和数据提取。 - 为什么这份报告对网络安全团队很重要?
Anthropic表示,这个案例表明,具有自主能力的AI攻击现已能够大规模进行,需要新的防御策略。














