Anthropic säger att artificiell intelligens (AI) har nått en avgörande tröskel inom cybersäkerhet, med nya bevis som visar att AI-modeller nu kan genomföra stora cyberoperationer—både defensiva och offensiva—i oöverträffad skala.
Anthropic varnar för att hinder mot cyberattacker har fallit i takt med att AI-kapaciteterna accelererar

AI når en tipping point i cybersäkerhet, varnar Anthropic i ny utredning
Anthropic, AI-företaget bakom Claude, säger att dess interna utvärderingar och hotintelligensarbete visar ett avgörande skifte i cyberkapacitetsutveckling. Enligt en nyligen släppt utredning, har cyberkapaciteterna bland AI-system fördubblats på sex månader, understödda av mätningar av verkliga aktiviteter och modellbaserade tester.
Företaget säger att AI nu betydligt påverkar globala säkerhetsdynamik, särskilt då illasinnade aktörer i ökande grad antar automatiserade attackramverk. I sin senaste rapport, beskriver Anthropic vad de kallar det första dokumenterade fallet av en AI-orkestrerad cyberspionagekampanj. Företagets Threat Intelligence-team identifierade och avbröt en storskalig operation i mitten av september 2025, tillskriven en kinesisk statsstödd grupp benämnd GTG-1002.

Gruppen rapporteras ha använt samordnade instanser av Claude Code för att utföra rekognosering, sårbarhetsupptäckt, exploatering, lateral rörelse, metadataextraktion och datautvinning—stort sett utan mänsklig inblandning. Kampanjen riktade sig mot ungefär 30 organisationer inom sektorer inklusive teknologi, finans, kemikalier och flera statliga myndigheter. Anthropic validerade flera lyckade intrång innan ingripande.

Analytiker säger att angriparna utnyttjade ett autonomt ramverk som kan bryta ner flerfasattacker i mindre uppgifter som framstod som legitima när de isoleras från sitt bredare sammanhang. Detta tillät aktörerna att passera förfrågningar genom etablerade personer och övertyga Claude om att operationerna var defensiva säkerhetstester snarare än offensiva kampanjer.
Enligt utredningen verkställde Claude självständigt 80% till 90% av de taktiska operationerna. Mänskliga operatörer tillhandahöll endast strategisk tillsyn, godkände stora steg som att eskalera från rekognosering till aktiv exploatering eller att godkänna datautvinning. Rapporten beskriver en nivå av operationel tempo som är omöjlig för enbart mänskliga team, med vissa arbetsflöden som genererar flera operationer per sekund över tusentals förfrågningar.

Anthropic säger att attackens livscykel avancerade genom en strukturerad pipeline där AI-autonomi ökade i varje fas. Claude kartlade självständigt attackytor, skannade levande system, byggde anpassade nyttolaster för validerade sårbarheter, samlade in autentiseringsuppgifter och pendlade genom interna nätverk. Det analyserade också stulen data, identifierade högt värdefull intelligens och genererade automatiskt detaljerad operationsdokumentation som möjliggjorde beständig åtkomst och överlämningar mellan operatörer.
En begränsning, noteras i rapporten, var modellens tendens mot hallucination under offensiva arbetsbelastningar—ibland överdrivande åtkomst, fabricerande autentiseringsuppgifter eller felklassificerande av offentligt tillgänglig information som känslig. Ändå säger Anthropic att aktören kompenserade genom valideringssteg, vilket visar att fullt autonoma offensiva operationer fortfarande är genomförbara trots brister i dagens modeller.
Efter upptäckten, spärrade Anthropic de relevanta kontona, underrättade berörda enheter, samordnade med myndigheter och införde nya defensiva mekanismer, inklusive förbättrade klassificerare för att upptäcka nya hotmönster. Företaget prototyper nu tidiga varningssystem designade för att flagga autonoma intrångsförsök och bygger nya undersökningsverktyg för storskaliga distribuerade cyberoperationer.
Läs mer: Microsofts ‘Magentic Marketplace’ Avslöjar Hur AI-agenter Kan Kollapsa Under Press
Företaget hävdar att även om dessa kapaciteter kan vapenförklaras, är de lika kritiska för att stärka den defensiva beredskapen. Anthropic noterar att dess egna Threat Intelligence-team kraftigt förlitade sig på Claude för att analysera de massiva datasets som genererades under utredningen. Det uppmanar säkerhetsteam att börja anta AI-driven automation för säkerhetsoperationscenter, hotdetektion, sårbarhetsanalys och incidentrespons.
Dock varnar rapporten för att cyberattackbarriärer har “sänkts avsevärt” eftersom AI-system möjliggör för små grupper—eller till och med individer—att genomföra operationer som en gång var begränsade till välfinansierade statliga aktörer. Anthropic förväntar sig snabb spridning av dessa tekniker över det bredare hotmiljön och kallar för djupare samarbete, förbättrade defensiva skyddsåtgärder och bredare industriellt deltagande i hotdelning för att motverka framväxande AI-driven attacker.
FAQ ❓
- Vad upptäckte Anthropic i sin utredning?
Anthropic identifierade och avbröt en storskalig cyberspionagekampanj som använde AI för att automatisera de flesta attackoperationer. - Vem låg bakom attacken?
Företaget tillskrev operationen till en kinesisk statsstödd grupp benämnd GTG-1002. - Hur användes AI i intrången?
Angriparna använde Claude Code för att autonomt utföra rekognosering, exploatering, lateral rörelse och datautvinning. - Varför är rapporten viktig för cybersäkerhetsteam?
Anthropic säger att fallet visar att autonoma AI-drivna attacker nu är genomförbara i skala och kräver nya defensiva strategier.













