Secretarul Apărării Pete Hegseth s-a întâlnit marți la Pentagon cu CEO-ul Anthropic, Dario Amodei, în timp ce Departamentul Apărării a presat Anthropic să elimine restricțiile din sistemul său de inteligență artificială (AI) Claude sau să se confrunte cu posibile penalități.
Raport: Claude AI de la Anthropic se confruntă cu un viitor incert în sistemele clasificate ale Pentagonului

Guvernanța AI militară, pusă la încercare într-o întâlnire cu miză mare la Pentagon
Întâlnirea din 24 februarie a urmat săptămâni de tensiuni privind politicile de utilizare ale Anthropic pentru Claude, modelul lingvistic de mari dimensiuni integrat în rețelele clasificate ale Departamentului Apărării în baza unui contract-pilot din 2025, evaluat la până la 200 de milioane de dolari. Claude este în prezent singurul model lingvistic de mari dimensiuni complet autorizat care operează în anumite sisteme securizate ale Pentagonului.
Potrivit relatării Axios, Hegseth, însoțit de secretarul adjunct Steve Feinberg și de consilierul juridic general Earl Matthews, a obiectat față de restricțiile Anthropic privind supravegherea în masă a americanilor și privind sistemele de arme complet autonome care operează fără supraveghere umană. Oficiali din domeniul apărării au susținut că aceste limite constrâng aplicații militare legale și nu ar trebui să prevaleze asupra autorității Congresului și a executivului.
Anthropic a susținut că măsurile sale de protecție sunt concepute pentru a preveni utilizarea abuzivă, permițând totodată aplicații de securitate națională. Compania spune că politicile sale nu blochează utilizarea militară legitimă, dar interzic activități precum urmărirea indivizilor fără consimțământ sau desfășurarea sistemelor letale fără control uman.
„Potrivit unei surse familiarizate cu discuțiile, Anthropic nu a obiectat niciodată față de utilizarea modelelor sale pentru «operațiuni militare legitime»”, a relatat pe X corespondenta-șefă Fox News pentru securitate națională, Jennifer Griffin. „De asemenea, i-a spus lui Hegseth că nu s-a plâns niciodată la Pentagon sau la Palantir cu privire la utilizarea modelelor sale în raidul împotriva lui Maduro.”
Claude a fost utilizat pentru analiză de informații, apărare cibernetică și planificare operațională. Rapoarte indică faptul că a sprijinit planificarea și analiza în timp real în timpul operațiunii din 3 ianuarie care a dus la capturarea președintelui venezuelean Nicolás Maduro. Ulterior, Anthropic a solicitat clarificări privind implicarea modelului ca parte a unei revizuiri interne de conformitate, pe care oficialii Pentagonului au interpretat-o drept o critică.

Pe 9 ianuarie, Hegseth a emis un memorandum îndemnând furnizorii de inteligență artificială (AI) să elimine ceea ce el a descris drept condiții restrictive. Acea directivă a pregătit terenul pentru renegocieri și, în cele din urmă, pentru întâlnirea din 24 februarie.
Pentagonul a stabilit un termen-limită de 27 februarie pentru ca Anthropic să-și modifice termenii. Răspunsurile posibile includ invocarea Legii privind Producția pentru Apărare (Defense Production Act) pentru a impune conformarea sau desemnarea Anthropic drept risc pentru lanțul de aprovizionare, un pas care ar putea obliga contractorii să renunțe la sistemele legate de Claude.
Oficialii recunosc că desprinderea lui Claude din infrastructura existentă ar fi complexă din punct de vedere operațional. Totuși, departamentul are alternative. Concurenți precum xAI cu modelul său Grok, OpenAI cu ChatGPT și Google cu Gemini se află sub contracte similare cu Departamentul Apărării și ar putea fi poziționați să-și extindă rolurile dacă discuțiile eșuează.
Disputa evidențiază întrebări mai ample despre guvernanța AI în contexte militare, în special pe măsură ce legislația federală continuă să evolueze în jurul tehnologiilor emergente. Miza este dacă dezvoltatorii privați de AI pot menține politici etice independente atunci când sistemele lor devin încorporate în operațiuni de securitate națională.
Reacțiile de pe platformele de social media au fost remarcabil de directe. „Supravegherea fără mandat s-a întors”, a scris un utilizator X ca răspuns la postarea lui Griffin pe X. „Asta trebuie să fie o știre mult mai mare decât este. Există o șansă serioasă de încălcări constituționale”, a răspuns altcineva la materialul lui Griffin. Alții, cu o doză de umor negru, au glumit că sosirea lui Skynet s-ar putea să nu fie departe. „Skynet e aici… cronologia 2029 este LIVE”, a remarcat persoana respectivă.
Ambele părți au caracterizat discuția din 24 februarie drept substanțială. Faptul că Anthropic își ajustează sau nu măsurile de protecție înainte de termenul-limită ar putea determina viitorul uneia dintre cele mai avansate integrări AI ale Pentagonului.
Întrebări frecvente 🤖
- Ce s-a discutat la întâlnirea de la Pentagon din 24 februarie?
Întâlnirea s-a concentrat pe restricțiile Anthropic privind Claude AI și pe faptul dacă acestea limitează aplicații militare legale. - De ce pune Pentagonul presiune pe Anthropic?
Oficialii din domeniul apărării susțin că măsurile de protecție ale companiei interferează cu utilizări autorizate de securitate națională. - Ce s-ar putea întâmpla dacă Anthropic nu se conformează?
Pentagonul ar putea invoca Defense Production Act sau ar putea desemna compania drept un risc pentru lanțul de aprovizionare. - Există alternative la Claude?
Da, modele de la xAI, OpenAI și Google se află sub contracte cu Departamentul Apărării și s-ar putea extinde dacă este necesar.














