Oferit de
Technology

Anthropic și Pentagonul se ciocnesc în privința utilizărilor militare și de supraveghere în masă ale lui Claude

Pentagonul ia în considerare ruperea legăturilor cu Anthropic, secretarul Apărării Pete Hegseth fiind aproape de a desemna compania drept un „risc pentru lanțul de aprovizionare”. Anthropic se opune utilizării modelului său AI, Claude, în campanii de supraveghere în masă și în operațiuni militare complet autonome.

DISTRIBUIE
Anthropic și Pentagonul se ciocnesc în privința utilizărilor militare și de supraveghere în masă ale lui Claude

Anthropic intră în conflict cu Pentagonul privind utilizările „neetice” ale lui Claude

Anthropic, una dintre cele mai mari companii de inteligență artificială (AI), este, potrivit relatărilor, ținta criticilor din partea Departamentului de Război din cauza utilizării modelelor sale AI pentru activități considerate neetice de către companie.

Axios a relatat că secretarul Apărării Pete Hegseth ia în considerare desemnarea Anthropic ca risc pentru lanțul de aprovizionare, ceea ce ar însemna că toate contractele și legăturile cu compania ar trebui reduse. În plus, toate companiile care colaborează cu Pentagonul ar trebui, de asemenea, să renunțe la serviciile Anthropic.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Conflictul izbucnește în contextul în care compania a refuzat să permită utilizarea lui Claude, modelul său emblematic, în campanii de supraveghere în masă și în operațiuni care implică echipamente militare complet autonome. Pe de altă parte, Pentagonul susține că ar trebui să poată valorifica capabilitățile lui Claude pentru „toate scopurile legale”, fără ca firma să aibă un cuvânt de spus în aceste procese.

Dacă Anthropic va fi, în cele din urmă, desemnată drept un risc pentru lanțul de aprovizionare, ar însemna că modelul ar trebui retras din sistemele informaționale ale Pentagonului, întrucât doar Claude are acces la sistemele clasificate ale organizației.

Acest lucru i-a permis lui Claude să ia parte în mod activ la Operațiunea Absolute Resolve, care a dus la extragerea lui Nicolas Maduro din Venezuela în ianuarie. Chiar dacă rolul asumat de model în timpul operațiunii nu a fost dezvăluit pe deplin, acesta reprezintă o escaladare a utilizării AI în campanii militare.

Impasul ar putea stabili un precedent privind modul în care companiile AI pot relaționa cu guvernele din lumea occidentală, punând bazele nivelurilor de control pe care aceste companii le-ar putea păstra asupra modelelor lor atunci când sunt folosite în scopuri militare.

Un purtător de cuvânt al Anthropic a declarat că firma are „conversații productive, cu bună-credință, cu DoW despre cum să continue această activitate și să gestioneze corect aceste probleme noi și complexe”.

Întrebări frecvente

  • Ce probleme întâmpină Anthropic cu Departamentul de Război?
    Anthropic este supusă unei examinări din partea Departamentului de Război pentru că refuză să permită ca modelul său AI, Claude, să fie folosit pentru activități pe care le consideră neetice, precum supravegherea în masă și operațiunile militare autonome.
  • Ce consecințe potențiale ar putea avea Anthropic dacă este clasificată drept un risc pentru lanțul de aprovizionare?
    Dacă este desemnată drept un risc pentru lanțul de aprovizionare, toate contractele cu Pentagonul ar fi întrerupte, ceea ce ar impune retragerea lui Claude din sistemele informaționale ale Pentagonului.
  • Cum a răspuns Anthropic cerințelor Pentagonului privind modelul său AI?
    Compania susține că este angajată în „conversații productive” cu Departamentul de Război, cu scopul de a naviga problemele etice complexe legate de utilizarea tehnologiei sale AI.
  • Ce operațiune militară recentă l-a implicat pe Claude și care a fost semnificația acesteia?
    Claude a participat la Operațiunea Absolute Resolve, care a facilitat extragerea lui Nicolás Maduro din Venezuela, marcând o escaladare semnificativă a utilizării tehnologiilor AI de către armată.