Propulsé par
Technology

Anthropic et le Pentagone s'affrontent au sujet des utilisations militaires et de surveillance de masse de Claude

Le Pentagone envisage de rompre ses liens avec Anthropic, le secrétaire à la Défense Pete Hegseth étant sur le point de désigner l'entreprise comme présentant un « risque pour la chaîne d'approvisionnement ». Anthropic s'oppose à l'utilisation de son modèle d'IA Claude dans des campagnes de surveillance de masse et des opérations militaires entièrement autonomes.

PARTAGER
Anthropic et le Pentagone s'affrontent au sujet des utilisations militaires et de surveillance de masse de Claude

Anthropic s'oppose au Pentagone au sujet des utilisations « non éthiques » de Claude

Anthropic, l'une des plus grandes entreprises d'intelligence artificielle (IA), serait critiquée par le ministère de la Guerre pour l'utilisation de ses modèles d'IA dans des activités jugées non éthiques par l'entreprise.

Axios a rapporté que le secrétaire à la Défense Pete Hegseth envisageait de désigner Anthropic comme un risque pour la chaîne d'approvisionnement, ce qui signifie que tous les contrats et liens avec l'entreprise devraient être rompus. En outre, toutes les entreprises traitant avec le Pentagone devraient également renoncer aux services d'Anthropic.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Le conflit éclate alors que l'entreprise a refusé d'autoriser l'utilisation de Claude, son modèle phare, dans des campagnes de surveillance de masse et des opérations impliquant des équipements militaires entièrement autonomes. De son côté, le Pentagone affirme qu'il devrait pouvoir exploiter les capacités de Claude à « toutes fins légales », sans que l'entreprise ait son mot à dire dans ces processus.

Si Anthropic est finalement désignée comme un risque pour la chaîne d'approvisionnement, cela signifierait que le modèle devrait être retiré des systèmes d'information du Pentagone, car seul Claude a accès aux systèmes classifiés de l'organisation.

Cela a permis à Claude de participer activement à l'opération Absolute Resolve, qui a conduit à l'extraction de Nicolas Maduro du Venezuela en janvier. Même si le rôle joué par le modèle pendant l'opération n'a pas été entièrement divulgué, cela représente une escalade dans l'utilisation de l'IA pour les campagnes militaires.

Cette impasse pourrait créer un précédent dans la manière dont les entreprises d'IA peuvent traiter avec les gouvernements du monde occidental, jetant les bases du niveau de contrôle que ces entreprises pourraient exercer sur leurs modèles lorsqu'ils sont utilisés à des fins militaires. Un porte-parole d'Anthropic a déclaré que l'entreprise menait « des discussions productives, en toute bonne foi, avec le ministère de la Défense sur la manière de poursuivre ce travail et de régler ces nouvelles questions complexes ».

FAQ

  • Quels sont les problèmes auxquels Anthropic est confrontée avec le ministère de la Guerre ? Anthropic fait l'objet d'une enquête du ministère de la Guerre pour avoir refusé que son modèle d'IA, Claude, soit utilisé à des fins jugées contraires à l'éthique, telles que la surveillance de masse et les opérations militaires autonomes.
  • Quelles conséquences potentielles Anthropic pourrait-elle subir si elle était classée comme un risque pour la chaîne d'approvisionnement ? Si elle était désignée comme un risque pour la chaîne d'approvisionnement, tous les contrats avec le Pentagone seraient résiliés, ce qui nécessiterait le retrait de Claude des systèmes d'information du Pentagone.
  • Comment Anthropic a-t-elle répondu aux demandes du Pentagone concernant son modèle d'IA ? La société affirme qu'elle est engagée dans des « conversations productives » avec le ministère de la Guerre, dans le but de naviguer parmi les questions éthiques complexes entourant l'utilisation de sa technologie d'IA.
  • Quelle opération militaire récente a impliqué Claude et quelle a été son importance ? Claude a participé à l'opération Absolute Resolve, qui a facilité l'extraction de Nicolás Maduro du Venezuela, marquant une escalade significative dans l'utilisation des technologies d'IA par l'armée.