El Pentágono está considerando romper sus vínculos con Anthropic, y el secretario de Defensa, Pete Hegseth, está a punto de designar a la empresa como «riesgo para la cadena de suministro». Anthropic se opone al uso de su modelo de IA Claude en campañas de vigilancia masiva y operaciones militares totalmente autónomas.
Anthropic y el Pentágono se enfrentan por los usos militares y de vigilancia masiva de Claude

Anthropic se enfrenta al Pentágono por los usos «no éticos» de Claude
Anthropic, una de las mayores empresas de inteligencia artificial (IA), está siendo objeto de críticas por parte del Departamento de Guerra por el uso de sus modelos de IA en actividades que la empresa considera poco éticas.
Axios informó de que el secretario de Defensa, Pete Hegseth, está considerando designar a Anthropic como un riesgo para la cadena de suministro, lo que significa que todos los contratos y vínculos con la empresa tendrían que romperse. Además, todas las empresas que tratan con el Pentágono también tendrían que abandonar los servicios de Anthropic.

El conflicto surge porque la empresa se ha negado a permitir el uso de Claude, su modelo insignia, en campañas de vigilancia masiva y operaciones que implican equipos militares totalmente autónomos. Por otro lado, el Pentágono afirma que debería poder aprovechar las capacidades de Claude para «todos los fines legales», sin que la empresa tenga voz en estos procesos.
Si finalmente se designa a Anthropic como un riesgo para la cadena de suministro, eso significaría que el modelo tendría que retirarse de los sistemas de información del Pentágono, ya que solo Claude tiene acceso a los sistemas clasificados de la organización.
Esto permitió a Claude participar activamente en la Operación Absolute Resolve, que condujo a la extracción de Nicolás Maduro de Venezuela en enero. Aunque no se ha revelado completamente el papel que asumió el modelo durante la operación, representa una escalada en el uso de la IA para campañas militares.
El enfrentamiento podría sentar un precedente en la forma en que las empresas de IA pueden tratar con los gobiernos del mundo occidental, sentando las bases para los niveles de control que estas empresas podrían mantener sobre sus modelos cuando se utilizan con fines militares. Un portavoz de Anthropic declaró que la empresa estaba manteniendo «conversaciones productivas, de buena fe, con el Departamento de Defensa sobre cómo continuar ese trabajo y resolver estas nuevas y complejas cuestiones».
Preguntas frecuentes
- ¿A qué problemas se enfrenta Anthropic con el Departamento de Guerra? Anthropic está siendo investigada por el Departamento de Guerra por negarse a permitir que su modelo de IA, Claude, se utilice para actividades que considera poco éticas, como la vigilancia masiva y las operaciones militares autónomas.
- ¿Qué consecuencias podría afrontar Anthropic si se le clasifica como un riesgo para la cadena de suministro? Si se le designa como un riesgo para la cadena de suministro, se rescindirían todos los contratos con el Pentágono, lo que obligaría a retirar Claude de los sistemas de información del Pentágono.
- ¿Cómo ha respondido Anthropic a las exigencias del Pentágono con respecto a su modelo de IA? La empresa sostiene que mantiene «conversaciones productivas» con el Departamento de Guerra, con el objetivo de abordar las complejas cuestiones éticas que rodean el uso de su tecnología de IA.
- ¿En qué operación militar reciente participó Claude y cuál fue su importancia? Claude participó en la Operación Absolute Resolve, que facilitó la extracción de Nicolás Maduro de Venezuela, lo que supuso una escalada significativa en el uso de tecnologías de IA por parte del ejército.














