Impulsado por
News

OpenAI se enfrenta a críticas tras el acuerdo con el Pentágono sobre IA, mientras se dispara el número de desinstalaciones de ChatGPT en EE. UU.

La incursión de OpenAI en las redes militares clasificadas de EE. UU. se topó con una reacción negativa por parte de los consumidores y con un giro estratégico en materia de infraestructura, más discreto pero no por ello menos trascendental, lo que pone de relieve la delicada situación en la que se encuentra ahora el gigante de la inteligencia artificial (IA), a caballo entre las ambiciones de seguridad nacional y la confianza de los usuarios.

ESCRITO POR
COMPARTIR
OpenAI se enfrenta a críticas tras el acuerdo con el Pentágono sobre IA, mientras se dispara el número de desinstalaciones de ChatGPT en EE. UU.

El movimiento #QuitGPT crece mientras OpenAI revisa el contrato de IA con el Departamento de Defensa en medio de la reacción de los consumidores

La controversia se desató alrededor del 28 de febrero, cuando OpenAI confirmó un acuerdo con el Departamento de Defensa de EE. UU. para desplegar sistemas avanzados de IA, incluida la tecnología ChatGPT, en redes clasificadas. La empresa presentó el acuerdo como legal y estrictamente controlado, pero los críticos vieron algo completamente distinto: una plataforma de IA dirigida al consumidor que se adentraba cada vez más en las operaciones militares en un momento en que el escrutinio público de la inteligencia artificial ya está en pleno apogeo.

OpenAI afirmó que el acuerdo incluye medidas de protección explícitas, como la prohibición de la vigilancia masiva de ciudadanos estadounidenses, el control de las armas autónomas y los sistemas de toma de decisiones automatizados de alto riesgo. También hizo hincapié en las restricciones técnicas, entre las que se incluyen implementaciones exclusivamente en la nube y el control retenido sobre los sistemas de seguridad, además del cumplimiento de los marcos legales estadounidenses, como la Cuarta Enmienda y las normas del Departamento de Defensa que regulan la supervisión humana del uso de la fuerza letal.

Aun así, la imagen que se proyectaba no era precisamente sutil. A las pocas horas del anuncio, comenzó a circular por las redes sociales una campaña de boicot popular bajo el lema #QuitGPT, que instaba a los usuarios a cancelar sus suscripciones, eliminar la aplicación y migrar a la competencia. La reacción negativa, cuantificable, se tradujo en cambios considerables en el comportamiento de la aplicación.

OpenAI Faces Backlash After Pentagon AI Deal as ChatGPT Uninstalls Spike in US
Captura de pantalla del sitio web Quitgpt.org

Según los datos de análisis de la aplicación, las tasas de desinstalación de ChatGPT en EE. UU. se dispararon un 295 % de un día para otro el 28 de febrero, mientras que las descargas cayeron un 13 % al día siguiente y otro 5 % después de eso. La opinión de los usuarios dio un giro aún más pronunciado en las reseñas de la aplicación, donde las valoraciones de una estrella se dispararon un 775 % en un solo día y siguieron aumentando, mientras que las reseñas de cinco estrellas se redujeron aproximadamente a la mitad. Los competidores se beneficiaron del momento. La aplicación Claude de Anthropic registró aumentos en las descargas de entre el 37 % y el 51 % durante el mismo periodo, superando brevemente a ChatGPT en las clasificaciones de la App Store de EE. UU. a medida que los usuarios exploraban alternativas. Los organizadores del boicot afirmaron que se produjeron millones de acciones relacionadas con la campaña, incluyendo cancelaciones y compromisos, aunque las cifras exactas varían según la fuente y cómo se defina la participación.

OpenAI actuó con rapidez para contener las repercusiones. El director ejecutivo, Sam Altman, reconoció deficiencias en la forma en que se comunicó el acuerdo, calificando su lanzamiento de «oportunista y descuidado», y en cuestión de días la empresa revisó la redacción del acuerdo. Los términos actualizados prohibían explícitamente la vigilancia interna intencionada mediante sistemas de IA y añadían requisitos más estrictos para cualquier participación de agencias de inteligencia, incluyendo capas contractuales separadas. La empresa también anunció planes para coordinarse con otros desarrolladores de IA en marcos de seguridad compartidos, posicionando los cambios como un endurecimiento más que como un retroceso. Aunque la reacción negativa se atenuó en cierta medida tras las revisiones, el episodio dejó huella, poniendo de relieve lo rápido que puede cambiar la opinión de los consumidores cuando la IA entra en territorio delicado. Al mismo tiempo, OpenAI estaba realizando movimientos menos visibles pero estratégicamente significativos entre bastidores.

A principios de marzo, la empresa reorganizó sus operaciones informáticas y de infraestructura, dividiendo las responsabilidades en tres grupos especializados que abarcan el diseño de centros de datos, las asociaciones comerciales y la gestión de las instalaciones sobre el terreno. La reestructuración refleja un cambio más amplio en la forma en que OpenAI planea ampliar su potencia informática.

En lugar de construir y poseer de forma agresiva enormes centros de datos vinculados a su ambiciosa iniciativa «Stargate», la empresa se está apoyando más en el alquiler y las asociaciones con proveedores de nube. Azure de Microsoft sigue siendo fundamental para esa estrategia, mientras que OpenAI también ha ampliado sus relaciones con Oracle y Amazon Web Services como parte de acuerdos de capacidad plurianuales.

Los planes anteriores que implicaban proyectos de infraestructura a gran escala y de propiedad conjunta se han reducido o reelaborado, a medida que las realidades financieras y logísticas de construir capacidad de supercomputación de IA a gran escala se vuelven más difíciles de ignorar. En su lugar, OpenAI se está centrando en controlar elementos clave como el hardware y los chips personalizados, mientras externaliza la capa de infraestructura física a hiperescaladores consolidados.

Codex Security, de OpenAI, debuta en un momento en que se recrudece la carrera por la ciberseguridad con IA con Anthropic.

Codex Security, de OpenAI, debuta en un momento en que se recrudece la carrera por la ciberseguridad con IA con Anthropic.

OpenAI lanzó Codex Security el 6 de marzo, presentando un agente de seguridad de aplicaciones basado en inteligencia artificial (IA). read more.

Leer ahora

Estos dos desarrollos —uno público y polémico, el otro operativo y pragmático— no están directamente vinculados, pero juntos esbozan una empresa que avanza rápidamente en múltiples frentes, a veces más rápido de lo que sus comunicaciones pueden seguir el ritmo. Para OpenAI, el reto ahora no es tanto si puede construir sistemas potentes, sino más bien cómo gestiona las consecuencias de implementarlos en lugares donde lo que está en juego es todo menos teórico.

Preguntas frecuentes 🔎

  • ¿Por qué boicotearon los usuarios ChatGPT en EE. UU.? Los usuarios reaccionaron ante el acuerdo de OpenAI para implementar IA en redes militares clasificadas, lo que suscitó preocupaciones éticas sobre la vigilancia y el uso en defensa.
  • ¿Disminuyó el uso de ChatGPT tras la polémica? Sí, las tasas de desinstalación se dispararon y las descargas cayeron temporalmente, mientras que las reseñas negativas de la aplicación aumentaron considerablemente.
  • ¿Qué cambios introdujo OpenAI en su acuerdo con el Pentágono? La empresa añadió prohibiciones explícitas sobre la vigilancia nacional y normas más estrictas para la participación de las agencias de inteligencia.
  • ¿Por qué OpenAI está pasando a socios de infraestructura en la nube? El aumento de los costes y los retos de escalabilidad están empujando a la empresa a alquilar potencia de cálculo en lugar de construir enormes centros de datos.
Etiquetas en esta historia