La inteligencia artificial (IA) generó una vorágine de acontecimientos durante el fin de semana, con dimisiones de ejecutivos, disputas en el Pentágono, avances en robótica, lanzamientos de modelos empresariales y nuevas herramientas de seguridad que, en conjunto, muestran la aceleración del sector en casi todos los frentes.
El fin de semana salvaje de la IA: la reorganización de OpenAI, el enfrentamiento con el Pentágono y los robots que se niegan a morir.

Acuerdos de defensa, dimisiones y fricciones en el Pentágono
Uno de los acontecimientos más llamativos se produjo el 7 de marzo, cuando Caitlin Kalinowski, directora de robótica y hardware de consumo de OpenAI, dimitió de la empresa. Según se informa, Kalinowski expresó su preocupación por la intención de OpenAI de conseguir un contrato con el Pentágono que implicaba el despliegue de IA en sistemas gubernamentales clasificados. Al parecer, advirtió de que la propuesta carecía de garantías suficientes en lo que respecta a los usos de vigilancia nacional y la posibilidad de armas autónomas letales.
OpenAI respondió reiterando que la empresa mantiene unas «líneas rojas» estrictas en lo que respecta a determinadas aplicaciones militares. Aun así, la salida pone de relieve la creciente tensión entre las ambiciones de Silicon Valley en materia de IA y las prioridades de Washington en materia de seguridad nacional, sobre todo ahora que las agencias de defensa exploran cada vez más el uso de sistemas avanzados de IA en operaciones sensibles.
Esas tensiones se intensificaron aún más cuando el Pentágono designó oficialmente a Anthropic como «riesgo para la cadena de suministro» el 5 de marzo. La designación limita a los contratistas de defensa el uso de ciertas versiones del modelo de IA Claude de la empresa en proyectos gubernamentales. La inusual etiqueta aplicada a una empresa tecnológica nacional pone de manifiesto cómo las fuertes discrepancias sobre la seguridad de la IA y su uso militar están empezando a chocar con la planificación de la defensa nacional.
La gobernanza y la ética entran en el punto de mira de la IA
En medio de estas disputas, una coalición de tecnólogos y responsables políticos presentó una nueva propuesta de gobernanza destinada a orientar la próxima fase del desarrollo de la inteligencia artificial. El 7 de marzo, el físico del MIT Max Tegmark y un grupo bipartidista de investigadores y defensores de políticas presentaron la «Declaración Pro-Humana», un marco destinado a garantizar que el desarrollo de la IA siga estando alineado con la supervisión humana y las libertades civiles.
La declaración esboza cinco principios básicos, entre los que se incluyen mantener a los seres humanos en el control último de los sistemas avanzados de IA, evitar la concentración excesiva de poder en unas pocas empresas, aplicar rigurosas pruebas de seguridad, proteger los derechos civiles y establecer límites estrictos a la superinteligencia que se mejora a sí misma. Sus autores posicionaron la propuesta como una hoja de ruta para los legisladores que se enfrentan a debates cada vez más complejos sobre la política de IA.
Robots que se niegan a rendirse
Mientras los responsables políticos debatían los marcos de gobernanza, los investigadores demostraban la rapidez con la que está evolucionando la robótica impulsada por la IA. Científicos de la Universidad Northwestern revelaron una nueva clase de «metamáquinas con patas» diseñadas con IA, robots modulares capaces de adaptar su forma y seguir funcionando incluso después de sufrir daños físicos graves.

La investigación, publicada en las Actas de la Academia Nacional de Ciencias, muestra robots que pueden encajarse en diferentes configuraciones y moverse por terrenos irregulares. En las pruebas, algunos robots fueron cortados en pedazos y aún así lograron recuperar la movilidad reorganizando sus componentes restantes, un comportamiento que, según los investigadores, podría resultar útil en zonas de desastre, misiones de exploración u otros entornos impredecibles.
Los modelos Frontier amplían las capacidades de IA empresarial
En el ámbito del software, OpenAI lanzó su familia de modelos GPT-5.4 el 5 de marzo, presentando sistemas diseñados específicamente para cargas de trabajo profesionales y empresariales. El lanzamiento incluye variantes especializadas Pro y Thinking capaces de mejorar el razonamiento, las tareas de codificación complejas y el control directo de ordenadores.
Ciertas versiones de GPT-5.4 admiten ventanas de contexto que se acercan al millón de tokens, lo que permite a los usuarios analizar documentos o conjuntos de datos enormes en una sola solicitud. OpenAI afirmó que los nuevos modelos tienen como objetivo reducir las alucinaciones y mejorar la fiabilidad de las aplicaciones empresariales, como el análisis de datos, la ingeniería y los flujos de trabajo automatizados.
La IA surge como cazadora de errores de ciberseguridad y se lanza una nueva versión de Openclaw
La inteligencia artificial también está demostrando su utilidad para el trabajo defensivo en materia de ciberseguridad. Anthropic anunció el 6 de marzo que su modelo de IA Claude descubrió 22 vulnerabilidades en el navegador Mozilla Firefox durante una colaboración de dos semanas con Mozilla para realizar pruebas.
Catorce de esos problemas se calificaron como de alta gravedad. Los hallazgos ponen de relieve cómo los sistemas avanzados de IA se utilizan cada vez más para ayudar a descubrir vulnerabilidades, lo que ayuda a los equipos de seguridad a identificar y corregir fallos mucho más rápidamente que con las auditorías manuales tradicionales.
La última versión de Openclaw, la 2026.3.7, salió al mercado el domingo con una importante mejora en cuanto a extensibilidad y fiabilidad para el marco viral de agentes de IA autónomos de código abierto que se ejecuta localmente en prácticamente cualquier plataforma.
La característica más destacada es el nuevo sistema de complementos ContextEngine con enlaces de ciclo de vida completo (bootstrap, ingest, compact, gestión de subagentes, etc.), que ofrece a los desarrolladores y a la comunidad en general la libertad de crear complementos de gestión de contexto personalizados, como lossless-claw, que amplían o anulan el comportamiento básico sin perder la compatibilidad con versiones anteriores.
Los agentes de IA se introducen en la sanidad y el trabajo de oficina
Las principales empresas tecnológicas también compiten por integrar los agentes de IA en industrias del mundo real. Amazon Web Services presentó el 5 de marzo Amazon Connect Health, una plataforma compatible con la HIPAA diseñada para implementar agentes de IA en operaciones sanitarias.
La plataforma puede automatizar la programación de citas de los pacientes, ayudar con la documentación, verificar los datos del seguro y gestionar tareas administrativas, al tiempo que se integra con los sistemas de historias clínicas electrónicas. AWS afirma que el sistema tiene como objetivo reducir la carga administrativa de los proveedores de atención sanitaria y mejorar la coordinación de los pacientes.
OpenAI presentó otra herramienta empresarial con el lanzamiento de Codex Security, un agente de IA capaz de escanear bases de código de software, identificar vulnerabilidades, validar hallazgos y proponer soluciones. Lanzada inicialmente como una vista previa de investigación, la herramienta indica cómo la IA se está introduciendo cada vez más en la auditoría de software y la seguridad del desarrollo.
La empresa también presentó un complemento beta de ChatGPT para Microsoft Excel, que permite a los usuarios interactuar con GPT-5.4 directamente dentro de las hojas de cálculo. La integración permite a los analistas y a los equipos empresariales ejecutar modelos de escenarios, analizar conjuntos de datos y generar proyecciones financieras sin salir de Excel, lo que integra aún más la IA en los flujos de trabajo empresariales cotidianos.

Grok, Claude, Qwen, ChatGPT y más: nueve modelos de IA predicen la próxima trayectoria del precio del bitcoin.
Explora las perspectivas de los principales modelos de IA sobre los movimientos del precio del bitcoin y las predicciones futuras en el mercado de las criptomonedas. read more.
Leer ahora
Grok, Claude, Qwen, ChatGPT y más: nueve modelos de IA predicen la próxima trayectoria del precio del bitcoin.
Explora las perspectivas de los principales modelos de IA sobre los movimientos del precio del bitcoin y las predicciones futuras en el mercado de las criptomonedas. read more.
Leer ahora
Grok, Claude, Qwen, ChatGPT y más: nueve modelos de IA predicen la próxima trayectoria del precio del bitcoin.
Leer ahoraExplora las perspectivas de los principales modelos de IA sobre los movimientos del precio del bitcoin y las predicciones futuras en el mercado de las criptomonedas. read more.
Los últimos avances en IA de las últimas 48 horas ilustran un sector que avanza en múltiples frentes a la vez, desde la robótica y la ciberseguridad hasta la automatización de la asistencia sanitaria y los debates geopolíticos sobre el papel de la IA en la defensa nacional. Estos avances también ponen de manifiesto un creciente tira y afloja entre la innovación y la supervisión, ya que los gobiernos, los investigadores y los gigantes tecnológicos se apresuran a definir las barreras de seguridad, mientras que la tecnología sigue avanzando a un ritmo más rápido del que las políticas pueden seguir cómodamente.
Preguntas frecuentes 🔎
- ¿Cuáles han sido las noticias más importantes sobre IA en las últimas 48 horas? Entre los avances más destacados se encuentran el lanzamiento del GPT-5.4 de OpenAI, un avance en robótica de la Universidad Northwestern, el descubrimiento de vulnerabilidades en Firefox por parte de Anthropic y el lanzamiento de agentes de IA para la atención sanitaria por parte de AWS.
- ¿Por qué dimitió la responsable de robótica de OpenAI? Caitlin Kalinowski dimitió alegando su preocupación por un contrato de IA propuesto por el Pentágono y por las insuficientes garantías en materia de vigilancia y armas autónomas.
- ¿Qué son las «metamáquinas con patas» de IA? Son robots modulares diseñados por IA que pueden adaptar su estructura y seguir moviéndose incluso después de sufrir daños físicos graves.
- ¿Cómo mejora la IA la ciberseguridad? Los sistemas avanzados de IA, como Claude de Anthropic, pueden analizar bases de código de software y detectar rápidamente vulnerabilidades que los equipos humanos podrían pasar por alto.














