Offerto da
News

Il weekend movimentato dell'IA: rivoluzione in OpenAI, scontro al Pentagono e robot che rifiutano di morire

L'intelligenza artificiale (AI) ha dato vita a una serie di sviluppi frenetici durante il fine settimana, con dimissioni di dirigenti, controversie al Pentagono, innovazioni nel campo della robotica, lancio di modelli aziendali e nuovi strumenti di sicurezza che, nel loro insieme, dimostrano l'accelerazione del settore su quasi tutti i fronti.

SCRITTO DA
CONDIVIDI
Il weekend movimentato dell'IA: rivoluzione in OpenAI, scontro al Pentagono e robot che rifiutano di morire

Accordi di difesa, dimissioni e attriti al Pentagono

Uno degli sviluppi più sorprendenti è arrivato il 7 marzo, quando Caitlin Kalinowski, responsabile della robotica e dell'hardware di consumo di OpenAI, si è dimessa dall'azienda. Secondo quanto riferito, Kalinowski avrebbe sollevato preoccupazioni riguardo al perseguimento da parte di OpenAI di un contratto con il Pentagono che prevedeva l'implementazione dell'IA su sistemi governativi classificati. Avrebbe avvertito che la proposta non prevedeva garanzie sufficienti riguardo agli usi di sorveglianza interna e alla possibilità di armi autonome letali.

OpenAI ha risposto ribadendo che l'azienda mantiene rigide "linee rosse" per quanto riguarda alcune applicazioni militari. Tuttavia, le dimissioni evidenziano la crescente tensione tra le ambizioni dell'IA della Silicon Valley e le priorità di sicurezza nazionale di Washington, in particolare perché le agenzie di difesa esplorano sempre più l'uso di sistemi avanzati di IA in operazioni sensibili.

Tali tensioni si sono ulteriormente intensificate quando il 5 marzo il Pentagono ha formalmente designato Anthropic come “rischio per la catena di approvvigionamento”. La designazione limita l’utilizzo da parte degli appaltatori della difesa di alcune versioni del modello di IA Claude dell’azienda nei progetti governativi. La rara etichetta applicata a un’azienda tecnologica nazionale segnala quanto i disaccordi sulla sicurezza dell’IA e sull’uso militare stiano iniziando a entrare in conflitto con la pianificazione della difesa nazionale.

Governance ed etica sotto i riflettori dell'IA

Nel mezzo di queste controversie, una coalizione di tecnologi e politici ha presentato una nuova proposta di governance volta a guidare la prossima fase dello sviluppo dell'intelligenza artificiale. Il 7 marzo, il fisico del MIT Max Tegmark e un gruppo bipartisan di ricercatori e sostenitori delle politiche hanno presentato la "Dichiarazione pro-umana", un quadro volto a garantire che lo sviluppo dell'IA rimanga in linea con la supervisione umana e le libertà civili.

La dichiarazione delinea cinque principi fondamentali, tra cui il mantenimento del controllo finale dei sistemi avanzati di IA da parte degli esseri umani, la prevenzione di un'eccessiva concentrazione di potere nelle mani di poche aziende, l'applicazione di rigorosi test di sicurezza, la protezione dei diritti civili e l'imposizione di limiti severi alla superintelligenza in grado di auto-migliorarsi. Gli autori hanno presentato la proposta come una roadmap per i legislatori alle prese con dibattiti sempre più complessi sulle politiche relative all'IA.

Robot che rifiutano di arrendersi

Mentre i responsabili politici discutevano sui quadri di governance, i ricercatori hanno dimostrato quanto velocemente si stia evolvendo la robotica basata sull'IA. Gli scienziati della Northwestern University hanno presentato una nuova classe di "metamacchine con gambe" progettate dall'IA, robot modulari in grado di adattare la loro forma e continuare a funzionare anche dopo aver subito gravi danni fisici.

AI’s Wild Weekend: OpenAI Shakeup, Pentagon Clash, and Robots That Refuse to Die
Fonte immagine: Northwestern University News.

La ricerca, pubblicata negli Atti dell'Accademia Nazionale delle Scienze, mostra robot in grado di assemblarsi in diverse configurazioni e muoversi su terreni irregolari. Durante i test, alcuni robot sono stati tagliati a pezzi e sono comunque riusciti a recuperare la mobilità riorganizzando i componenti rimanenti: un comportamento che, secondo i ricercatori, potrebbe rivelarsi utile in zone di disastro, missioni di esplorazione o altri ambienti imprevedibili.

I modelli Frontier ampliano le capacità dell'IA aziendale

Sul fronte del software, OpenAI ha lanciato la sua famiglia di modelli GPT-5.4 il 5 marzo, introducendo sistemi progettati specificamente per carichi di lavoro professionali e aziendali. Il rilascio include varianti Pro e Thinking specializzate in grado di migliorare il ragionamento, le attività di codifica complesse e il controllo diretto del computer.

Alcune versioni di GPT-5.4 supportano finestre di contesto che si avvicinano al milione di token, consentendo agli utenti di analizzare enormi documenti o set di dati in un unico prompt. OpenAI ha affermato che i nuovi modelli mirano a ridurre le allucinazioni migliorando al contempo l'affidabilità per applicazioni aziendali quali analisi dei dati, ingegneria e flussi di lavoro automatizzati.

L'IA emerge come cacciatrice di bug nella sicurezza informatica e nuova versione di Openclaw

L'intelligenza artificiale si sta dimostrando utile anche per il lavoro di difesa della sicurezza informatica. Anthropic ha annunciato il 6 marzo che il suo modello di intelligenza artificiale Claude ha scoperto 22 vulnerabilità nel browser Mozilla Firefox durante una collaborazione di due settimane con Mozilla.

Quattordici di questi problemi sono stati classificati come altamente gravi. I risultati evidenziano come i sistemi di IA avanzati vengano sempre più utilizzati per assistere nella scoperta delle vulnerabilità, aiutando i team di sicurezza a identificare e correggere i difetti molto più rapidamente rispetto alla sola verifica manuale tradizionale.

L'ultima versione di Openclaw, la 2026.3.7, è stata rilasciata domenica con un notevole aggiornamento in termini di estensibilità e affidabilità per il framework virale open source di agenti AI autonomi che funziona localmente su praticamente qualsiasi piattaforma.

La caratteristica principale è il nuovo sistema di plugin ContextEngine con hook per l'intero ciclo di vita (bootstrap, ingest, compact, gestione dei subagenti, ecc.), che offre agli sviluppatori e alla comunità in generale la libertà di creare plugin personalizzati per la gestione del contesto, come lossless-claw, che espandono o sovrascrivono il comportamento di base pur rimanendo completamente retrocompatibili.

Gli agenti AI entrano nel settore sanitario e nel lavoro d'ufficio

Anche le principali aziende tecnologiche stanno gareggiando per integrare gli agenti AI nei settori industriali reali. Amazon Web Services ha introdotto Amazon Connect Health il 5 marzo, una piattaforma conforme allo standard HIPAA progettata per implementare agenti AI nelle operazioni sanitarie.

La piattaforma è in grado di automatizzare la programmazione dei pazienti, assistere nella documentazione, verificare i dettagli assicurativi e gestire le attività amministrative, integrandosi con i sistemi di cartelle cliniche elettroniche. AWS afferma che il sistema mira a ridurre gli oneri amministrativi per gli operatori sanitari, migliorando al contempo il coordinamento dei pazienti.

OpenAI ha presentato un altro strumento aziendale con il rilascio di Codex Security, un agente AI in grado di scansionare i codici dei software, identificare le vulnerabilità, convalidare i risultati e proporre soluzioni. Inizialmente rilasciato come anteprima di ricerca, lo strumento segnala come l'AI si stia sempre più spostando verso l'auditing dei software e la sicurezza dello sviluppo.

L'azienda ha anche introdotto un add-in ChatGPT beta per Microsoft Excel, che consente agli utenti di interagire con GPT-5.4 direttamente all'interno dei fogli di calcolo. L'integrazione permette agli analisti e ai team aziendali di eseguire modelli di scenario, analizzare set di dati e generare proiezioni finanziarie senza uscire da Excel, integrando ulteriormente l'intelligenza artificiale nei flussi di lavoro aziendali quotidiani.

Grok, Claude, Qwen, ChatGPT e altri: 9 modelli di IA prevedono il prossimo andamento del prezzo del Bitcoin

Grok, Claude, Qwen, ChatGPT e altri: 9 modelli di IA prevedono il prossimo andamento del prezzo del Bitcoin

Scopri le informazioni fornite dai principali modelli di intelligenza artificiale sui movimenti dei prezzi dei bitcoin e sulle previsioni future nel mercato delle criptovalute. read more.

Leggi ora

Gli ultimi sviluppi dell'IA nelle ultime 48 ore illustrano un settore in avanzamento su più fronti contemporaneamente: dalla robotica e dalla sicurezza informatica all'automazione sanitaria e ai dibattiti geopolitici sul ruolo dell'IA nella difesa nazionale. Gli sviluppi mettono anche in luce un crescente braccio di ferro tra innovazione e supervisione, mentre governi, ricercatori e giganti della tecnologia si affrettano a definire delle linee guida mentre la tecnologia continua ad avanzare più rapidamente di quanto la politica riesca a stare al passo.

FAQ 🔎

  • Quali sono state le notizie più importanti relative all'IA nelle ultime 48 ore? Tra i principali sviluppi figurano il lancio di GPT-5.4 da parte di OpenAI, una svolta nel campo della robotica da parte della Northwestern University, la scoperta di vulnerabilità di Firefox da parte di Anthropic e il lancio di agenti IA per l'assistenza sanitaria da parte di AWS.
  • Perché il responsabile della robotica di OpenAI si è dimesso? Caitlin Kalinowski si è dimessa citando preoccupazioni relative a un contratto proposto dal Pentagono sull'intelligenza artificiale e alle insufficienti garanzie in materia di sorveglianza e armi autonome.
  • Cosa sono le "metamacchine con gambe" dell'IA? Sono robot modulari progettati dall'IA in grado di adattare la loro struttura e continuare a muoversi anche dopo aver subito gravi danni fisici.
  • In che modo l'AI sta migliorando la sicurezza informatica? Sistemi avanzati di AI come Claude di Anthropic sono in grado di analizzare i codici dei software e individuare rapidamente vulnerabilità che potrebbero sfuggire ai team umani.