Gli Stati Uniti stanno esortando i paesi a collaborare sull’uso responsabile dell’intelligenza artificiale (AI) nelle applicazioni militari. Un alto funzionario del Dipartimento di Stato, Mallory Stewart, ha sottolineato la necessità per i paesi di concordare sulle linee guida dell’AI che siano in linea con le leggi internazionali. Le preoccupazioni riguardo le potenziali conseguenze negative dell’AI nelle applicazioni militari, come i conflitti prolungati e la disinformazione, hanno spinto queste discussioni. Gli Stati Uniti stanno cercando il contributo di altri paesi per minimizzare questi rischi e garantire che l’AI sia utilizzata in modo etico ed efficace.
Gli Stati Uniti discutono con le nazioni africane l'uso responsabile dell'IA nelle applicazioni militari
Questo articolo è stato pubblicato più di un anno fa. Alcune informazioni potrebbero non essere più attuali.

Rischi dell’AI nelle Applicazioni Militari
Gli Stati Uniti hanno discusso l’uso responsabile dell’intelligenza artificiale (AI) nelle applicazioni militari con 55 paesi, inclusi diversi dall’Africa, ha detto un alto funzionario del Dipartimento di Stato. Durante la sua recente visita di due giorni in Nigeria, Mallory Stewart, l’assistente segretario di stato per il Bureau of Arms Control, Deterrence, and Stability, ha detto ai giornalisti che spera i paesi possano concordare su come utilizzare l’AI in modo coerente con le leggi internazionali.
Le osservazioni di Stewart arrivano mentre diversi paesi africani e organismi regionali hanno presentato i loro piani sull’AI. Mentre le discussioni sull’uso dell’AI si sono concentrate su come l’Africa può aumentare la produttività o risolvere i suoi problemi in corso, molti osservatori temono che l’uso della tecnologia in contesto militare possa portare a conflitti prolungati e più spargimenti di sangue.
Per minimizzare questo rischio, il funzionario statunitense ha detto che il suo paese ha cercato il contributo di altri paesi sull’uso responsabile dell’AI nel ambito militare.
“Abbiamo imparato a nostre spese [che esiste] un pregiudizio umano intrinseco nel sistema di AI … portando forse a fornire informazioni errate al decisore. [L’obiettivo] è ascoltare quanti più paesi possibile che sono alla fase di lavorare sull’intelligenza artificiale per il loro militare per vedere come possiamo minimizzare i rischi,” Stewart ha presumibilmente detto.
Maggiore Sensibilizzazione, Sviluppo di Politiche Necessarie per l’AI
Secondo un rapporto di VOA, gli Stati Uniti vogliono che i paesi non solo concordino su cosa costituisce l’uso responsabile dell’AI in contesto militare, ma anche che riconoscano il pregiudizio umano intrinseco.
Nel frattempo, Kabiru Adamu, un analista di sicurezza con Beacon Consulting, è citato nel rapporto mentre spiega perché la Nigeria ha bisogno di impegnarsi con gli Stati Uniti quando valuta l’uso dell’AI in contesto militare. Adamu ha detto:
“Non possiamo isolarci dal comitato internazionale delle nazioni. L’AI è incorporata nella sicurezza, quindi dobbiamo farlo. Ma dobbiamo essere consapevoli dell’infrastruttura di supporto per una buona tecnologia. L’energia è una di queste, la cultura.”
Tuttavia, un altro esperto nigeriano, il senatore Iroegbu, ha avvertito che mentre il paese dell’Africa occidentale trarrà vantaggio dall’impegnarsi con gli Stati Uniti, ha ancora bisogno di “definire in primo luogo la sua politica e strategia riguardo l’intelligenza artificiale.” Ha aggiunto che “è necessaria maggior sensibilizzazione e sviluppo di politiche.”
Registra qui la tua email per ricevere un aggiornamento settimanale sulle notizie africane inviato alla tua inbox:
Sei d’accordo sul fatto che i governi devono influenzare o controllare come l’AI si evolve? Faccelo sapere cosa ne pensi nella sezione commenti qui sotto.














