Les États-Unis encouragent les pays à collaborer sur l’utilisation responsable de l’intelligence artificielle (IA) dans les applications militaires. Une haute responsable du Département d’État, Mallory Stewart, a souligné le besoin pour les pays de se mettre d’accord sur des lignes directrices concernant l’IA qui soient en adéquation avec les lois internationales. Les inquiétudes concernant les conséquences négatives potentielles de l’IA dans les applications militaires, telles que les conflits prolongés et la désinformation, ont suscité ces discussions. Les États-Unis cherchent à obtenir des contributions d’autres pays pour minimiser ces risques et assurer une utilisation éthique et efficace de l’IA.
Les États-Unis et les nations africaines discutent de l'utilisation responsable de l'IA dans les applications militaires
Cet article a été publié il y a plus d'un an. Certaines informations peuvent ne plus être actuelles.

Risques de l’IA dans les Applications Militaires
Les États-Unis ont discuté de l’utilisation responsable de l’intelligence artificielle (IA) dans les applications militaires avec 55 pays, y compris plusieurs pays africains, a déclaré un haut responsable du Département d’État. Lors de sa récente visite de deux jours au Nigeria, Mallory Stewart, la secrétaire d’État adjointe pour le Bureau du contrôle des armements, de la dissuasion et de la stabilité, a dit aux journalistes qu’elle espère que les pays pourront se mettre d’accord sur la manière d’utiliser l’IA de façon cohérente avec les lois internationales.
Les remarques de Stewart interviennent alors que plusieurs pays africains et organismes régionaux ont dévoilé leurs plans en matière d’IA. Bien que lesdiscussions autour de l’utilisation de l’IA aient été axées sur la manière dont l’Afrique peut améliorer la productivité ou résoudre ses problèmes en cours, de nombreux observateurs craignent que l’utilisation de la technologie dans un contexte militaire puisse conduire à des conflits prolongés et à davantage de pertes en vies humaines.
Pour minimiser ce risque, le responsable américain a déclaré que son pays cherchait à obtenir des contributions d’autres pays sur l’utilisation responsable de l’IA dans le domaine militaire.
“Nous avons appris de manière difficile [qu’il y a] un biais humain inhérent intégré dans le système d’IA … conduisant peut-être à fournir des informations erronées au décideur. [L’objectif] est d’entendre le plus grand nombre possible de pays qui en sont à l’étape de travail sur l’intelligence artificielle pour leur armée afin de voir comment nous pouvons minimiser les risques,” a déclaré Stewart.
Plus de Sensibilisation, Développement de Politiques Nécessaire pour l’IA
Selon un rapport de VOA, les États-Unis souhaitent que les pays se mettent non seulement d’accord sur ce qui constitue l’utilisation responsable de l’IA dans le contexte militaire, mais aussi qu’ils reconnaissent le biais humain inhérent.
Entre-temps, Kabiru Adamu, un analyste de sécurité chez Beacon Consulting, est cité dans le rapport comme expliquant pourquoi le Nigeria a besoin de s’engager avec les États-Unis lors de l’évaluation de l’utilisation de l’IA dans le contexte militaire. Adamu a dit :
“Nous ne pouvons pas nous isoler de la communauté internationale des nations. L’IA est intégrée dans la sécurité, donc nous devons le faire. Mais nous devons être conscients de l’infrastructure de soutien pour une bonne technologie. L’énergie en est un, la culture.”
Cependant, un autre expert nigérian, le sénateur Iroegbu, a averti que si le pays d’Afrique de l’Ouest a tout à gagner en s’engageant avec les États-Unis, il doit d’abord et avant tout définir sa politique et sa stratégie concernant l’intelligence artificielle. Il a ajouté que “plus de sensibilisation et le développement de politiques sont nécessaires.”
Inscrivez votre email ici pour recevoir une mise à jour hebdomadaire sur les nouvelles africaines envoyée dans votre boîte de réception :
Êtes-vous d’accord que les gouvernements doivent influencer ou contrôler l’évolution de l’IA ? Faites-nous savoir ce que vous pensez dans la section des commentaires ci-dessous.













