X a mis en place une nouvelle politique stricte visant à lutter contre la propagation de fausses informations liées à la guerre générées par l'intelligence artificielle en frappant les créateurs là où ça fait mal : leur portefeuille.
Pas de divulgation, pas de paiement : X utilise la monétisation comme arme contre les canulars de guerre synthétiques

Le rôle des notes communautaires
La plateforme de médias sociaux X a annoncé une révision majeure de ses politiques de partage des revenus des créateurs, ciblant les vidéos de conflits armés générées par l'intelligence artificielle. Cette mesure intervient dans un contexte d'escalade de la guerre au Moyen-Orient et d'inquiétudes croissantes concernant la désinformation pendant le conflit. Nikita Bier, responsable produit chez X, a déclaré que les créateurs qui publient des images de guerre générées par l'IA sans le mentionner seront suspendus pendant 90 jours du programme de partage des revenus. Les violations répétées entraîneront une interdiction permanente. L'application de cette mesure s'appuiera sur les notes communautaires, le système de vérification des faits participatif de la plateforme, ainsi que sur les métadonnées et les signaux intégrés dans les outils d'IA générative. M. Bier a souligné qu'en temps de guerre, il est essentiel que les gens aient accès à des informations authentiques sur le terrain, avertissant que l'IA moderne permet de créer facilement des contenus susceptibles d'induire les gens en erreur.
Cette annonce intervient alors que des informations erronées se propagent rapidement en ligne au sujet de la guerre entre les États-Unis et Israël contre l'Iran, qui menace de se transformer en un conflit régional plus large. Les plateformes de réseaux sociaux subissent une pression croissante pour empêcher les médias synthétiques de fausser la perception du public en période de crise.
Parmi les contenus qui sont devenus viraux, on trouve une vidéo IA de haute qualité simulant la destruction du porte-avions USS Abraham Lincoln. Ces affirmations et cette vidéo ont été rejetées par le Commandement central américain. La vidéo, de qualité cinématographique, montre des missiles hypersoniques submergeant les défenses américaines Aegis. Un autre clip prétendait montrer le siège régional de la CIA rasé ; cependant, les vérificateurs de faits auraient retracé cette vidéo jusqu'à un incendie résidentiel survenu en 2015 à Sharjah, aux Émirats arabes unis, qui a été amélioré numériquement à l'aide de l'IA pour ressembler à une frappe militaire.
Escrocs Crypto Exploitent les Deepfakes IA pour Promouvoir de Faux Cadeaux Avec Trump et Musk
Un extrait vidéo deepfake particulier partagé cette semaine présente Donald Trump dans une interview avec Maria Bartiromo. read more.
Lire
Escrocs Crypto Exploitent les Deepfakes IA pour Promouvoir de Faux Cadeaux Avec Trump et Musk
Un extrait vidéo deepfake particulier partagé cette semaine présente Donald Trump dans une interview avec Maria Bartiromo. read more.
Lire
Escrocs Crypto Exploitent les Deepfakes IA pour Promouvoir de Faux Cadeaux Avec Trump et Musk
LireUn extrait vidéo deepfake particulier partagé cette semaine présente Donald Trump dans une interview avec Maria Bartiromo. read more.
D'autres plateformes telles que Youtube et Tiktok ont introduit des exigences de divulgation pour les contenus générés par l'IA, mais l'approche de X est plus stricte car elle lie directement la conformité à la monétisation. X s'est fortement appuyé sur Community Notes comme outil décentralisé de vérification des faits, et cette nouvelle politique intègre ce système dans l'application de la loi, permettant ainsi de détecter de manière efficace et collaborative les contenus de guerre générés par l'IA qui n'ont pas été divulgués.
FAQ ❓
- Pourquoi X applique-t-il cette mesure ? X affirme que les vidéos de guerre générées par l'IA non divulguées risquent d'induire les utilisateurs en erreur pendant le conflit avec l'Iran.
- Quel est l'impact sur les créateurs ? Les créateurs doivent divulguer les images de guerre générées par l'IA, sous peine de perdre leurs revenus.
- Pourquoi cette politique est-elle urgente ici ? X cite des clips virals falsifiés qui attisent les tensions régionales.
- Qu'est-ce que cela signifie pour le public ? La règle vise à garantir que les utilisateurs voient des reportages authentiques sur le conflit, et non des faux créés par l'IA.













