X har indført en streng ny politik, der sigter mod at bremse spredningen af krigsmisinformation genereret af kunstig intelligens ved at ramme skaberne dér, hvor det gør ondt: deres pengepung.
Ingen afsløring, ingen betaling: X våbeniggør indtægtsgenerering mod syntetiske krigsfupnyheder

Community Notes’ rolle
Den sociale medieplatform X har annonceret en større revision af sine politikker for indtægtsdeling til skabere, rettet mod kunstig intelligens-genererede videoer af væbnede konflikter. Tiltaget kommer midt i den eskalerende krig i Mellemøsten og voksende bekymringer om misinformation under konflikten.
Nikita Bier, X’s produktchef, sagde, at skabere, der poster AI-genererede krigsoptagelser uden at oplyse det, vil få en 90-dages suspension fra programmet for indtægtsdeling. Gentagne overtrædelser vil resultere i et permanent forbud. Håndhævelsen vil basere sig på Community Notes, platformens crowdsourcede faktatjek-system, samt metadata og signaler indlejret i generative AI-værktøjer.
Bier understregede, at i krigstid er det afgørende, at folk har adgang til autentiske informationer fra jorden, og advarede om, at moderne AI gør det trivielt at skabe indhold, der kan vildlede folk.
Udmeldingen kommer, mens misinformation hurtigt spredes online om USA’s og Israels krig med Iran, som truer med at udvikle sig til en bredere regional konflikt. Sociale medieplatforme er under stigende pres for at forhindre, at syntetiske medier forvrænger offentlighedens opfattelse under kriser.
Blandt det indhold, der gik viralt, er en højt produceret AI-video, der simulerer ødelæggelsen af hangarskibet USS Abraham Lincoln. Påstandene og videoen blev afvist af USA’s Central Command. Videoen i filmisk kvalitet viser hypersoniske missiler, der overvælder USA’s Aegis-forsvar. Et andet klip påstod at vise CIA’s regionale hovedkvarter blive jævnet med jorden; faktatjekkere har dog angiveligt sporet dette tilbage til en boligbrand i Sharjah i De Forenede Arabiske Emirater i 2015, som blev digitalt forbedret med AI for at ligne et militært angreb.

Crypto-svindlere udnytter AI-deepfakes til at promovere falske giveaways med Trump og Musk
En bestemt deepfake-video, der blev delt denne uge, indeholder Donald Trump i et interview med Maria Bartiromo. read more.
Læs nu
Crypto-svindlere udnytter AI-deepfakes til at promovere falske giveaways med Trump og Musk
En bestemt deepfake-video, der blev delt denne uge, indeholder Donald Trump i et interview med Maria Bartiromo. read more.
Læs nu
Crypto-svindlere udnytter AI-deepfakes til at promovere falske giveaways med Trump og Musk
Læs nuEn bestemt deepfake-video, der blev delt denne uge, indeholder Donald Trump i et interview med Maria Bartiromo. read more.
Andre platforme som YouTube og TikTok har indført krav om oplysning for AI-genereret indhold, men X’s tilgang er strengere, fordi den kobler overholdelse direkte til indtægtsgenerering. X har i høj grad lænet sig op ad Community Notes som et decentraliseret faktatjek-værktøj, og denne nye politik integrerer systemet i håndhævelsen og crowdsourcer dermed i praksis opdagelsen af uoplyst AI-krigsindhold.
FAQ ❓
- Hvorfor håndhæver X dette? X siger, at uoplyste AI-krigsvideoer risikerer at vildlede brugere under Iran-konflikten.
- Hvordan påvirker det skabere? Skabere skal oplyse, når krigsoptagelser er AI-genererede, ellers mister de adgangen til indtægter.
- Hvorfor er denne politik presserende her? X henviser til virale falske klip, som puster til regionale spændinger.
- Hvad betyder dette for publikum? Reglen har til formål at sikre, at brugere ser autentisk konfliktjournalistik og ikke AI-falsknerier.














