Aangedreven door
Featured

Geen openbaarmaking, geen betaling: X zet monetisatie in als wapen tegen synthetische oorlogsbedrogberichten

X heeft een streng nieuw beleid ingevoerd dat zich richt op de verspreiding van door kunstmatige intelligentie gegenereerde oorlogsmisinformatie door makers te raken waar het pijn doet: hun portemonnee.

GESCHREVEN DOOR
DELEN
Geen openbaarmaking, geen betaling: X zet monetisatie in als wapen tegen synthetische oorlogsbedrogberichten

De rol van Community Notes

Socialmediaplatform X heeft een grote herziening aangekondigd van zijn beleid voor het delen van inkomsten met makers, gericht op door kunstmatige intelligentie gegenereerde video’s van gewapende conflicten. De stap komt te midden van de escalerende oorlog in het Midden-Oosten en groeiende zorgen over desinformatie tijdens het conflict.

Nikita Bier, hoofd product van X, zei dat makers die AI-gegenereerde oorlogsbeelden plaatsen zonder dit te vermelden, een schorsing van 90 dagen krijgen van het programma voor het delen van inkomsten. Herhaalde overtredingen leiden tot een permanente ban. Handhaving zal steunen op Community Notes, het door de gemeenschap aangeleverde factcheckingsysteem van het platform, evenals metadata en signalen die zijn ingebed in generatieve AI-tools.

Bier benadrukte dat het in oorlogstijd cruciaal is dat mensen toegang hebben tot authentieke informatie ter plaatse, en waarschuwde dat moderne AI het triviaal maakt om content te creëren die mensen kan misleiden.

De aankondiging komt op het moment dat desinformatie zich snel online verspreidt over de oorlog van de VS en Israël met Iran, die dreigt uit te groeien tot een breder regionaal conflict. Socialmediaplatforms staan onder toenemende druk om te voorkomen dat synthetische media de publieke perceptie tijdens crises vertekenen.

Tot de content die viraal ging, behoort een hoogwaardig geproduceerde AI-video die de vernietiging van het vliegdekschip USS Abraham Lincoln simuleert. De beweringen en video werden afgedaan door het U.S. Central Command. De video van filmische kwaliteit laat zien hoe hypersonische raketten de Amerikaanse Aegis-verdediging overweldigen. Een andere clip zou de regionale hoofdkwartieren van de CIA tonen die met de grond gelijk worden gemaakt; factcheckers zouden dit echter hebben teruggevoerd naar een woningbrand uit 2015 in Sharjah, Verenigde Arabische Emiraten, die digitaal met AI was opgepoetst om op een militaire aanval te lijken.

Crypto-oplichters benutten AI deepfakes om nep-weggeefacties te promoten met Trump en Musk

Crypto-oplichters benutten AI deepfakes om nep-weggeefacties te promoten met Trump en Musk

Een specifieke deepfake-videoclip die deze week is gedeeld, toont Donald Trump in een interview met Maria Bartiromo. read more.

Lees nu

Andere platforms zoals YouTube en TikTok hebben vereisten ingevoerd voor het vermelden van AI-gegenereerde content, maar de aanpak van X is strenger omdat deze naleving direct koppelt aan monetisatie. X leunt zwaar op Community Notes als een gedecentraliseerd factchecking-instrument, en dit nieuwe beleid integreert dat systeem in de handhaving, waardoor de detectie van niet-aangegeven AI-oorlogscontent effectief wordt uitbesteed aan de gemeenschap.

FAQ ❓

  • Waarom handhaaft X dit? X zegt dat niet-aangegeven AI-oorlogsvideo’s gebruikers kunnen misleiden tijdens het Iran-conflict.
  • Hoe beïnvloedt dit makers? Makers moeten AI-oorlogsbeelden vermelden of verliezen toegang tot inkomsten.
  • Waarom is dit beleid hier urgent? X verwijst naar virale nepclips die regionale spanningen aanwakkeren.
  • Wat betekent dit voor het publiek? De regel is bedoeld om ervoor te zorgen dat gebruikers authentieke verslaggeving van conflicten zien, geen AI-nepbeelden.