X hat eine strenge neue Richtlinie eingeführt, die sich gegen die Verbreitung von durch künstliche Intelligenz generierten Falschinformationen über Kriege richtet, indem sie die Urheber dort trifft, wo es wehtut: in ihrem Geldbeutel.
Keine Offenlegung, keine Bezahlung: X setzt Monetarisierung als Waffe gegen synthetische Kriegsgerüchte ein

Die Rolle von Community-Hinweisen
Die Social-Media-Plattform X hat eine umfassende Überarbeitung ihrer Richtlinien zur Umsatzbeteiligung für Urheber angekündigt, die sich gegen künstliche Intelligenz generierte Videos von bewaffneten Konflikten richtet. Dieser Schritt erfolgt vor dem Hintergrund des eskalierenden Krieges im Nahen Osten und wachsender Besorgnis über Fehlinformationen während des Konflikts. Nikita Bier, Produktleiterin bei X, erklärte, dass Urheber, die ohne Offenlegung künstliche Intelligenz generierte Kriegsaufnahmen veröffentlichen, mit einer 90-tägigen Sperre vom Umsatzbeteiligungsprogramm rechnen müssen. Wiederholte Verstöße führen zu einer dauerhaften Sperrung. Die Durchsetzung erfolgt mithilfe von Community Notes, dem Crowdsourcing-System der Plattform zur Überprüfung von Fakten, sowie Metadaten und Signalen, die in generativen KI-Tools eingebettet sind. Bier betonte, dass es in Kriegszeiten von entscheidender Bedeutung ist, dass die Menschen Zugang zu authentischen Informationen vor Ort haben, und warnte, dass es mit moderner KI ein Leichtes ist, Inhalte zu erstellen, die Menschen in die Irre führen können.
Die Ankündigung erfolgt zu einem Zeitpunkt, an dem sich online schnell Falschinformationen über den Krieg der USA und Israels gegen den Iran verbreiten, der zu einem größeren regionalen Konflikt zu eskalieren droht. Social-Media-Plattformen stehen unter zunehmendem Druck, zu verhindern, dass synthetische Medien die öffentliche Wahrnehmung in Krisenzeiten verzerren.
Zu den Inhalten, die viral gingen, gehört ein aufwendig produziertes KI-Video, das die Zerstörung des Flugzeugträgers USS Abraham Lincoln simuliert. Die Behauptungen und das Video wurden vom US-Zentralkommando zurückgewiesen. Das Video in Kinoqualität zeigt Hyperschallraketen, die die US-amerikanischen Aegis-Abwehrsysteme überwältigen. Ein weiterer Clip soll angeblich zeigen, wie das regionale Hauptquartier der CIA zerstört wird. Faktenprüfer konnten diesen Clip jedoch auf einen Wohnungsbrand im Jahr 2015 in Sharjah in den Vereinigten Arabischen Emiraten zurückverfolgen, der mit KI digital so bearbeitet wurde, dass er wie ein Militärschlag aussieht.
Crypto-Betrüger nutzen KI-Deepfakes, um gefälschte Werbegeschenke mit Trump und Musk zu fördern
Ein bestimmter Deepfake-Videoclip, der diese Woche geteilt wurde, zeigt Donald Trump in einem Interview mit Maria Bartiromo. read more.
Jetzt lesen
Crypto-Betrüger nutzen KI-Deepfakes, um gefälschte Werbegeschenke mit Trump und Musk zu fördern
Ein bestimmter Deepfake-Videoclip, der diese Woche geteilt wurde, zeigt Donald Trump in einem Interview mit Maria Bartiromo. read more.
Jetzt lesen
Crypto-Betrüger nutzen KI-Deepfakes, um gefälschte Werbegeschenke mit Trump und Musk zu fördern
Jetzt lesenEin bestimmter Deepfake-Videoclip, der diese Woche geteilt wurde, zeigt Donald Trump in einem Interview mit Maria Bartiromo. read more.
Andere Plattformen wie Youtube und Tiktok haben Offenlegungspflichten für KI-generierte Inhalte eingeführt, aber der Ansatz von X ist strenger, da er die Einhaltung direkt mit der Monetarisierung verknüpft. X stützt sich stark auf Community Notes als dezentrales Faktenprüfungsinstrument, und diese neue Richtlinie integriert dieses System in die Durchsetzung, wodurch die Erkennung nicht offengelegter KI-Kriegsinhalte effektiv durch Crowdsourcing erfolgt.
FAQ ❓
- Warum setzt X dies durch? X sagt, dass nicht offengelegte KI-Kriegsvideos das Risiko bergen, Nutzer während des Iran-Konflikts in die Irre zu führen.
- Wie wirkt sich das auf die Urheber aus? Urheber müssen KI-Kriegsaufnahmen offenlegen oder verlieren ihren Zugang zu Einnahmen.
- Warum ist diese Richtlinie hier so dringend? X verweist auf virale gefälschte Clips, die regionale Spannungen schüren.
- Was bedeutet das für das Publikum? Die Regel soll sicherstellen, dass Nutzer authentische Konfliktberichterstattung sehen und keine KI-Fälschungen.




