Offerto da
Featured

Nessuna divulgazione, nessun compenso: X utilizza la monetizzazione come arma contro le bufale sulla guerra sintetica

X ha introdotto una nuova politica rigorosa volta a contrastare la diffusione di informazioni false sulla guerra generate dall'intelligenza artificiale, colpendo i creatori nel loro punto debole: il portafoglio.

SCRITTO DA
CONDIVIDI
Nessuna divulgazione, nessun compenso: X utilizza la monetizzazione come arma contro le bufale sulla guerra sintetica

Il ruolo delle note della community

La piattaforma di social media X ha annunciato una revisione importante delle sue politiche di condivisione dei ricavi dei creatori, prendendo di mira i video generati dall'intelligenza artificiale sui conflitti armati. La mossa arriva in un momento di escalation della guerra in Medio Oriente e di crescenti preoccupazioni per la disinformazione durante il conflitto. Nikita Bier, responsabile del prodotto di X, ha affermato che i creatori che pubblicano filmati di guerra generati dall'intelligenza artificiale senza rivelarlo saranno sospesi per 90 giorni dal programma di condivisione dei ricavi. Le violazioni ripetute comporteranno un divieto permanente. L'applicazione della norma si baserà sulle note della comunità, il sistema di verifica dei fatti in crowdsourcing della piattaforma, nonché sui metadati e sui segnali incorporati negli strumenti di IA generativa. Bier ha sottolineato che in tempo di guerra è fondamentale che le persone abbiano accesso a informazioni autentiche sul campo, avvertendo che l'IA moderna rende banale la creazione di contenuti che possono fuorviare le persone.

L'annuncio arriva in un momento in cui si diffondono rapidamente online informazioni errate sulla guerra degli Stati Uniti e di Israele contro l'Iran, che rischia di trasformarsi in un conflitto regionale più ampio. Le piattaforme di social media sono sottoposte a una pressione crescente affinché impediscano ai media sintetici di distorcere la percezione pubblica durante le crisi.

Tra i contenuti diventati virali c'è un video AI di alta qualità che simula la distruzione della portaerei USS Abraham Lincoln. Le affermazioni e il video sono stati smentiti dal Comando Centrale degli Stati Uniti. Il video di qualità cinematografica mostra missili ipersonici che travolgono le difese Aegis degli Stati Uniti. Un altro filmato mostrava il quartier generale regionale della CIA raso al suolo; tuttavia, secondo quanto riferito, i fact-checker hanno ricondotto questo video a un incendio residenziale avvenuto nel 2015 a Sharjah, negli Emirati Arabi Uniti, che è stato migliorato digitalmente con l'AI per sembrare un attacco militare.
I truffatori di criptovalute sfruttano i deepfake AI per promuovere falsi omaggi con Trump e Musk

I truffatori di criptovalute sfruttano i deepfake AI per promuovere falsi omaggi con Trump e Musk

Un particolare video deepfake condiviso questa settimana, presenta Donald Trump in un'intervista con Maria Bartiromo. read more.

Leggi ora

Altre piattaforme come Youtube e Tiktok hanno introdotto requisiti di divulgazione per i contenuti generati dall'intelligenza artificiale, ma l'approccio di X è più rigoroso perché lega la conformità direttamente alla monetizzazione. X ha fatto ampio ricorso alle Community Notes come strumento decentralizzato di verifica dei fatti, e questa nuova politica integra tale sistema nell'applicazione delle norme, affidando di fatto al crowdsourcing il rilevamento di contenuti bellici generati dall'intelligenza artificiale non divulgati.

FAQ ❓

  • Perché X sta applicando questa politica? X sostiene che i video di guerra generati dall'intelligenza artificiale non divulgati rischiano di fuorviare gli utenti durante il conflitto in Iran.
  • In che modo questo influisce sui creatori? I creatori devono divulgare i filmati di guerra generati dall'IA o perdere l'accesso alle entrate.
  • Perché questa politica è urgente in questo caso? X cita clip false virali che stanno alimentando le tensioni regionali.
  • Cosa significa questo per il pubblico? La regola mira a garantire che gli utenti vedano reportage autentici sul conflitto, non falsi generati dall'intelligenza artificiale.