Oferecido por
Featured

Sem divulgação, sem pagamento: o X transforma a monetização em arma contra embustes de guerra sintéticos

X introduziu uma nova política rígida para combater a disseminação de desinformação de guerra gerada por inteligência artificial, atingindo os criadores onde dói: no bolso.

ESCRITO POR
PARTILHAR
Sem divulgação, sem pagamento: o X transforma a monetização em arma contra embustes de guerra sintéticos

O Papel das Notas da Comunidade

A plataforma de redes sociais X anunciou uma grande revisão em suas políticas de compartilhamento de receita com criadores, mirando vídeos de conflitos armados gerados por inteligência artificial. A medida ocorre em meio à escalada da guerra no Oriente Médio e às crescentes preocupações com a desinformação durante o conflito.

Nikita Bier, chefe de produto do X, disse que criadores que publicarem imagens de guerra geradas por IA sem divulgação enfrentarão uma suspensão de 90 dias do programa de compartilhamento de receita. Violações repetidas resultarão em um banimento permanente. A aplicação dependerá das Notas da Comunidade, o sistema de checagem de fatos colaborativa da plataforma, bem como de metadados e sinais incorporados em ferramentas de IA generativa.

Bier enfatizou que, em tempos de guerra, é fundamental que as pessoas tenham acesso a informações autênticas no terreno, alertando que a IA moderna torna trivial criar conteúdo capaz de enganar as pessoas.

O anúncio ocorre enquanto a desinformação se espalha rapidamente online sobre a guerra dos EUA e de Israel com o Irã, que ameaça se tornar um conflito regional mais amplo. As plataformas de redes sociais estão sob pressão crescente para impedir que a mídia sintética distorça a percepção pública durante crises.

Entre os conteúdos que viralizaram está um vídeo de IA de alta produção simulando a destruição do porta-aviões USS Abraham Lincoln. As alegações e o vídeo foram descartados pelo Comando Central dos EUA. O vídeo, com qualidade cinematográfica, mostra mísseis hipersônicos sobrepujando as defesas Aegis dos EUA. Outro clipe supostamente mostrava a sede regional da CIA sendo arrasada; no entanto, checadores de fatos teriam rastreado isso até um incêndio residencial de 2015 em Sharjah, nos Emirados Árabes Unidos, que foi aprimorado digitalmente com IA para parecer um ataque militar.

Scammers de Criptomoedas Exploram Deepfakes de IA para Promover Falsos Sorteios com Trump e Musk

Scammers de Criptomoedas Exploram Deepfakes de IA para Promover Falsos Sorteios com Trump e Musk

Um vídeo deepfake específico compartilhado esta semana apresenta Donald Trump em uma entrevista com Maria Bartiromo. read more.

Leia agora

Outras plataformas como YouTube e TikTok introduziram exigências de divulgação para conteúdo gerado por IA, mas a abordagem do X é mais rígida porque vincula a conformidade diretamente à monetização. O X tem se apoiado fortemente nas Notas da Comunidade como uma ferramenta descentralizada de checagem de fatos, e essa nova política integra esse sistema à aplicação, efetivamente terceirizando para a comunidade a detecção de conteúdo de guerra gerado por IA não divulgado.

FAQ ❓

  • Por que o X está aplicando isso? O X diz que vídeos de guerra gerados por IA sem divulgação correm o risco de enganar os usuários durante o conflito com o Irã.
  • Como isso afeta os criadores? Os criadores devem divulgar quando imagens de guerra forem geradas por IA ou perderão o acesso à receita.
  • Por que esta política é urgente aqui? O X cita clipes falsos virais que estão inflamando tensões regionais.
  • O que isso significa para o público? A regra busca garantir que os usuários vejam uma cobertura autêntica do conflito, e não falsificações feitas por IA.