Impulsado por
Featured

Sin divulgación, sin pago: X utiliza la monetización como arma contra los bulos sobre guerras sintéticas.

X ha introducido una nueva política estricta dirigida a combatir la difusión de información errónea sobre la guerra generada por inteligencia artificial, golpeando a los creadores donde más les duele: en el bolsillo.

ESCRITO POR
COMPARTIR
Sin divulgación, sin pago: X utiliza la monetización como arma contra los bulos sobre guerras sintéticas.

El papel de las notas de la comunidad

La plataforma de redes sociales X ha anunciado una importante revisión de sus políticas de reparto de ingresos para los creadores, centrada en los vídeos de conflictos armados generados por inteligencia artificial. La medida se produce en medio de la escalada de la guerra en Oriente Medio y la creciente preocupación por la desinformación durante el conflicto. Nikita Bier, directora de producto de X, afirmó que los creadores que publiquen imágenes de guerra generadas por IA sin revelarlo se enfrentarán a una suspensión de 90 días del programa de reparto de ingresos. Las infracciones repetidas darán lugar a una prohibición permanente. La aplicación de la norma se basará en las notas de la comunidad, el sistema de verificación de datos de la plataforma, así como en los metadatos y las señales incorporadas en las herramientas de IA generativa. Bier ha destacado que, en tiempos de guerra, es fundamental que las personas tengan acceso a información auténtica sobre el terreno, y ha advertido de que la IA moderna hace que sea muy fácil crear contenidos que puedan engañar a la gente.

El anuncio se produce en un momento en el que se difunde rápidamente información errónea en Internet sobre la guerra de Estados Unidos e Israel con Irán, que amenaza con convertirse en un conflicto regional más amplio. Las plataformas de redes sociales están sometidas a una presión cada vez mayor para evitar que los medios sintéticos distorsionen la percepción pública durante las crisis.

Entre los contenidos que se han vuelto virales se encuentra un vídeo de IA de alta producción que simula la destrucción del portaaviones USS Abraham Lincoln. Las afirmaciones y el vídeo fueron desmentidos por el Mando Central de Estados Unidos. El vídeo, de calidad cinematográfica, muestra misiles hipersónicos superando las defensas Aegis de Estados Unidos. Otro clip pretendía mostrar la destrucción de la sede regional de la CIA; sin embargo, según se informa, los verificadores de datos rastrearon este vídeo hasta un incendio residencial ocurrido en 2015 en Sharjah, Emiratos Árabes Unidos, que fue mejorado digitalmente con IA para que pareciera un ataque militar.
Estafadores de Criptomonedas Explotan Deepfakes de IA para Promover Falsos Sorteos con Trump y Musk

Estafadores de Criptomonedas Explotan Deepfakes de IA para Promover Falsos Sorteos con Trump y Musk

Un videoclip de deepfake en particular compartido esta semana, presenta a Donald Trump en una entrevista con Maria Bartiromo. read more.

Leer ahora

Otras plataformas como YouTube y TikTok han introducido requisitos de divulgación para el contenido generado por IA, pero el enfoque de X es más estricto porque vincula el cumplimiento directamente con la monetización. X se ha apoyado en gran medida en Community Notes como herramienta descentralizada de verificación de datos, y esta nueva política integra ese sistema en la aplicación de la ley, lo que permite detectar de forma eficaz y colectiva el contenido bélico generado por IA no divulgado.

Preguntas frecuentes ❓

  • ¿Por qué aplica X esta medida? X afirma que los vídeos de guerra generados por IA no divulgados pueden inducir a error a los usuarios durante el conflicto de Irán.
  • ¿Cómo afecta esto a los creadores? Los creadores deben divulgar las imágenes de guerra generadas por IA o perderán el acceso a los ingresos.
  • ¿Por qué es urgente esta política? X cita los vídeos falsos virales que están avivando las tensiones regionales.
  • ¿Qué significa esto para el público? La norma tiene por objeto garantizar que los usuarios vean informaciones auténticas sobre el conflicto, y no falsificaciones generadas por IA.