El contenido generado por IA, incluidos los deepfakes y el audio falso, desdibujó las líneas entre la realidad y la fabricación, llevando a una confusión y manipulación generalizadas. Expertos como Yannick Myson abogan por incorporar la verificación en la etapa de creación de contenido e implementar sistemas de verificación descentralizados para garantizar la autenticidad.
Experto en IA: Los Protocolos de Veracidad Podrían Convertirse en el SSL de la Era de la Información

La Desinformación y Sus Peligros
El año 2024 sirvió como una seria advertencia sobre los peligros que la inteligencia artificial (IA) puede representar si no se establecen salvaguardas. En todo el mundo, desde el masivo ejercicio democrático de India hasta el tenso clima político de Taiwán, las campañas de desinformación generadas por IA dejaron su huella.
En Taiwán, los presentadores de noticias deepfake desdibujaron las líneas entre la realidad y la ficción, mientras que en los Estados Unidos, un audio falso del presidente Biden supuestamente desalentando a los demócratas de New Hampshire de votar subrayó la facilidad con la que la IA puede ser utilizada como arma para la manipulación política. El volumen y la sofisticación de este medio sintético han dejado a muchos sintiéndose a la deriva en un mar de incertidumbre, luchando por discernir la realidad de la ficción.
Sin embargo, algunos expertos, como Yannick Myson, fundador y CEO de Swarm Network, argumentan que el problema va más allá de la manipulación electoral. Señala la psicosis inducida por IA, un fenómeno perturbador de personas desarrollando delirios grandiosos, que algunos estudios vinculan a interacciones prolongadas con chatbots de IA. El costo de esta psicosis inducida por IA ha sido inmenso; algunos han perdido empleos mientras otros han terminado en tratamiento psiquiátrico.
“Así como los deepfakes explotan nuestros atajos de procesamiento visual, la psicosis de IA explota nuestras vulnerabilidades psicológicas, con los chatbots sirviendo como cámaras de eco perfectas que validan y amplifican el pensamiento delirante”, dijo Myson.
Soluciones Centralizadas vs. Descentralizadas
Myson cree que las medidas reactivas actuales, como las iniciativas de verificación de hechos, son simplemente insuficientes para combatir este problema creciente. “Lo que la industria está despertando es que la verificación de hechos no puede seguir el ritmo de la velocidad del medio sintético o la manipulación psicológica de los sistemas de IA”, afirma.
Su solución, plasmada en Swarm Network, es una proactiva: incorporar la verificación a gran escala. Esto implica establecer la procedencia en el mismo punto de creación de contenido, asegurando que el origen de la información digital pueda trazarse y autenticarse. Además, Myson aboga por sistemas de verificación descentralizados, donde la información se verifique y valide a medida que se expande en la esfera digital.
Esta visión de una robusta “infraestructura de la verdad” resuena con una creciente preocupación dentro de la industria de la IA. A medida que la tecnología continúa avanzando a un ritmo rápido, las implicaciones éticas y sociales de su mal uso se están haciendo cada vez más evidentes. La erosión de la confianza en la información digital, alimentada por falsedades sofisticadas generadas por IA, plantea una amenaza significativa para los procesos democráticos, la cohesión social e incluso el bienestar mental individual.
Para combatir esto, algunos han abogado por una respuesta regulatoria, citando instancias pasadas cuando esto resultó ser una herramienta vital para proteger a los usuarios de posibles riesgos asociados con tecnologías emergentes. Sin embargo, los críticos advierten que esto podría tener el efecto no deseado de sofocar la innovación, una afirmación con la que Myson parece estar de acuerdo.
“La regulación puede ayudar, pero solo si evita la trampa de centralizar la verdad. Hemos visto a los gobiernos usar leyes de ‘desinformación’ para silenciar el debate”, declaró el CEO de Swarm Network.
Para respaldar esta afirmación, Myson señaló cómo los burócratas de la UE están utilizando supuestamente la Ley de Servicios Digitales (DSA) de la Unión Europea (UE), que obliga a la eliminación de contenido “nocivo” de manera amplia, como “una herramienta para restringir el discurso abierto en todo el mundo.” Myson argumenta que la Ley de IA de la UE también crea problemas similares.
En lugar de promulgar piezas como la DSA o la Ley de IA, Myson aboga por exigir transparencia, un etiquetado claro de los medios sintéticos y estándares abiertos de procedencia como C2PA. “Las reglas deben imponer pruebas, no opiniones”, argumentó.
El Futuro de la Verificación
Según el CEO, las principales plataformas de redes sociales como Meta y TikTok reconocen esto y desde entonces han cambiado hacia enfoques más descentralizados para la verificación de hechos.
“Este cambio representa un reconocimiento fundamental de que la verificación de hechos centralizada crea cuellos de botella y puntos únicos de falla. El futuro de la verificación de contenido no se trata de darles a los gobiernos o corporaciones el poder de decidir qué es verdad”, declaró el CEO.
Myson cree que este cambio hace que soluciones como la que ofrece Swarm Network sean cruciales. En lugar de depender de un puñado de verificadores de hechos centralizados, Swarm utiliza “agentes de IA que trabajan junto a revisores humanos para crear un registro auditado, en cadena, de reclamos verificados.”
De hecho, los agentes de IA están pasando rápidamente de conceptos teóricos a aplicaciones prácticas, cambiando fundamentalmente cómo operan varios sectores. El principal beneficio de estos agentes es su capacidad para automatizar y optimizar. Pueden procesar grandes cantidades de datos en un período corto, identificar patrones que los humanos podrían perderse y operar 24/7 sin fatiga.
Aun así, la adopción generalizada de agentes de IA también introduce desafíos complejos que deben abordarse cuidadosamente. Para superar algunos de estos desafíos, Myson dijo que el enfoque de su empresa “es convertir a los agentes en colaboradores transparentes, no en oráculos sin control.” Añadió:
“En Swarm, los agentes descomponen la información en pequeños reclamos verificables, se revisan entre sí, y donde se necesita matiz, intervienen los humanos. Cada paso se registra y se ancla en la cadena, por lo que su razonamiento se puede volver a reproducir. En resumen: no hay cajas negras, solo caminos verificables.”
Mientras tanto, Myson cree que, en los próximos cinco años, la verificación de hechos evolucionará de un proceso manual a una característica incorporada de la vida digital, y los agentes de IA serán evaluados por su transparencia, no solo por su rapidez. La visión última es hacer de la verdad una capa fundamental de Internet.
“De la misma manera que el SSL se convirtió en el estándar para el tráfico web, un protocolo de verdad se convertirá en el estándar para la información. Y así es como evitamos que la IA ahogue al mundo en ruido”, concluyó Myson.














