Durante la campaña electoral de EE.UU. de 2024, un video deepfake se difundió en las redes sociales, alegando falsamente fraude electoral. En otros lugares, datos sesgados en el sector de la salud han distorsionado los resultados de la IA, poniendo en peligro la atención al paciente. Los algoritmos opacos socavan decisiones, desestabilizan mercados y erosionan la confianza en sistemas financieros. Los riesgos de la IA están aumentando, y sus fallos están minando la confianza del público.
DLT reconstruirá la confianza en la IA
Este artículo se publicó hace más de un año. Alguna información puede no estar actualizada.

El siguiente es un artículo de invitado escrito por Charles Adkins, CEO, Fundación HBAR. Anteriormente se desempeñó como Presidente de Hedera Hashgraph, LLC. Charles es un líder experimentado con años de experiencia en el espacio de blockchain y criptomonedas, habiendo trabajado previamente en Polygon Labs y Aptos.
Necesitamos una gobernanza que asegure que la IA sirva a la humanidad y no la perjudique. Pero la escala y complejidad del desarrollo de la IA están más allá de la capacidad humana por sí sola. Entra la Tecnología de Libro Mayor Distribuido (DLT), un sistema descentralizado que registra y verifica datos a través de múltiples nodos. DLT aporta transparencia, responsabilidad e integridad a la IA, fomentando la confianza, previniendo el control monopolístico y alentando la innovación ética.
Desentrañando la ‘Caja Negra’ de la IA
La IA a menudo opera como una caja negra, confiando en datos secretos que ocultan cómo se toman las decisiones. Esta opacidad socava la confianza, especialmente en industrias como la salud y las finanzas donde la transparencia es innegociable. Con DLT, no hay secretos. DLT cambia las reglas del juego al registrar todos los datos y actualizaciones en un libro mayor inmutable, un registro digital permanente que asegura que cada cambio sea rastreable.
Tome ProveAI, por ejemplo. Utiliza DLT para asegurar y rastrear los datos de entrenamiento y actualizaciones de la IA, asegurando el cumplimiento de estándares éticos y regulaciones como la Ley de IA de la UE. Este enfoque hace que los modelos de IA sean responsables, creando una base de confianza y equidad en sus resultados.
Mejorando la Calidad de Datos con DLT
Desafortunadamente, la mala calidad de los datos sigue siendo un desafío persistente en el desarrollo de la IA. Una encuesta de Precisely de 2024 reveló que el 64% de las empresas encuentra la IA poco confiable debido a datos no verificados o sesgados. DLT aborda esto anclando datos en tiempo real a redes descentralizadas, asegurando que sean precisos, transparentes e inmutables.
Para modelos de IA como aquellos que utilizan Generación Aumentada por Recuperación (RAG) para mejorar respuestas con datos externos, DLT asegura que solo se use información verificada e inviolable. Esto minimiza los riesgos de que la desinformación o el sesgo influyan en los resultados, avanzando en la gobernanza ética de la IA.
Fetch.ai y Ocean Protocol ya están mostrando el potencial de esta innovación. Fetch.ai utiliza oráculos para acceder a datos externos en tiempo real, optimizando la logística y la eficiencia energética en todo el ecosistema Web3. Del mismo modo, Ocean Protocol asegura el intercambio tokenizado de datos, permitiendo que los sistemas de IA accedan a conjuntos de datos de alta calidad mientras protegen la privacidad del usuario.
Abordando la Desinformación Con DLT
Estas capacidades son esenciales para abordar desafíos crecientes como la desinformación, particularmente ante el aumento de los deepfakes. Ofcom reveló recientemente que el 43% de las personas mayores de 16 años encontraron al menos un deepfake online en la primera mitad de 2024. Las plataformas de blockchain como Truepic ya están abordando este problema combinando blockchain con autenticación de imágenes, estampado de tiempo y verificación de medios en el momento de su creación. Integrando datos y medios verificados en flujos de trabajo RAG, los sistemas de IA pueden verificar mejor los resultados, mejorando la confianza en la información que generan.
Gobernanza Descentralizada para una IA Ética
Los modelos de gobernanza centralizados a menudo luchan por gestionar la velocidad, complejidad y desafíos éticos del desarrollo de la IA, obstaculizando la innovación responsable. La encuesta global de Precisely reveló que el 62% de las organizaciones ven la gobernanza inadecuada como un obstáculo importante para la adopción de la IA.
Las Organizaciones Autónomas Descentralizadas (DAO), impulsadas por DLT, pueden ofrecer una solución. Las DAO automatizan la gobernanza y la toma de decisiones mediante contratos inteligentes, permitiendo que los interesados—desarrolladores, usuarios y reguladores—voten de manera transparente sobre propuestas. Cada decisión se registra en la blockchain, evitando el control unilateral, alineando decisiones con intereses colectivos y asegurando responsabilidad e inclusividad.
SingularityNET muestra este potencial, usando un marco DAO para alinear proyectos de IA con principios éticos. Este enfoque descentralizado no solo fomenta la inclusividad sino que asegura que la gobernanza refleje el interés público, sentando las bases para un desarrollo de IA escalable y ético.
Normas Globales y el Camino a Seguir
A medida que la IA depende cada vez más de datos transfronterizos, sistemas seguros y transparentes como DLT serán esenciales para construir confianza a gran escala. Muchas organizaciones ya están explorando su potencial. Por ejemplo, la Red MediLedger utiliza DLT para prevenir la manipulación de datos en cadenas de suministro farmacéuticas, mientras que la Infraestructura de Servicios de Blockchain Europea (EBSI) aprovecha DLT para la distribución segura de información, proporcionando potencialmente un marco para ayudar a las organizaciones de la UE a cumplir con la reciente Ley de IA de la UE.
Pero necesitamos ir más lejos.
La alineación regulatoria global es crucial para prevenir la fragmentación y establecer estándares universales. Gobiernos, empresas y sociedad civil deben colaborar para desarrollar marcos de gobernanza que prioricen el interés público. Las DAO, también, deben evolucionar para proporcionar una supervisión colectiva y flexible a medida que la tecnología de IA avanza.
Este no es el momento para la complacencia. Si no se actúa ahora, los riesgos de la IA crecerán sin control, dejándonos impotentes para abordarlos. El futuro de la IA ética depende de decisiones audaces hoy. DLT puede ser la base para este futuro—transparente, responsable y alineado con los mejores intereses de la humanidad.













