Lors de la campagne électorale américaine de 2024, une vidéo deepfake s’est répandue sur les réseaux sociaux, alléguant à tort une fraude électorale. Par ailleurs, des données biaisées dans le secteur de la santé ont altéré les résultats de l’IA, mettant en danger les soins aux patients. Des algorithmes opaques minent les décisions, déstabilisent les marchés et érodent la confiance dans les systèmes financiers. Les risques de l’IA s’intensifient et ses défauts érodent la confiance du public.
DLT reconstruira la confiance dans l'IA
Cet article a été publié il y a plus d'un an. Certaines informations peuvent ne plus être actuelles.

Voici un article invité rédigé par Charles Adkins, PDG de HBAR Foundation. Il a précédemment été Président de Hedera Hashgraph, LLC. Charles est un leader expérimenté avec des années d’expérience dans le domaine de la blockchain et des cryptomonnaies, ayant travaillé auparavant chez Polygon Labs et Aptos.
Nous avons besoin d’une gouvernance qui assure que l’IA serve l’humanité, et non qu’elle lui nuise. Mais l’ampleur et la complexité du développement de l’IA dépassent la capacité humaine seule. C’est là qu’intervient la technologie du registre distribué (DLT) : un système décentralisé qui enregistre et vérifie les données à travers plusieurs nœuds. La DLT apporte transparence, responsabilité et intégrité à l’IA, favorisant la confiance, empêchant le contrôle monopolistique et encourageant l’innovation éthique.
Casser la Boîte Noire de l’IA
L’IA fonctionne souvent comme une boîte noire, s’appuyant sur des données secrètes qui cachent comment les décisions sont prises. Cette opacité mine la confiance, surtout dans des secteurs comme la santé et les finances où la transparence est non négociable. Avec la DLT, il n’y a pas de secrets. La DLT change la donne en enregistrant toutes les données et mises à jour sur un registre immuable – un enregistrement numérique permanent qui garantit que chaque modification est traçable.
Prenez par exemple ProveAI. Il utilise la DLT pour sécuriser et suivre les données d’entraînement de l’IA et ses mises à jour, assurant la conformité aux normes éthiques et régulations comme le règlement européen sur l’IA. Cette approche rend les modèles d’IA responsables, créant une base de confiance et d’équité dans leurs résultats.
Améliorer la Qualité des Données avec la DLT
Malheureusement, la mauvaise qualité des données reste un défi persistant dans le développement de l’IA. Une enquête de Precisely de 2024 a révélé que 64% des entreprises trouvent l’IA peu fiable en raison de données non vérifiées ou biaisées. La DLT répond à cela en ancrant les données en temps réel dans des réseaux décentralisés, garantissant qu’elles soient exactes, transparentes et immuables.
Pour les modèles d’IA comme ceux utilisant la Génération Augmentée par Récupération (RAG) pour améliorer les réponses avec des données externes, la DLT garantit que seules des informations vérifiées et infalsifiables sont utilisées. Cela minimise les risques de désinformation ou de biais s’insinuant dans les résultats, faisant progresser la gouvernance éthique de l’IA.
Fetch.ai et Ocean Protocol montrent déjà le potentiel de cette innovation. Fetch.ai utilise des oracles pour accéder à des données externes en temps réel, optimisant la logistique et l’efficacité énergétique à travers l’écosystème Web3. De même, Ocean Protocol sécurise le partage de données tokenisées, permettant aux systèmes d’IA d’accéder à des ensembles de données de haute qualité tout en protégeant la vie privée des utilisateurs.
Combattre la Désinformation avec la DLT
Ces capacités sont essentielles pour relever des défis croissants comme la désinformation, notamment avec la montée des deepfakes. Ofcom a récemment révélé que 43% des personnes de 16 ans et plus ont rencontré au moins un deepfake en ligne au premier semestre 2024. Les plateformes blockchain comme Truepic s’attaquent déjà à ce problème en combinant blockchain avec l’authentification d’images, la datation et la vérification des médias au moment de leur création. En intégrant des données et des médias vérifiés dans les flux de travail RAG, les systèmes d’IA peuvent vérifier plus efficacement les sorties, renforçant la confiance dans les informations qu’ils génèrent.
Gouvernance Décentralisée pour une IA Éthique
Les modèles de gouvernance centralisée ont souvent du mal à gérer la rapidité, la complexité et les défis éthiques du développement de l’IA, entravant l’innovation responsable. L’ enquête mondiale de Precisely a révélé que 62% des organisations voient une gouvernance inadéquate comme un obstacle majeur à l’adoption de l’IA.
Les Organisations Autonomes Décentralisées (DAOs), propulsées par la DLT, peuvent fournir une solution. Les DAOs automatisent la gouvernance et la prise de décision via des contrats intelligents, permettant aux parties prenantes – développeurs, utilisateurs et régulateurs – de voter de manière transparente sur les propositions. Chaque décision est enregistrée sur la blockchain, empêchant le contrôle unilatéral, alignant les décisions sur les intérêts collectifs et garantissant responsabilité et inclusivité.
SingularityNET illustre ce potentiel, utilisant un cadre DAO pour aligner les projets d’IA sur des principes éthiques. Cette approche décentralisée non seulement favorise l’inclusivité mais garantit que la gouvernance reflète l’intérêt public, posant les fondations d’un développement d’IA éthique et évolutif.
Normes Mondiales et Chemin à Suivre
À mesure que l’IA dépend de plus en plus de données transfrontalières, des systèmes sécurisés et transparents comme la DLT seront essentiels pour établir la confiance à grande échelle. De nombreuses organisations explorent déjà son potentiel. Par exemple, le réseau MediLedger utilise la DLT pour empêcher la falsification de données dans les chaînes d’approvisionnement pharmaceutiques, tandis que l’Infrastructure Européenne de Services Blockchain (EBSI) exploite la DLT pour une distribution sécurisée de l’information, offrant potentiellement un cadre pour aider les organisations de l’UE à se conformer à la récente directive européenne sur l’IA.
Mais nous devons aller plus loin.
L’alignement réglementaire mondial est crucial pour éviter la fragmentation et établir des normes universelles. Les gouvernements, les entreprises et la société civile doivent collaborer pour développer des cadres de gouvernance qui privilégient l’intérêt public. Les DAOs, eux aussi, doivent évoluer pour fournir une supervision flexible et collective à mesure que la technologie de l’IA progresse.
Ce n’est pas le moment pour la complaisance. Si des mesures ne sont pas prises maintenant, les risques de l’IA augmenteront sans contrôle, nous laissant impuissants pour y faire face. L’avenir d’une IA éthique dépend de décisions audacieuses aujourd’hui. La DLT peut être la fondation de cet avenir – transparente, responsable et alignée sur les meilleurs intérêts de l’humanité.














