Le contenu généré par IA, y compris les deepfakes et les faux audios, a brouillé les frontières entre la réalité et la fabrication, conduisant à une confusion généralisée et à la manipulation. Des experts comme Yannick Myson plaident pour l’intégration de la vérification lors de la création de contenu et la mise en œuvre de systèmes de vérification décentralisés pour garantir l’authenticité.
AI Expert : Les protocoles de vérité pourraient devenir le SSL de l'ère de l'information

Désinformation et ses dangers
L’année 2024 a servi d’avertissement frappant sur les dangers que l’intelligence artificielle (IA) peut poser si aucune mesure de sauvegarde n’est mise en place. Partout dans le monde, de l’exercice démocratique massif de l’Inde au climat politique tendu de Taïwan, les campagnes de désinformation générées par l’IA ont laissé leur marque.
À Taïwan, des présentateurs de nouvelles en deepfake ont brouillé les frontières entre la réalité et la fabrication, tandis qu’aux États-Unis, un faux audio du président Biden prétendument décourageant les démocrates du New Hampshire de voter a souligné la facilité avec laquelle l’IA peut être utilisée comme une arme pour la manipulation politique. Le volume et la sophistication de ce média synthétique ont laissé beaucoup se sentir perdus dans une mer d’incertitude, luttant pour discerner les faits de la fiction.
Cependant, certains experts, comme Yannick Myson, fondateur et PDG de Swarm Network, soutiennent que le problème va au-delà de la manipulation électorale. Il cite la psychose induite par l’IA, un phénomène troublant où des personnes développent des délires grandioses, que certaines études lient à des interactions prolongées avec les chatbots d’IA. Le coût de cette psychose induite par l’IA a été immense ; certains ont perdu leur emploi tandis que d’autres ont fini par recevoir un traitement psychiatrique.
“Tout comme les deepfakes exploitent nos raccourcis de traitement visuel, la psychose induite par l’IA exploite nos vulnérabilités psychologiques, les chatbots servant de chambres d’écho parfaites qui valident et amplifient la pensée délirante”, a déclaré Myson.
Solutions centralisées vs décentralisées
Myson croit que les mesures réactives actuelles, telles que les initiatives de vérification des faits en patchwork, sont simplement insuffisantes pour combattre ce problème croissant. “Ce que l’industrie réalise, c’est que la vérification des faits en patchwork ne peut pas suivre la vitesse des médias synthétiques ou la manipulation psychologique des systèmes IA”, affirme-t-il.
Sa solution, incarnée dans Swarm Network, est proactive : intégrer la vérification à grande échelle. Cela implique d’établir la provenance dès le moment de la création du contenu, garantissant que l’origine des informations numériques peut être retracée et authentifiée. De plus, Myson plaide pour des systèmes de vérification décentralisés, où l’information est vérifiée et validée au fur et à mesure qu’elle se propage à travers la sphère numérique.
Cette vision d’une “infrastructure de la vérité” robuste résonne avec une préoccupation croissante au sein de l’industrie de l’IA. À mesure que la technologie continue d’évoluer à un rythme rapide, les implications éthiques et sociales de son mauvais usage deviennent de plus en plus apparentes. L’érosion de la confiance dans l’information numérique, alimentée par des faussetés générées par l’IA sophistiquées, pose une menace significative aux processus démocratiques, à la cohésion sociale et même au bien-être mental individuel.
Pour combattre cela, certains ont plaidé pour une réponse réglementaire, citant des exemples passés où cela s’est avéré un outil vital pour protéger les utilisateurs des risques potentiels liés aux technologies émergentes. Cependant, les critiques avertissent que cela pourrait avoir l’effet involontaire d’étouffer l’innovation, une constatation que Myson semble partager.
“La réglementation peut aider, mais seulement si elle évite le piège de centraliser la vérité. Nous avons vu des gouvernements utiliser des ‘lois sur la désinformation’ pour faire taire le débat”, a déclaré le PDG de Swarm Network.
Pour étayer cette affirmation, Myson a souligné la manière dont les bureaucrates de l’UE utiliseraient prétendument le Digital Services Act (DSA) de l’Union Européenne, qui impose la suppression de contenus dits “nuisibles”, comme “un outil pour restreindre le discours ouvert dans le monde entier”. Myson soutient que l’AI Act de l’UE crée également des problèmes similaires.
Au lieu de promulguer des textes comme le DSA ou l’AI Act, Myson plaide plutôt pour imposer la transparence, un étiquetage clair des médias synthétiques et des normes de provenance ouvertes comme le C2PA. “Les règles devraient imposer la preuve, pas l’opinion”, a-t-il argumenté.
L’avenir de la vérification
Selon le PDG, des plateformes majeures de médias sociaux comme Meta et TikTok le reconnaissent et se sont depuis orientées vers des approches plus décentralisées de la vérification des faits.
“Ce changement représente une reconnaissance fondamentale que la vérification des faits centralisée crée des goulets d’étranglement et des points de défaillance uniques. L’avenir de la vérification du contenu ne concerne pas le pouvoir donné aux gouvernements ou aux entreprises pour décider de ce qui est vrai”, a déclaré le PDG.
Myson croit que ce changement rend les solutions comme celle proposée par Swarm Network cruciales. Plutôt que de compter sur une poignée de vérificateurs de faits centralisés, Swarm utilise des “agents IA travaillant aux côtés des réviseurs humains pour créer un enregistrement vérifiable et auditable des revendications vérifiées”.
En effet, les agents IA passent rapidement de concepts théoriques à des applications pratiques, changeant fondamentalement la manière dont divers secteurs fonctionnent. Le principal avantage de ces agents est leur capacité à automatiser et à optimiser. Ils peuvent traiter de vastes quantités de données en peu de temps, identifier des schémas que les humains pourraient manquer, et fonctionner 24/7 sans fatigue.
Cependant, l’adoption généralisée des agents IA introduit également des défis complexes qui doivent être soigneusement adressés. Pour surmonter certains de ces défis, Myson a déclaré que l’approche de son entreprise “est de transformer les agents en collaborateurs transparents, pas en oracles non vérifiés”. Il a ajouté :
“Dans Swarm, les agents décomposent l’information en de petites affirmations testables, ils se vérifient mutuellement, et là où des nuances sont nécessaires, des humains interviennent. Chaque étape est consignée et ancrée sur la chaîne, de sorte que leur raisonnement est rejouable. En bref : pas de boîtes noires, juste des pistes vérifiables.”
Pendant ce temps, Myson croit que d’ici les cinq prochaines années, la vérification des faits évoluera d’un processus manuel vers une fonctionnalité intégrée de la vie numérique, et les agents IA seront évalués par leur transparence, pas seulement par leur vitesse. La vision ultime est de faire de la vérité une couche fondamentale de l’internet.
“De la même manière que le SSL est devenu la norme pour le trafic web, un protocole de vérité deviendra la norme pour l’information. Et c’est ainsi que nous empêcherons l’IA de noyer le monde dans le bruit”, a conclu Myson.
Tags dans cet article
Sélections de Jeux Bitcoin
425% jusqu'à 5 BTC + 100 Tours Gratuits















