Propulsé par
Interview

Ingénieur Logiciel : Ancrer l'IA sur les Blockchains Publiques Aide à Établir un « Chemin de Provenance Permanent »

Cet article a été publié il y a plus d'un an. Certaines informations peuvent ne plus être actuelles.

Avec l’intelligence artificielle (IA) qui semble destinée à devenir centrale pour les applications et services digitaux quotidiens, l’ancrage des modèles d’IA sur des blockchains publiques aide potentiellement à “établir un chemin de provenance permanent,” a affirmé Michael Heinrich, PDG de 0G Labs. Selon Heinrich, un tel chemin de provenance permet une “analyse de suivi ex-post ou en temps réel” pour détecter toute altération, injection de biais, ou utilisation de données problématiques lors de la formation du modèle d’IA.

ÉCRIT PAR
PARTAGER
Ingénieur Logiciel : Ancrer l'IA sur les Blockchains Publiques Aide à Établir un « Chemin de Provenance Permanent »

L’ancrage de l’IA sur Blockchain Aide à Encourager la Confiance Publique

Dans ses réponses détaillées aux questions de Bitcoin.com News, Heinrich—un poète et ingénieur logiciel—a plaidé que l’ancrage des modèles d’IA de cette manière aide à maintenir leur intégrité et à encourager la confiance du public. De plus, il a suggéré que la nature décentralisée des blockchains publiques leur permet de “servir de registre anti-falsification et résistant à la censure pour les systèmes d’IA.”

Concernant la disponibilité des données ou leur absence, le PDG de 0G Labs a dit que c’est une préoccupation tant pour les développeurs que pour les utilisateurs. Pour les développeurs qui travaillent sur des solutions de couche 2, la disponibilité des données est importante car leurs “applications doivent pouvoir compter sur une vérification sécurisée par un client léger pour la correction.” Pour les utilisateurs, la disponibilité des données leur assure qu’un “système fonctionne comme prévu sans avoir à exécuter eux-mêmes des nœuds complets.”

Malgré son importance, la disponibilité des données reste coûteuse, représentant jusqu’à 90% des coûts de transaction. Heinrich attribue cela au débit de données limité d’Ethereum, qui est d’environ 83 Ko/sec. Par conséquent, même de petites quantités de données deviennent extrêmement coûteuses à publier sur la chaîne, a dit Heinrich.

Ci-dessous, les réponses détaillées de Heinrich à toutes les questions envoyées.

Bitcoin.com News (BCN) : Quel est le problème de disponibilité des données (DA) qui a tourmenté l’écosystème Ethereum ? Pourquoi est-ce important pour les développeurs et utilisateurs ?

Michael Heinrich (MH) : Le problème de disponibilité des données (DA) fait référence au besoin pour les clients légers et autres parties hors chaîne de pouvoir accéder et vérifier efficacement la totalité des données de transactions et l’état depuis la blockchain. Cela est crucial pour les solutions de scalabilité comme les rollups de la couche 2 et les chaînes fragmentées qui exécutent des transactions hors de la chaîne principale Ethereum. Les blocs contenant les transactions exécutées dans les réseaux de couche 2 doivent être publiés et stockés quelque part pour que les clients légers puissent effectuer une vérification supplémentaire.

Cela importe pour les développeurs construisant sur ces solutions de scalabilité, car leurs applications doivent pouvoir compter sur une vérification sécurisée par un client léger pour la correction. Cela importe également pour les utilisateurs interagissant avec ces applications de couche 2, car ils ont besoin d’assurance que le système fonctionne comme prévu sans avoir à exécuter eux-mêmes des nœuds complets.

BCN : Selon un rapport de Blockworks Research, les coûts de DA représentent jusqu’à 90% des coûts de transaction. Pourquoi les solutions de scalabilité existantes ont-elles du mal à fournir la performance et le coût-efficacité nécessaires pour les applications décentralisées (dapps) haute performance ?

MH : Les approches de scalabilité de couche 2 existantes, comme les Optimistic et ZK Rollups, ont du mal à fournir une disponibilité des données efficace à grande échelle du fait qu’elles doivent publier des blocs entiers de données (données de transaction, racines d’état, etc.) sur le réseau principal Ethereum pour que les clients légers puissent échantillonner et vérifier. Publier ces données sur Ethereum engendre des coûts très élevés – par exemple, la publication d’un bloc OP coûte 140 $ pour seulement 218 Ko.

Cela est dû au débit de données limité d’Ethereum d’environ 83 Ko/sec, ce qui signifie que même de petites quantités de données sont très coûteuses à publier sur la chaîne. Ainsi, alors que les rollups réalisent la scalabilité en exécutant des transactions hors de la chaîne principale, la nécessité de publier des données sur Ethereum pour la vérifiabilité devient le goulot d’étranglement limitant leur scalabilité globale et leur rentabilité pour les applications décentralisées à haut débit.

BCN : Votre entreprise, 0G Labs, aka Zerogravity, a récemment lancé son testnet avec l’objectif d’amener l’intelligence artificielle (IA) sur la chaîne, une charge de données que les réseaux existants ne sont pas capables de gérer. Pourriez-vous dire à nos lecteurs comment la nature modulaire de 0G aide à surmonter les limitations des algorithmes de consensus traditionnels ? Pourquoi le modulaire est-il le bon chemin pour construire des cas d’utilisation complexes tels que les jeux sur chaîne, l’IA sur chaîne et la finance décentralisée à haute fréquence ?

MH : L’innovation clé de 0G est de séparer les données en voies de stockage de données et de publication de données de manière modulaire. La couche DA de 0G se situe au-dessus du réseau de stockage 0G qui est optimisé pour l’ingestion et la récupération de données extrêmement rapides. Les grandes données comme les blobs de blocs sont stockées et seuls les petits engagements et preuves de disponibilité circulent vers le protocole de consensus. Cela élimine le besoin de transmettre les blobs entiers à travers le réseau de consensus et évite ainsi les goulets d’étranglement de diffusion d’autres approches de DA.

De plus, 0G peut mettre à l’échelle horizontalement les couches de consensus pour éviter qu’un réseau de consensus ne devienne un goulet d’étranglement, atteignant ainsi une scalabilité DA infinie. Avec un système de consensus prêt à l’emploi, le réseau pourrait atteindre des vitesses de 300-500 Mo/s, ce qui est déjà plusieurs ordres de grandeur plus rapide que les systèmes DA actuels, mais encore insuffisant pour les exigences de bande passante de données pour des applications haute performance telles que la formation de modèles LLM qui peuvent atteindre des dizaines de Go/s.

Un consensus personnalisé pourrait atteindre de telles vitesses, mais que se passe-t-il si de nombreux participants veulent former des modèles en même temps ? Ainsi, nous avons introduit une scalabilité infinie grâce au sharding au niveau des données pour répondre aux demandes futures d’applications blockchain haute performance en utilisant un nombre arbitraire de couches de consensus. Tous les réseaux de consensus partagent le même ensemble de validateurs avec le même statut de staking de sorte qu’ils maintiennent le même niveau de sécurité.

En résumé, cette architecture modulaire permet de mettre à l’échelle pour gérer des charges de travail extrêmement lourdes en données comme la formation/inférence de modèles d’IA sur chaîne, les jeux sur chaîne avec de grandes exigences d’état et les applications DeFi à haute fréquence avec un minimum de surcoût. Ces applications ne sont pas possibles sur les chaînes monolithiques aujourd’hui.

BCN : La communauté des développeurs Ethereum a exploré de nombreuses manières différentes d’aborder la question de la disponibilité des données sur la blockchain. Le Proto-danksharding, ou EIP-4844, est vu comme un pas dans cette direction. Croyez-vous que ces solutions seront insuffisantes pour répondre aux besoins des développeurs ? Si oui, pourquoi et où ?

MH : Le Proto-danksharding (EIP-4844) fait un pas important vers l’amélioration des capacités de disponibilité des données d’Ethereum en introduisant le stockage de blobs. L’étape ultime sera le Danksharding, qui divise le réseau Ethereum en segments plus petits, chacun responsable d’un groupe spécifique de transactions. Cela résultera en une vitesse de DA de plus de 1 Mo/s. Cependant, cela ne répondra toujours pas aux besoins des applications haute performance futures comme discuté ci-dessus.

BCN : Qu’est-ce que la “disponibilité des données programmable” de 0G et qu’est-ce qui la distingue des autres DAs en termes de scalabilité, de sécurité et de coûts de transactions ?

MH : Le système DA de 0G peut permettre la plus haute scalabilité de toute blockchain, par ex., au moins 50 000 fois plus haut débit de données et des coûts 100 fois inférieurs que le Danksharding sur la feuille de route d’Ethereum sans sacrifier la sécurité. Parce que nous construisons le système DA de 0G sur le dessus du système de stockage décentralisé de 0G, les clients peuvent déterminer comment utiliser leurs données. Ainsi, la programmabilité dans notre contexte signifie que les clients peuvent programmer/personnaliser la persistance, l’emplacement, le type et la sécurité des données. En fait, 0G permettra aux clients de décharger leur état entier dans un contrat intelligent et de le charger à nouveau, résolvant ainsi le problème de gonflement de l’état qui affecte beaucoup de blockchains aujourd’hui.

BCN : Alors que l’IA devient une partie intégrale des applications Web3 et de nos vies digitales, il est crucial de s’assurer que les modèles d’IA sont équitables et fiables. Des modèles d’IA biaisés formés sur des données altérées ou fausses pourraient causer des ravages. Quelles sont vos pensées sur l’avenir de l’IA et le rôle que la nature immuable de la blockchain pourrait jouer dans le maintien de l’intégrité des modèles d’IA ?

MH : À mesure que les systèmes d’IA deviennent de plus en plus centraux pour les applications et services digitaux affectant de nombreuses vies, assurer leur intégrité, équité et auditabilité est primordial. Des modèles d’IA biaisés, altérés ou compromis pourraient conduire à des conséquences nuisibles largement répandues s’ils étaient déployés à grande échelle. Imaginez un scenario d’horreur d’un agent d’IA malveillant formant un autre modèle/agent qui est directement implémenté dans un robot humanoïde.

Les propriétés fondamentales de la blockchain d’immutabilité, de transparence et de transitions d’état prouvables peuvent jouer un rôle vital ici. En ancrant les modèles d’IA, leurs données d’entraînement et les enregistrements audibles complets du processus de création/mise à jour des modèles sur des blockchains publiques, nous pouvons établir un chemin de provenance permanent. Cela permet une analyse de suivi ex-post ou en temps réel pour détecter toute altération, injection de biais, utilisation de données problématiques, etc., qui auraient pu compromettre l’intégrité des modèles.

Les réseaux blockchain décentralisés, en évitant les points uniques de défaillance ou de contrôle, peuvent servir de registre anti-falsification et résistant à la censure pour les systèmes d’IA. Leur transparence permet une auditabilité publique de la chaîne d’approvisionnement de l’IA d’une manière très difficile avec les pipelines de développement d’IA centralisés et opaques actuels. Imaginez avoir un modèle d’IA d’intelligence au-delà de l’humain ; disons qu’il a fourni un résultat mais tout ce qu’il a fait c’était de modifier des entrées de base de données dans un serveur central sans livrer le résultat. En d’autres termes, il peut tromper plus facilement dans des systèmes centralisés.

Aussi, comment fournir au modèle/agent les bons mécanismes d’incitation et le placer dans un environnement où il ne peut pas être malveillant. Blockchain x IA est la réponse pour que les futurs cas d’utilisation sociétaux comme le contrôle du trafic, la fabrication et les systèmes administratifs puissent vraiment être régis par l’IA pour le bien et la prospérité humaine.

Quelles sont vos pensées sur cette interview ? Partagez vos opinions dans la section des commentaires ci-dessous.

Sélections de Jeux Bitcoin

100% de Bonus jusqu'à 1 BTC + 10% de Cashback Hebdomadaire sans Mise

100% de Bonus Jusqu'à 1 BTC + 10% de Cashback Hebdomadaire

130% jusqu'à 2 500 USDT + 200 Tours Gratuits + 20% de Cashback Hebdomadaire sans Mise

1000% de Bonus de Bienvenue + Pari Gratuit jusqu'à 1 BTC

Jusqu'à 2 500 USDT + 150 Tours Gratuits + Jusqu'à 30% de Rakeback

470% de Bonus jusqu'à $500 000 + 400 Tours Gratuits + 20% de Rakeback

3,5% de Rakeback sur Chaque Mise + Tirages Hebdomadaires

425% jusqu'à 5 BTC + 100 Tours Gratuits

100% jusqu'à $20K + Rakeback Quotidien