Propulsé par
Featured

Selon les experts, les preuves ZK confèrent un avantage aux DePIN alors que la demande en matière de confiance dans l'IA ne cesse de croître

Les prévisions de base de Goldman Sachs, qui tablent sur 7 600 milliards de dollars de dépenses d'investissement dans l'intelligence artificielle (IA), dépendent en fin de compte de la durée de vie utile des puces spécifiques à l'IA. Les réseaux décentralisés promettent d'importants gains d'efficacité en termes de coûts, mais continuent de se heurter à des problèmes de latence ; selon les experts, leur viabilité à long terme dépendra de la priorité accordée à la vérifiabilité plutôt qu'aux performances brutes.

ÉCRIT PAR
PARTAGER
Selon les experts, les preuves ZK confèrent un avantage aux DePIN alors que la demande en matière de confiance dans l'IA ne cesse de croître

Points clés à retenir

  • Goldman Sachs prévoit des dépenses de 7 600 milliards de dollars d'ici 2031, à condition que les puces aient une durée de vie supérieure à 3 ans.
  • Les experts de StealthEX et Cysic avertissent que la latence DePIN limite l'IA décentralisée aux tâches par lots plutôt qu'au chat en direct.
  • Des entreprises on-chain comme Maple pourraient combler le déficit de crédit de 5 à 50 millions de dollars pour les centres de données de niveau 2 d'ici 2028.

La base de référence de 7 600 milliards de dollars

Un récent rapport de Goldman Sachs déplace le débat de la question de l'existence d'une demande en intelligence artificielle (IA) vers celle des facteurs du côté de l'offre qui détermineront le coût réel du déploiement. Le rapport prévoit 7 600 milliards de dollars de dépenses d'investissement en IA comme référence, mais souligne que ce chiffre est très sensible aux « variables fluctuantes », notamment la durée de vie utile des puces IA.

Cette longévité est considérée comme le facteur le plus critique, car l’innovation rapide pourrait rendre les puces standard — qui durent généralement quatre à six ans — obsolètes en trois ans, entraînant une flambée des coûts. À l’inverse, un « modèle à plusieurs niveaux » où les puces plus anciennes sont réutilisées pour des tâches plus simples, telles que l’inférence, pourrait stabiliser les coûts.

La complexité des centres de données et l’élasticité de la demande de puissance de calcul sont d’autres variables susceptibles d’influencer le montant des investissements consacrés aux infrastructures d’IA au cours des cinq prochaines années. Les pénuries de capacité du réseau électrique, de main-d’œuvre spécialisée et d’équipements électriques sont également considérées comme des facteurs ralentissant le déploiement.

Un autre rapport, quant à lui, présente ces dépenses d’infrastructure colossales comme la pierre angulaire d’une « économie des machines » émergente. Dans ce paradigme, les agents IA deviennent les principaux acteurs économiques, exécutant des transactions à haute fréquence et gérant l’allocation des ressources de manière indépendante. Les auteurs du rapport soutiennent que les systèmes financiers traditionnels, caractérisés par des cycles de règlement lents et des cadres rigides de « connaissance du client » (KYC), sont fondamentalement mal équipés pour faire face à la vitesse du commerce agentique.

Infrastructure décentralisée et compromis de latence

En conséquence, il positionne la cryptomonnaie et les protocoles décentralisés comme les « rails économiques » essentiels et sans autorisation nécessaires pour faciliter cette transition. Cependant, les sceptiques restent méfiants, se demandant si les réseaux d’infrastructures physiques décentralisés (DePIN) peuvent réellement atténuer les besoins en capital galopants de l’IA.

Vadim Taszycki, responsable de la croissance chez StealthEX, note que si les réseaux décentralisés peuvent offrir des économies de coûts significatives, ils se heurtent à des limites physiques. Alors qu’un fournisseur décentralisé comme Akash peut louer un GPU H100 pour 1,48 $ de l’heure contre 12,30 $ sur Amazon Web Services, le compromis réside dans la vitesse. « Les grands fournisseurs de cloud peuvent le faire [fast work] car leurs GPU sont regroupés dans un même bâtiment, reliés par des câbles spéciaux qui transfèrent les données en quelques microsecondes », a déclaré M. Taszycki. Il a expliqué que les réseaux décentralisés, qui relient des GPU situés dans différents pays via l’Internet public, ajoutent des millisecondes de latence. Cette latence rend l’orchestration décentralisée compétitive pour les tâches par lots et le réglage fin, mais inadaptée aux chatbots en direct à grande échelle, où l’expérience utilisateur dépend de réponses quasi instantanées.

Leo Fan, fondateur de Cysic, a fait écho à ces propos, insistant sur le fait que l’inférence décentralisée n’est pas adaptée aux charges de travail à faible latence. M. Fan a toutefois fait valoir que la latence n’est pas le bon critère de référence pour comparer les plateformes décentralisées et les hyperscalers comme AWS.

« Le véritable problème n’est pas le calcul distribué, mais la découverte, la planification et l’attestation. Ce n’est pas le prix par jeton qui fait la différence, mais la vérifiabilité », a déclaré M. Fan. Il a souligné que les environnements d’exécution fiables (TEE) et les attestations à connaissance nulle (ZK) permettent aux réseaux décentralisés d’être compétitifs dans des secteurs où la confiance et la vérification importent davantage que la « latence résiduelle ».

Le crédit on-chain et le déficit de financement

Au-delà du calcul, l’attention se porte désormais sur le mode de financement de ces projets à forte intensité capitalistique. Si le crédit privé traditionnel dispose de capitaux abondants, il néglige souvent les transactions de petite taille ou non standard. Le crédit on-chain offre des avantages distincts, tels que la possibilité pour les investisseurs particuliers de participer aux revenus des centres de données, auparavant réservés aux commanditaires institutionnels. De plus, des plateformes comme Maple et Centrifuge peuvent syndiquer des prêts compris entre 5 et 50 millions de dollars — une fourchette souvent ignorée par des sociétés comme Apollo en raison des coûts de souscription élevés par rapport aux commissions. Enfin, le crédit on-chain permet de nouveaux modèles de « paiement à l’inférence », où les revenus fluctuent en fonction de l’utilisation des GPU. De tels modèles s’intègrent plus naturellement dans des structures de partage des revenus tokenisées que dans les baux traditionnels rigides de 20 ans.

Malgré ce potentiel, les experts identifient quatre « obstacles » qui continuent de freiner l’adoption par les institutions : la force exécutoire devant les tribunaux de faillite, l’absence d’infrastructure oraculaire inviolable pour la gestion des clauses restrictives, l’incertitude réglementaire concernant les tranches de plusieurs milliards de dollars, et l’absence de produits fiscaux et comptables normalisés.

Le consensus suggère un délai réaliste de 12 à 24 mois pour que les opérations syndiquées de taille moyenne gagnent du terrain sur la blockchain, la dette mezzanine majoritairement sur la blockchain étant probablement encore à trois à cinq ans. Les premières percées viendront probablement d'opérateurs de niveau 2 plutôt que de leaders du secteur comme Coreweave.

La ruée vers les infrastructures d'IA s'intensifie alors que Meta s'engage à investir jusqu'à 27 milliards de dollars dans Nebius

La ruée vers les infrastructures d'IA s'intensifie alors que Meta s'engage à investir jusqu'à 27 milliards de dollars dans Nebius

Explorez la course à l'IA de 2026, alors que Meta investit 27 milliards de dollars dans la puissance de calcul en cloud avec Nebius Group. read more.

Lire
Tags dans cet article