Une expérience d'IA décentralisée, autrefois cantonnée aux cercles de la cryptomonnaie, vient de recevoir le soutien public de Jensen Huang, PDG de Nvidia, ce qui laisse penser que l'entraînement distribué des modèles pourrait bien se rapprocher peu à peu du grand public.
Une étape importante de la formation Bittensor attire l'attention de Chamath Palihapitiya et du PDG de Nvidia, Jensen Huang

L'IA open source prend de l'ampleur grâce au soutien du PDG de Nvidia
Chamath Palihapitiya a mis en avant le Covenant-72B de Bittensor lors d'un épisode du podcast All-In, le présentant comme un exemple concret d'intelligence artificielle (IA) décentralisée dépassant le stade de la théorie. Bittensor fonctionne comme un réseau décentralisé, basé sur la blockchain, qui établit une place de marché peer-to-peer où les modèles d'apprentissage automatique et les ressources de calcul IA sont échangés et encouragés par des incitations.
Palihapitiya a décrit cette initiative en termes simples : un modèle linguistique à grande échelle (LLM) entraîné sans infrastructure centralisée, alimenté à la place par un réseau de contributeurs indépendants. « Ils ont réussi à entraîner un modèle LLaMA de 4 milliards de paramètres, entièrement distribué, grâce à un groupe de personnes mettant à disposition leur puissance de calcul excédentaire », a-t-il déclaré, qualifiant cela de « prouesse technique assez folle ».
La comparaison s'est traduite par une analogie familière. « Il y a des personnes choisies au hasard, et chacune reçoit une petite part », a ajouté Palihapitiya, faisant référence au projet pionnier de calcul distribué qui exploitait du matériel informatique inutilisé à travers le monde.
Huang n’a pas rejeté cette idée. Au contraire, il a adopté une vision plus large du marché de l’IA, suggérant que les approches décentralisées et propriétaires ne s’excluent pas mutuellement. « Ces deux choses ne sont pas A ou B ; c’est A et B », a déclaré Huang. « Cela ne fait aucun doute. »
Cette vision à deux volets reflète un clivage croissant — et un chevauchement — au sein de l’IA. D’un côté, on trouve des systèmes fermés et très aboutis comme ChatGPT, Claude et Gemini. De l’autre, des modèles ouverts et décentralisés qui permettent aux développeurs et aux organisations de personnaliser les systèmes en fonction de besoins spécifiques.
Huang a clairement indiqué qu’il considérait ces deux voies comme essentielles. « Les modèles sont une technologie, pas un produit », a-t-il déclaré, soulignant que la plupart des utilisateurs continueront à s’appuyer sur des systèmes aboutis et polyvalents plutôt que de construire les leurs à partir de zéro.
Dans le même temps, il a mis en avant les secteurs où la personnalisation n’est pas facultative. « Il existe tout un ensemble de secteurs où l’expertise métier… doit être capturée d’une manière qu’ils puissent contrôler », a expliqué Huang, ajoutant que « cela ne peut provenir que de modèles ouverts ».
Cette déclaration correspond parfaitement à la spécialité de Bittensor. Covenant-72B, développé via son Subnet 3 (Templar), représente l’un des plus grands cycles d’entraînement décentralisés à ce jour, coordonnant plus de 70 contributeurs via des connexions Internet standard sans autorité centrale.
Sur le plan technique, le modèle repousse les limites. Construit avec 72 milliards de paramètres et entraîné sur environ 1,1 billion de jetons, il exploite des innovations telles que les protocoles de communication compressés et le parallélisme distribué des données pour rendre l’entraînement viable en dehors des centres de données traditionnels.
Les indicateurs de performance suggèrent qu'il ne s'agit pas simplement d'une expérience. Les résultats des tests de performance le placent en concurrence avec des modèles centralisés bien établis, un détail qui aide à expliquer pourquoi le projet a attiré l'attention au-delà des audiences crypto-natives.
Le marché l'a également remarqué. Suite à l'annonce, le token du projet, TAO, a augmenté de 24 % depuis que la vidéo de Palihapitiya et Huang a fait le tour des réseaux sociaux.

Nvidia soutient les projets de Nebius AI Factory grâce à un investissement colossal de 2 milliards de dollars
Découvrez comment Nvidia redéfinit l'avenir de l'informatique grâce à un investissement de 2 milliards de dollars dans les infrastructures cloud dédiées à l'IA. read more.
Lire
Nvidia soutient les projets de Nebius AI Factory grâce à un investissement colossal de 2 milliards de dollars
Découvrez comment Nvidia redéfinit l'avenir de l'informatique grâce à un investissement de 2 milliards de dollars dans les infrastructures cloud dédiées à l'IA. read more.
Lire
Nvidia soutient les projets de Nebius AI Factory grâce à un investissement colossal de 2 milliards de dollars
LireDécouvrez comment Nvidia redéfinit l'avenir de l'informatique grâce à un investissement de 2 milliards de dollars dans les infrastructures cloud dédiées à l'IA. read more.
Pourtant, les commentaires de Huang suggèrent que l'enjeu réel n'est pas la disruption, mais la coexistence entre les deux. Les systèmes d'IA propriétaires resteront probablement dominants pour les utilisateurs lambda, tandis que les modèles ouverts et décentralisés se tailleront une place dans des applications spécialisées, sensibles aux coûts ou axées sur la souveraineté.
Pour les start-ups, le PDG de Nvidia a esquissé une stratégie pragmatique : commencer par l'ouverture, puis y intégrer des avantages propriétaires. « Toutes les start-ups dans lesquelles nous investissons actuellement sont d'abord open source, puis passent au modèle propriétaire », a-t-il déclaré.
En d'autres termes, l'avenir de l'IA n'appartient peut-être pas à une architecture ou à une philosophie unique. Il appartient peut-être à ceux qui savent naviguer entre les deux — et savent quand utiliser chacune d'elles.
FAQ 🔎
- Qu'est-ce que le Covenant-72B de Bittensor ? Un modèle linguistique de 72 milliards de paramètres formé via un réseau décentralisé de contributeurs sans infrastructure centralisée.
- Qu'a dit Jensen Huang à propos de l'IA décentralisée ? Il a déclaré que les modèles d'IA ouverts et propriétaires coexisteraient, décrivant cette relation comme « A et B », et non comme un choix entre les deux.
- Pourquoi cette évolution est-elle importante ? Elle montre que les modèles d'IA à grande échelle peuvent être entraînés en dehors des centres de données traditionnels, remettant ainsi en question les hypothèses concernant les besoins en infrastructure.
- Quel est l'impact sur le secteur de l'IA ? Cela favorise un avenir hybride où les plateformes centralisées et les modèles décentralisés joueront des rôles différents dans tous les secteurs.















