Propulsé par
Interview

La lutte pour l'IA démocratisée : le PDG de la technologie dénonce les tactiques des grandes entreprises technologiques

Travis Good, cofondateur et PDG d’Ambient, met en garde contre les dangers de l’intelligence artificielle à source fermée, soulignant son manque de transparence et d’auditabilité comme une menace pour les sources d’information indépendantes et l’autonomie des utilisateurs.

ÉCRIT PAR
PARTAGER
La lutte pour l'IA démocratisée : le PDG de la technologie dénonce les tactiques des grandes entreprises technologiques

L’IA à Source Fermée Menace les Créateurs de Contenu Indépendants

Dans une mise en garde sévère sur l’avenir de l’accès à l’information, Travis Good, cofondateur et PDG d’Ambient, soulève d’importantes préoccupations concernant la montée de l’intelligence artificielle (IA) à source fermée. Good soutient que le manque de transparence et d’auditabilité dans ces systèmes pose une menace grave pour les sources d’information indépendantes et l’autonomie des utilisateurs.

“L’IA à source fermée est une IA produite derrière les pare-feu d’entreprises et opérée sans transparence ni auditabilité”, explique Good. “C’est un problème majeur car l’IA est une force incroyablement centralisatrice.”

Good pointe l’utilisation massive de plateformes comme ChatGPT, où des centaines de millions de personnes s’appuient sur des réponses générées par l’IA au lieu de sites web traditionnels. Cette tendance, dit-il, met en danger les créateurs de contenu indépendants.

“Que se passe-t-il dans le monde quand il n’y a que deux ou trois points d’étranglement par lesquels toute l’information peut être contrôlée de la manière la plus fine imaginable ? Aucune entité ne peut être digne de confiance avec ce genre de pouvoir”, déclare-t-il.

Les préoccupations de Good découlent des pratiques observées dans le secteur de l’IA à source fermée. Il cite le soi-disant biais algorithmique, qui implique l’entraînement de modèles d’IA à mentir pour être politiquement corrects, comme un exemple de pratiques préoccupantes. Le PDG d’Ambient identifie également la manipulation de la performance et le cannibalisme concurrentiel comme autres préoccupations concernant la montée de l’IA à source fermée.

Les Stratégies des Géants de la Tech Menacent l’IA Démocratisée

Le parcours de Good, qui inclut une solide formation académique à l’université de Harvard—où il est diplômé magna cum laude—et un doctorat en informatique de l’université du Nebraska à Omaha, donne du poids à ses avertissements. Son expérience professionnelle, incluant des rôles significatifs au sein d’Union Pacific Railroad, lui confère une compréhension approfondie de l’architecture numérique à grande échelle et de ses dangers inhérents.

“Voulons-nous effectivement donner de grandes pans du pouvoir de décision à des entités qui nous ont historiquement traités comme le produit plutôt que comme le client ?” demande Good.

Le PDG d’Ambient aborde également les obstacles qui empêchent l’intelligence artificielle de devenir un bien public, comme de nombreux experts le souhaitent. Dans ses vues partagées avec Bitcoin.com News, Good souligne comment la promesse d’une IA démocratisée est éclipsée par les tactiques établies des grandes entreprises technologiques. Il identifie une méthode que les géants de la tech pourraient utiliser pour perpétuer ce contrôle.

“Nous avons vu le manuel des grandes entreprises technologiques. Cela ressemble à de la capture réglementaire et à la subvention de services non rentables jusqu’à extinction de la concurrence”, déclare Good.

Le PDG croit que de telles tactiques, qui ont réussi à remodeler le paysage des réseaux sociaux, pourraient encore être contrecarrées, mais beaucoup reste à faire pour rendre cela possible.

Pendant ce temps, Good discute brièvement de la façon dont l’inférence IA vérifiable crée de la confiance sans nécessiter de foi dans le prestataire et pourquoi cela est nécessaire dans un monde de plus en plus dépendant de l’IA.

“C’est similaire à la façon dont Bitcoin vous permet de vérifier des transactions sans faire confiance à une banque—Ambient vous permet de vérifier les résultats de l’IA sans faire confiance au fournisseur de l’IA. Cette protection devient essentielle à mesure que notre économie repose de plus en plus sur des décisions alimentées par l’IA.”

Néanmoins, Good exprime ses inquiétudes que seules quelques blockchains L1 ont les transactions par seconde (TPS) requises pour gérer l’inférence IA vérifiable sur leurs feuilles de route. Le PDG soutient que l’inférence vérifiée doit être compétitive en termes de coût avec l’inférence non vérifiée pour susciter la demande. Pendant ce temps, les mineurs effectuant l’inférence vérifiée nécessitent une compensation équitable pour leur travail, déclare Good. Il conclut :

“Le seul design économique qui récompense au maximum les mineurs (par opposition aux détenteurs de capitaux) et leur donne une participation dans un réseau est la preuve de travail. Essentiellement, il n’existe pas de blockchains de preuve de travail d’inférence vérifiée à faible surcharge offrant des TPS incroyablement élevées, c’est là qu’Ambient intervient.”