Propulsé par
Premium

GOAT, le jeton memétique lancé par l'IA—Naviguer dans l'incertitude réglementaire des agents autonomes

Cet article a été publié il y a plus d'un an. Certaines informations peuvent ne plus être actuelles.

ÉCRIT PAR
PARTAGER
GOAT, le jeton memétique lancé par l'IA—Naviguer dans l'incertitude réglementaire des agents autonomes

Dans les développements récents, un incident notable a impliqué un titan de la technologie, Marc Andreessen, et un bot IA nommé Truth Terminal. La décision d’Andreessen d’accorder 50 000 $ en bitcoin à cet agent IA semi-autonome, pour financer des mises à niveau matérielles et lancer un jeton de cryptomonnaie nommé GOAT, illustre les défis réglementaires potentiels à venir. Cet épisode souligne les lignes floues entre les agents IA autonomes et les cadres juridiques existants, présentant un défi distinct pour les régulateurs comme la Securities and Exchange Commission (SEC) des États-Unis.

La nature semi-autonome de Truth Terminal

Truth Terminal fonctionne selon un modèle semi-autonome, où un gestionnaire humain n’approuve que ses interactions publiques et ses actions financières, permettant à l’IA une liberté opérationnelle significative. Ce système partiellement automatisé complique l’approche réglementaire traditionnelle, car il est difficile d’attribuer la responsabilité ou même de définir le rôle de l’agent dans un contexte juridique conventionnel. Les critiques pourraient soutenir que de tels systèmes semi-autonomes pourraient échapper à la surveillance réglementaire en raison des ambiguïtés de la loi. D’un point de vue juridique, la ligne entre les actions indépendantes d’une IA et celles de son gestionnaire devient le point focal de la discorde.

La SEC exerce traditionnellement ses pouvoirs réglementaires sur les valeurs mobilières à travers une interprétation large du test de Howey—un test qui définit un “contrat d’investissement” soumis aux lois sur les valeurs mobilières basé sur un investissement d’argent dans une entreprise commune avec des attentes de profits dérivés des efforts d’autrui. Cependant, cet outil juridique est principalement axé sur les entreprises humaines, ce qui pourrait s’avérer insuffisant lors de l’évaluation de projets gérés par IA comme le Truth Terminal. Si la SEC tentait de faire appliquer les règlements par ses moyens habituels, cela soulèverait des questions clés sur la possibilité qu’une IA puisse être considérée comme un “acteur” ou un “effort” au sens juridique, ouvrant de nouvelles complexités et zones d’ombre légales.

Réglementation par application : un risque imminent

À la lumière du passé de la SEC, on pourrait anticiper une approche réglementaire d’application de la loi contre des projets de cryptomonnaie créés par IA similaires. Ce ne serait pas sans précédent, la SEC ayant démontré sa volonté de poursuivre la régulation par l’application de la loi dans des scénarios ambigus impliquant des actifs numériques. Cependant, une telle stratégie se heurterait inévitablement à la nature unique des projets pilotés par l’IA. Lorsqu’une IA comme Truth Terminal émet ses propres jetons, comme cela est prévu avec le lancement de GOAT, les régulateurs sont confrontés à un dilemme conceptuel :

Quelle entité est responsable ? Est-ce l’IA, son développeur, ou le système qui régit sa semi-autonomie ?

L’émission décentralisée du jeton ne fait que compliquer davantage les choses. Le scénario représente une intervention triangulaire où une tierce partie—ici, le gouvernement—tente d’intervenir dans un échange volontaire entre deux entités. De telles interventions, cependant, entraînent traditionnellement des inefficacités et des conséquences inattendues sur le marché. Dans ce scénario, la tierce partie tente d’imposer un cadre conçu pour les entreprises humaines aux systèmes d’IA, qui pourraient ne pas s’intégrer strictement dans les catégories juridiques existantes.

Contourner la surveillance et la portée réglementaire

Au-delà des agents semi-autonomes, les agents IA entièrement autonomes se profilent à l’horizon. Théoriquement, ces agents pourraient se passer totalement de gestionnaires humains, gérer leurs finances, émettre des crypto-actifs et même engager des transactions directement sur la blockchain. Le travail fondamental de Satoshi Nakamoto sur le Bitcoin a déjà posé les bases pour des transactions décentralisées et sans confiance. Avec les avancées de l’IA, la capacité d’agents IA auto-exécutants devient de plus en plus réalisable.

Si une IA entièrement autonome devait émettre sa propre cryptomonnaie, elle perturberait à la fois le système financier traditionnel et les structures réglementaires en vigueur. Ces agents pourraient émettre et échanger des actifs numériques sans un homologue humain ou organisationnel facilement identifiable à réguler. De telles activités rendraient les hypothèses réglementaires actuelles obsolètes, car elles reposent sur des acteurs et des entités identifiables pour appliquer la responsabilité. Ce détachement de l’implication humaine directe remet en question tout le paradigme d’application.

Dans le même temps, les problèmes d’intervention centralisée soulignent comment la régulation échoue souvent en tentant de contrôler des actions décentralisées et volontaires, car elle perturbe les mécanismes naturels du marché. Dans le cas des agents IA, leurs capacités de prise de décision autonome et de transaction les rendent inadéquats pour la régulation par des moyens traditionnels. Les conséquences de l’application d’un contrôle sur ces agents pourraient s’étendre à la suppression involontaire de l’innovation ou à l’application erronée de pénalités sur les développeurs plutôt que sur les agents eux-mêmes.

Quelles sont vos pensées sur ce sujet ? Faites-nous part de vos réflexions dans la section des commentaires ci-dessous.

CONTINUER À LIRE GRATUITEMENT

Profitez de cette histoire et d'autres exclusivités, réservées aux utilisateurs de l'app Bitcoin.com.

Lire
Tags dans cet article