Bereitgestellt von
Premium

GOAT, das AI-gestartete Meme-Token—Navigieren in der regulatorischen Unsicherheit autonomer Agenten

Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Einige Informationen sind möglicherweise nicht mehr aktuell.

GESCHRIEBEN VON
TEILEN
GOAT, das AI-gestartete Meme-Token—Navigieren in der regulatorischen Unsicherheit autonomer Agenten

In den jüngsten Entwicklungen kam es zu einem bemerkenswerten Vorfall mit einem Tech-Riesen, Marc Andreessen, und einem KI-Bot namens Truth Terminal. Andreessens Entscheidung, diesem halbautonomen KI-Agenten 50.000 US-Dollar in Bitcoin zu gewähren, um Hardware-Upgrades zu finanzieren und ein Kryptowährungs-Token namens GOAT zu lancieren, beleuchtet potenzielle regulatorische Herausforderungen, die in der Zukunft liegen. Dieses Ereignis hebt die verschwommenen Grenzen zwischen autonomen KI-Agenten und bestehenden rechtlichen Rahmenbedingungen hervor und stellt eine besondere Herausforderung für Regulierungsbehörden wie die U.S. Securities and Exchange Commission (SEC) dar.

Die halbautonome Natur von Truth Terminal

Truth Terminal arbeitet unter einem halbautonomen Modell, bei dem ein menschlicher Betreuer nur die öffentlichen Interaktionen und finanziellen Aktionen des KI-Agenten genehmigt, wodurch der KI erhebliche betriebliche Freiheit gewährt wird. Dieses teilweise automatisierte System erschwert den traditionellen regulatorischen Ansatz, da es schwierig ist, Haftung festzustellen oder sogar die Rolle des Agenten im herkömmlichen rechtlichen Kontext zu definieren. Kritiker könnten argumentieren, dass solche halbautonomen Systeme aufgrund von Gesetzeslücken der Regulierungsaufsicht entgehen könnten. Aus rechtlicher Sicht wird die Unterscheidung zwischen unabhängigen Handlungen einer KI und denen ihres Betreuers zum Schwerpunkt der Auseinandersetzung.

Traditionell übt die SEC ihre Regulierungsbefugnisse über Wertpapiere durch eine breite Interpretation des Howey-Tests aus—a Test, der einen „Investmentvertrag“ gemäß den Wertpapiergesetzen definiert, basierend auf einer Geldinvestition in einem gemeinsamen Unternehmen mit Gewinnerwartungen, die aus den Anstrengungen anderer abgeleitet werden. Dieses rechtliche Instrumentarium konzentriert sich jedoch hauptsächlich auf menschliche Unternehmen, was bei der Bewertung von KI-verwalteten Unternehmungen wie dem Truth Terminal unzureichend sein könnte. Sollte die SEC versuchen, Regelungen durchzusetzen, würde dies wichtige Fragen aufwerfen, ob eine KI im rechtlichen Sinne als „Akteur“ oder „Anstrengung“ angesehen werden kann, wodurch neue Komplexitäten und rechtliche Grauzonen entstehen.

Regulierung durch Durchsetzung: Ein drohendes Risiko

Angesichts der Bilanz der SEC könnte man einen regulatorischen Ansatz der Durchsetzung gegen ähnliche KI-gestaltete Kryptowährungsprojekte erwarten. Dies wäre nicht beispiellos, da die SEC ihre Bereitschaft gezeigt hat, in unklaren Szenarien mit digitalen Vermögenswerten durch Durchsetzung zu regulieren. Eine solche Strategie würde allerdings mit der einzigartigen Natur von KI-gesteuerten Projekten kollidieren. Wenn eine KI wie Truth Terminal ihre eigenen Tokens ausgibt, wie dies mit der Einführung von GOAT beabsichtigt ist, stehen die Regulierer einem konzeptionellen Dilemma gegenüber:

Welches Wesen ist verantwortlich? Ist es die KI, ihr Entwickler oder das System, das ihre Halbautonomie regelt?

Die dezentrale Ausgabe des Tokens verkompliziert die Angelegenheit weiter. Das Szenario repräsentiert einen dreifachen Eingriff, bei dem eine dritte Partei—hier die Regierung—versucht, sich in einen ansonsten freiwilligen Austausch zwischen zwei Einheiten einzumischen. Solche Eingriffe führen traditionell zu Ineffizienzen und unbeabsichtigten Konsequenzen auf dem Markt. In diesem Fall versucht die dritte Partei, einen Rahmen aufrechtzuerhalten, der für menschliche Unternehmungen entwickelt wurde, auf KI-Systeme, die möglicherweise nicht vollständig in bestehende rechtliche Kategorien passen.

Umgehung von Überwachung und regulatorischer Reichweite

Über halbautonome Agenten hinaus stehen vollautonome KI-Agenten am Horizont. Theoretisch könnten diese Agenten menschliche Betreuer völlig umgehen, ihre Finanzen verwalten, Krypto-Assets ausgeben und sogar direkt auf der Blockchain Transaktionen durchführen. Satoshi Nakamotos grundlegende Arbeit an Bitcoin hat bereits den Grundstein gelegt für dezentrale, vertrauenslose Transaktionen. Mit Fortschritten in der KI wird die Fähigkeit für selbst ausführende KI-Agenten zunehmend machbar.

Wenn eine vollautonome KI ihre eigene Kryptowährung herausgeben würde, würde sie sowohl das traditionelle Finanzsystem als auch die vorherrschenden regulatorischen Strukturen stören. Diese Agenten könnten digitale Assets ausgeben und handeln, ohne ein leicht identifizierbares menschliches oder organisatorisches Gegenstück zu haben, das reguliert werden könnte. Solche Aktivitäten würden die aktuellen regulatorischen Annahmen obsolet machen, da sie auf identifizierbare Akteure und Einheiten angewiesen sind, um Verantwortlichkeit durchzusetzen. Diese Loslösung von direkter menschlicher Beteiligung stellt das Durchsetzungsparadigma in seiner Gesamtheit in Frage.

Gleichzeitig verdeutlichen die Probleme zentralisierter Eingriffe, wie Regulierung oft scheitert, wenn versucht wird, dezentralisierte, freiwillige Handlungen zu kontrollieren, da sie die natürlichen Marktmechanismen stört. Im Falle von KI-Agenten macht ihre autonome Entscheidungsfindung und Transaktionsfähigkeit sie unpassend für die Regulierung durch traditionelle Mittel. Die Konsequenzen einer erzwungenen Kontrolle dieser Agenten könnten zur unbeabsichtigten Unterdrückung von Innovationen oder zur Fehlanwendung von Strafen auf Entwickler statt auf die Agenten selbst führen.

Was halten Sie von diesem Thema? Lassen Sie uns Ihre Meinung im Kommentarbereich unten wissen.

KOSTENLOS WEITERLESEN

Genießen Sie diese und andere exklusive Geschichten, nur für Bitcoin.com App-Nutzer.

Lesen
Tags in diesem Artikel