Bereitgestellt von
Featured

Experten sagen, dass ZK-Proofs DePINs einen Vorteil verschaffen, da die Anforderungen an die Vertrauenswürdigkeit von KI steigen

Die Basisprognose von Goldman Sachs, wonach die Investitionsausgaben für künstliche Intelligenz (KI) 7,6 Billionen US-Dollar betragen werden, hängt letztlich davon ab, wie lange KI-spezifische Chips noch von Nutzen sein werden. Dezentrale Netzwerke versprechen erhebliche Kosteneinsparungen, haben jedoch weiterhin mit Latenzproblemen zu kämpfen, und Experten argumentieren, dass ihre langfristige Tragfähigkeit davon abhängen wird, ob der Nachvollziehbarkeit Vorrang vor der reinen Leistungsfähigkeit eingeräumt wird.

GESCHRIEBEN VON
TEILEN
Experten sagen, dass ZK-Proofs DePINs einen Vorteil verschaffen, da die Anforderungen an die Vertrauenswürdigkeit von KI steigen

Wichtige Erkenntnisse

  • Goldman Sachs geht von Ausgaben in Höhe von 7,6 Billionen US-Dollar bis 2031 aus, abhängig davon, ob die Chips länger als drei Jahre halten.
  • Experten von StealthEX und Cysic warnen, dass die DePIN-Latenz dezentrale KI auf Batch-Jobs statt Live-Chat beschränkt.
  • On-Chain-Unternehmen wie Maple könnten bis 2028 die Kreditlücke von 5 bis 50 Millionen US-Dollar für Tier-2-Rechenzentren schließen.

Die 7,6-Billionen-Dollar-Basis

Ein aktueller Bericht von Goldman Sachs verlagert die Debatte von der Frage, ob eine Nachfrage nach künstlicher Intelligenz (KI) besteht, hin zu der Frage, welche angebotsseitigen Faktoren die tatsächlichen Kosten des Ausbaus bestimmen werden. Der Bericht prognostiziert KI-Investitionen in Höhe von 7,6 Billionen US-Dollar als Basiswert, betont jedoch, dass diese Zahl sehr stark von „Schwankungsvariablen“ abhängt, darunter die Nutzungsdauer von KI-Chips.

Diese Lebensdauer wird als der kritischste Faktor angesehen, da rasante Innovationen dazu führen könnten, dass Standardchips – die in der Regel vier bis sechs Jahre halten – bereits nach drei Jahren veraltet sind, was die Kosten in die Höhe treiben würde. Umgekehrt könnte ein „gestuftes Modell“, bei dem ältere Chips für einfachere Aufgaben wie Inferenz wiederverwendet werden, die Kosten stabilisieren.

Die Komplexität von Rechenzentren und die Elastizität der Rechennachfrage sind weitere Variablen, die wahrscheinlich beeinflussen werden, wie viel Kapital in den nächsten fünf Jahren für KI-Infrastruktur ausgegeben wird. Engpässe bei der Stromnetzkapazität, bei Fachkräften und bei elektrischen Geräten werden ebenfalls als Faktoren angesehen, die den Ausbau verzögern.

Ein separater Bericht stellt diese enormen Infrastrukturausgaben unterdessen als Eckpfeiler einer aufkommenden „Maschinenwirtschaft“ dar. In diesem Paradigma werden KI-Agenten zu den primären Wirtschaftsakteuren, die hochfrequente Transaktionen ausführen und die Ressourcenzuweisung eigenständig verwalten. Die Autoren des Berichts argumentieren, dass veraltete Finanzsysteme, die durch langsame Abwicklungszyklen und starre Know-Your-Customer-Rahmenbedingungen (KYC) gekennzeichnet sind, für die Geschwindigkeit des agentenbasierten Handels grundsätzlich ungeeignet sind.

Dezentrale Infrastruktur und der Kompromiss bei der Latenz

Folglich werden Kryptowährungen und dezentrale Protokolle als die unverzichtbaren, genehmigungsfreien „wirtschaftlichen Schienen“ positioniert, die erforderlich sind, um diesen Wandel zu ermöglichen. Skeptiker bleiben jedoch vorsichtig und stellen in Frage, ob dezentrale physische Infrastrukturnetzwerke (DePINs) den explodierenden Kapitalbedarf der KI wirklich abfedern können.

Vadim Taszycki, Leiter der Wachstumsabteilung bei StealthEX, merkt an, dass dezentrale Netzwerke zwar erhebliche Kosteneinsparungen bieten können, aber mit physischen Einschränkungen konfrontiert sind. Während ein dezentraler Anbieter wie Akash eine H100-GPU für 1,48 US-Dollar pro Stunde vermieten könnte – im Vergleich zu 12,30 US-Dollar bei Amazon Web Services –, ist der Kompromiss die Geschwindigkeit. „Die großen Cloud-Anbieter können das leisten, [fast work] , weil ihre GPUs in einem Gebäude nebeneinander stehen und durch spezielle Kabel verbunden sind, die Daten in Mikrosekunden übertragen“, sagte Taszycki. Er erklärte, dass dezentrale Netzwerke, die GPUs in verschiedenen Ländern über das öffentliche Internet miteinander verbinden, eine Verzögerung von Millisekunden verursachen. Diese Latenz macht dezentrale Orchestrierung zwar wettbewerbsfähig für Batch-Jobs und Feinabstimmungen, ungeeignet jedoch für den Betrieb groß angelegter Live-Chatbots, bei denen die Benutzererfahrung von nahezu sofortigen Antworten abhängt.

Leo Fan, Gründer von Cysic, schloss sich dieser Einschätzung an und betonte, dass dezentrale Inferenz für Workloads mit geringer Latenz ungeeignet sei. Fan argumentierte jedoch, dass Latenz der falsche Maßstab für den Vergleich zwischen dezentralen Plattformen und Hyperscalern wie AWS sei.

„Das eigentliche Problem ist nicht die verteilte Rechenleistung, sondern die Erkennung, Planung und Beglaubigung. Der entscheidende Faktor ist nicht der Preis pro Token, sondern die Überprüfbarkeit“, sagte Fan. Er merkte an, dass Trusted Execution Environments (TEEs) und Zero-Knowledge-Beglaubigungen (ZK) es dezentralen Netzwerken ermöglichen, in Sektoren zu konkurrieren, in denen Vertrauen und Verifizierung wichtiger sind als die „Tail-Latenz“.

On-Chain-Kredite und die Finanzierungslücke

Über die Rechenleistung hinaus verlagert sich der Fokus darauf, wie diese kapitalintensiven Projekte finanziert werden. Während traditionelle private Kreditgeber über reichlich Kapital verfügen, übersehen sie oft kleinere oder nicht standardisierte Geschäfte. Onchain-Kredite bieten deutliche Vorteile, wie beispielsweise die Möglichkeit für Privatanleger, an den Erträgen von Rechenzentren teilzuhaben, die zuvor institutionellen Kommanditisten vorbehalten waren. Darüber hinaus können Plattformen wie Maple und Centrifuge Kredite im Bereich von 5 bis 50 Millionen US-Dollar syndizieren – eine Größenordnung, die von Firmen wie Apollo aufgrund der im Verhältnis zu den Gebühren hohen Underwriting-Kosten oft ignoriert wird. Schließlich ermöglichen On-Chain-Kredite neuartige „Pay-per-Inference“-Modelle, bei denen die Einnahmen mit der GPU-Auslastung schwanken. Solche Modelle fügen sich natürlicher in tokenisierte Umsatzbeteiligungsstrukturen ein als starre, traditionelle 20-Jahres-Mietverträge.

Trotz dieses Potenzials identifizieren Experten vier „Hürden“, die einer institutionellen Einführung noch im Wege stehen: die rechtliche Durchsetzbarkeit vor Insolvenzgerichten, das Fehlen einer manipulationssicheren Oracle-Infrastruktur für die Bedienung von Kreditauflagen, regulatorische Unsicherheiten bei Tranchen im Milliardenbereich sowie nicht standardisierte Steuer- und Bilanzierungsprodukte.

Der Konsens deutet auf einen realistischen Zeitrahmen von 12 bis 24 Monaten hin, bis mittelgroße Konsortialkredite in der Blockchain Fuß fassen, wobei Mezzanine-Finanzierungen, die mehrheitlich in der Blockchain abgewickelt werden, voraussichtlich erst in drei bis fünf Jahren zu erwarten sind. Die ersten Durchbrüche werden wahrscheinlich eher von Tier-2-Anbietern als von Branchenführern wie Coreweave kommen.

Der Hype um KI-Infrastruktur nimmt zu, da Meta Nebius bis zu 27 Milliarden Dollar zusagt

Der Hype um KI-Infrastruktur nimmt zu, da Meta Nebius bis zu 27 Milliarden Dollar zusagt

Entdecken Sie das KI-Wettrüsten des Jahres 2026, während Meta gemeinsam mit der Nebius Group 27 Milliarden Dollar in Cloud-Rechenleistung investiert. read more.

Jetzt lesen
Tags in diesem Artikel