Mit künstlicher Intelligenz (KI), die anscheinend dazu bestimmt ist, zentral für alltägliche digitale Anwendungen und Dienste zu werden, hilft die Verankerung von KI-Modellen in öffentlichen Blockchains potenziell dabei, “eine dauerhafte Herkunftsnachverfolgung zu etablieren”, behauptete Michael Heinrich, CEO von 0G Labs. Laut Heinrich ermöglicht eine solche Herkunftsnachverfolgung “ex-post- oder Echtzeitanalysen” zur Erkennung jeglicher Manipulationen, Einspeisung von Voreingenommenheit oder Nutzung problematischer Daten während der KI-Modell-Schulung.
Software-Ingenieur: Verankerung von KI in öffentlichen Blockchains hilft bei der Erstellung eines 'permanenten Herkunftsnachweises'
Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Einige Informationen sind möglicherweise nicht mehr aktuell.

Verankerung von KI in Blockchain fördert das öffentliche Vertrauen
In seinen detaillierten Antworten auf Fragen von Bitcoin.com News argumentierte Heinrich—ein Dichter und Software-Ingenieur—, dass das Verankern von KI-Modellen auf diese Weise deren Integrität erhält und öffentliches Vertrauen fördert. Zusätzlich schlug er vor, dass die dezentrale Natur öffentlicher Blockchains es ihnen ermöglicht, “als fälschungssicheres und zensurresistentes Register für KI-Systeme zu dienen.”
Beim Thema Datenverfügbarkeit oder deren Mangel sagte der CEO von 0G Labs, dies sei ein Problem sowohl für Entwickler als auch Nutzer. Für Entwickler, die auf Layer-2-Lösungen aufbauen, ist die Datenverfügbarkeit wichtig, weil ihre “Anwendungen sich auf eine sichere Light-Client-Verifikation für die Korrektheit verlassen müssen.” Für Nutzer gewährleistet die Datenverfügbarkeit, dass ein “System wie vorgesehen funktioniert, ohne dass sie selbst vollständige Knoten betreiben müssen.”
Trotz ihrer Bedeutung bleibt die Datenverfügbarkeit kostspielig und macht bis zu 90% der Transaktionskosten aus. Heinrich führt dies auf den begrenzten Datendurchsatz von Ethereum zurück, der bei etwa 83KB/Sek liegt. Folglich werden selbst kleine Datenmengen prohibitiv teuer, um sie on-chain zu veröffentlichen, sagte Heinrich.
Unten finden Sie Heinrichs detaillierte Antworten auf alle gesendeten Fragen.
Bitcoin.com News (BCN): Was ist das Problem der Datenverfügbarkeit (DA), das das Ethereum-Ökosystem plagt? Warum ist es für Entwickler und Nutzer von Bedeutung?
Michael Heinrich (MH): Das Problem der Datenverfügbarkeit (DA) bezieht sich auf die Notwendigkeit für Light-Clients und andere Off-Chain-Parteien, auf effiziente Weise auf die gesamten Transaktionsdaten und den Zustand der Blockchain zugreifen und diese verifizieren zu können. Dies ist entscheidend für Skalierungslösungen wie Layer-2-Rollups und Shard-Ketten, die Transaktionen außerhalb der Haupt-Ethereum-Kette ausführen. Die Blöcke, die ausgeführte Transaktionen in Layer-2-Netzwerken enthalten, müssen irgendwo veröffentlicht und gespeichert werden, damit Light-Clients weitere Überprüfungen durchführen können.
Dies ist wichtig für Entwickler, die auf diesen Skalierungslösungen aufbauen, da ihre Anwendungen sich auf eine sichere Light-Client-Verifikation für die Korrektheit verlassen müssen. Es ist auch für Nutzer, die mit diesen Layer-2-Anwendungen interagieren, von Bedeutung, da sie die Gewissheit benötigen, dass das System wie vorgesehen funktioniert, ohne dass sie selbst vollständige Knoten betreiben müssen.
BCN: Laut einem Bericht von Blockworks Research machen DA-Kosten bis zu 90% der Transaktionskosten aus. Warum kämpfen bestehende Skalierungslösungen darum, die für hochleistungsfähige dezentralisierte Anwendungen (dApps) benötigte Leistung und Kosteneffizienz zu bieten?
MH: Bestehende Layer-2-Skalierungsansätze wie Optimistic und ZK Rollups kämpfen darum, effiziente Datenverfügbarkeit im großen Maßstab bereitzustellen, da sie ganze Datenblöcke (Transaktionsdaten, Zustandswurzeln usw.) auf der Ethereum-Hauptnetz für Light-Clients veröffentlichen müssen, damit diese prüfen und verifizieren können. Die Veröffentlichung dieser Daten auf Ethereum verursacht sehr hohe Kosten – zum Beispiel kostet ein OP-Block $140, um nur 218KB zu veröffentlichen.
Dies liegt daran, dass der begrenzte Datendurchsatz von Ethereum von etwa 83KB/Sek bedeutet, dass selbst kleine Datenmengen sehr teuer sind, um sie on-chain zu veröffentlichen. Während Rollups Skalierbarkeit erreichen, indem sie Transaktionen außerhalb der Hauptkette ausführen, wird die Notwendigkeit, Daten auf Ethereum für die Verifizierbarkeit zu veröffentlichen, zum Engpass, der ihre Gesamtskalierbarkeit und Kosteneffizienz für hochdurchsatzfähige dezentralisierte Anwendungen begrenzt.
BCN: Ihr Unternehmen, 0G Labs, auch bekannt als Zerogravity, hat kürzlich sein Testnetz gestartet mit dem Ziel, künstliche Intelligenz (KI) on-chain zu bringen, eine Datenlast, die die bestehenden Netzwerke nicht bewältigen können. Können Sie unseren Lesern sagen, wie die modulare Natur von 0G die Einschränkungen traditioneller Konsensus-Algorithmen überwindet? Was macht Modularität zum richtigen Weg, um komplexe Anwendungsfälle wie On-Chain-Gaming, On-Chain-KI und hochfrequentes dezentrales Finanzwesen aufzubauen?
MH: Die wichtigste Innovation von 0G ist die Trennung von Daten in Datenspeicherung und Datenveröffentlichungsgänge auf modulare Weise. Die 0G-DA-Schicht liegt über dem 0G-Speichernetzwerk, das für extrem schnelle Datenaufnahme und -abruf optimiert ist. Große Daten wie Block-Blobs werden gespeichert und nur winzige Commitments und Verfügbarkeitsnachweise fließen zum Konsensprotokoll. Dies entfernt die Notwendigkeit, die gesamten Blobs über das Konsensnetzwerk zu übertragen und vermeidet damit die Broadcast-Engpässe anderer DA-Ansätze.
Darüber hinaus kann 0G Konsensschichten horizontal skalieren, um zu vermeiden, dass ein Konsensnetzwerk zum Engpass wird, und erreicht damit unendliche DA-Skalierbarkeit. Mit einem „Off-the-Shelf“-Konsenssystem könnte das Netzwerk Geschwindigkeiten von 300-500 MB/s erreichen, was bereits um einiges schneller als die aktuellen DA-Systeme ist, aber immer noch hinter den Datenbandbreitenanforderungen für hochleistungsfähige Anwendungen wie LLM-Modellschulung zurückbleibt, die im Bereich von 10s GB/s sein können.
Ein speziell entwickelter Konsens könnte solche Geschwindigkeiten erreichen, aber was, wenn viele Teilnehmer gleichzeitig Modelle trainieren wollen? Deshalb führten wir unendliche Skalierbarkeit durch Sharding auf Datenebene ein, um die zukünftigen Anforderungen hochleistungsfähiger Blockchain-Anwendungen durch die Nutzung einer beliebigen Anzahl von Konsensschichten zu erfüllen. Alle Konsensnetzwerke teilen sich denselben Satz von Validatoren mit demselben Staking-Status, sodass sie dasselbe Sicherheitsniveau beibehalten.
Zusammenfassend ermöglicht diese modulare Architektur die Skalierung, um extrem datenintensive Arbeitslasten wie On-Chain-KI-Modellschulung/-inferenz, On-Chain-Gaming mit großen Zustandsanforderungen und hochfrequente DeFi-Anwendungen mit minimalem Overhead zu bewältigen. Diese Anwendungen sind auf monolithischen Ketten heute nicht möglich.
BCN: Die Ethereum-Entwicklergemeinschaft hat viele verschiedene Wege erforscht, um das Problem der Datenverfügbarkeit auf der Blockchain anzugehen. Proto-Danksharding oder EIP-4844 wird als Schritt in diese Richtung gesehen. Glauben Sie, dass diese den Bedürfnissen der Entwickler nicht gerecht werden? Wenn ja, warum und wo?
MH: Proto-Danksharding (EIP-4844) stellt einen wichtigen Schritt zur Verbesserung der Datenverfügbarkeitsfähigkeiten von Ethereum dar, indem es Blob-Speicher einführt. Der endgültige Schritt wird Danksharding sein, das das Ethereum-Netzwerk in kleinere Segmente unterteilt, von denen jedes für eine spezifische Gruppe von Transaktionen verantwortlich ist. Dies wird zu einer DA-Geschwindigkeit von mehr als 1 MB/s führen. Dennoch wird dies den Bedürfnissen zukünftiger hochleistungsfähiger Anwendungen, wie oben diskutiert, nicht gerecht.
BCN: Was ist 0Gs “programmierbare” Datenverfügbarkeit und was unterscheidet sie in Bezug auf Skalierbarkeit, Sicherheit und Transaktionskosten von anderen DAs?
MH: Das DA-System von 0G kann die höchste Skalierbarkeit jeder Blockchain ermöglichen, z. B. mindestens 50.000-mal höheren Datendurchsatz und 100-mal niedrigere Kosten als Danksharding in der Ethereum-Roadmap, ohne Sicherheit zu opfern. Da wir das 0G-DA-System auf dem dezentralen Speichersystem von 0G aufbauen, können Kunden bestimmen, wie sie ihre Daten nutzen. Programmierbarkeit bedeutet in unserem Kontext also, dass Kunden Datenpersistenz, -ort, -typ und -sicherheit programmieren/anpassen können. Tatsächlich wird 0G es Kunden ermöglichen, ihren gesamten Zustand in einen Smart Contract zu laden und ihn wieder zu laden, wodurch das Problem der Zustandsschwellung gelöst wird, das viele Blockchains heute plagt.
BCN: Da KI ein integraler Bestandteil von Web3-Anwendungen und unserem digitalen Leben wird, ist es entscheidend sicherzustellen, dass die KI-Modelle fair und vertrauenswürdig sind. Voreingenommene KI-Modelle, die auf manipulierten oder gefälschten Daten trainiert wurden, könnten Chaos anrichten. Was sind Ihre Gedanken über die Zukunft der KI und die Rolle, die die unveränderliche Natur der Blockchain bei der Aufrechterhaltung der Integrität von KI-Modellen spielen könnte?
MH: Da KI-Systeme zunehmend zentral für digitale Anwendungen und Dienste werden, die viele Leben beeinflussen, sind deren Integrität, Fairness und Nachprüfbarkeit von größter Wichtigkeit. Voreingenommene, manipulierte oder kompromittierte KI-Modelle könnten, wenn sie im großen Maßstab eingesetzt werden, zu weit verbreiteten schädlichen Folgen führen. Stellen Sie sich ein Horror-Szenario vor, in dem ein böser KI-Agent ein anderes Modell/Agent trainiert, das direkt in einen humanoiden Roboter implementiert wird.
Die Kernmerkmale der Blockchain von Unveränderlichkeit, Transparenz und nachweisbaren Zustandsübergängen können hier eine entscheidende Rolle spielen. Indem wir KI-Modelle, ihre Trainingsdaten und die vollständigen überprüfbaren Aufzeichnungen des Modellerstellungs-/Aktualisierungsprozesses auf öffentlichen Blockchains verankern, können wir eine dauerhafte Herkunftsnachverfolgung etablieren. Dies ermöglicht ex-post- oder Echtzeitanalysen, um jegliche Manipulationen, Einspeisung von Voreingenommenheit, Nutzung problematischer Daten usw. zu erkennen, die die Integrität der Modelle beeinträchtigt haben könnten.
Dezentralisierte Blockchain-Netzwerke, indem sie einzelne Fehlerquellen oder Kontrollpunkte vermeiden, können als fälschungssicheres und zensurresistentes Register für KI-Systeme dienen. Ihre Transparenz ermöglicht die öffentliche Überprüfbarkeit der KI-Lieferkette auf eine Weise, die mit den aktuellen zentralisierten und undurchsichtigen KI-Entwicklungspipelines sehr schwierig ist. Stellen Sie sich vor, Sie hätten ein übermenschlich intelligentes KI-Modell; nehmen wir an, es lieferte ein Ergebnis, aber alles, was es tat, war, Datenbankeinträge in einem zentralen Server zu ändern, ohne das Ergebnis zu liefern. Mit anderen Worten, es kann in zentralisierten Systemen leichter betrügen.
Außerdem, wie bieten wir dem Modell/Agenten die richtigen Anreizmechanismen und platzieren es in einer Umgebung, in der es nicht böse sein kann. Blockchain x KI ist die Antwort, sodass zukünftige gesellschaftliche Anwendungsfälle wie Verkehrssteuerung, Produktion und Verwaltungssysteme wirklich von KI zum Wohl und Wohlstand der Menschen regiert werden können.
Was sind Ihre Gedanken zu diesem Interview? Teilen Sie Ihre Meinungen im Kommentarbereich unten mit.




