Bereitgestellt von
Op-Ed

DLT wird Vertrauen in KI wiederherstellen

Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Einige Informationen sind möglicherweise nicht mehr aktuell.

Während der US-Wahlkampagne 2024 verbreitete sich ein Deepfake-Video in den sozialen Medien, das fälschlicherweise Wahlbetrug unterstellte. Anderorts haben voreingenommene Daten im Gesundheitswesen die KI-Ergebnisse verzerrt und die Patientenversorgung gefährdet. Intransparente Algorithmen untergraben Entscheidungen, destabilisieren Märkte und erodieren das Vertrauen in Finanzsysteme. Die Risiken der KI steigen, und ihre Schwächen erodieren das öffentliche Vertrauen.

GESCHRIEBEN VON
TEILEN
DLT wird Vertrauen in KI wiederherstellen
Im Folgenden ist ein Gastbeitrag von Charles Adkins, CEO der HBAR Foundation, zu lesen. Er war früher Präsident von Hedera Hashgraph, LLC. Charles ist ein erfahrener Leiter mit jahrelanger Erfahrung im Bereich Blockchain und Krypto und hat zuvor bei Polygon Labs und Aptos gearbeitet.

Wir brauchen eine Governance, die sicherstellt, dass KI der Menschheit dient und ihr nicht schadet. Aber das Ausmaß und die Komplexität der KI-Entwicklung übersteigen die menschlichen Kapazitäten. Hier kommt die Distributed Ledger Technology (DLT) ins Spiel—ein dezentrales System, das Daten über mehrere Knotenpunkte aufzeichnet und überprüft. DLT bringt Transparenz, Verantwortlichkeit und Integrität in die KI, fördert Vertrauen, verhindert monopolistische Kontrolle und ermutigt zu ethischer Innovation.

Das Öffnen der KI-‚Black Box‘

Künstliche Intelligenz funktioniert oft wie eine Black Box, die auf geheime Daten angewiesen ist, die verbergen, wie Entscheidungen getroffen werden. Diese Undurchsichtigkeit untergräbt das Vertrauen, insbesondere in Branchen wie dem Gesundheitswesen und der Finanzwelt, wo Transparenz nicht verhandelbar ist. Mit DLT gibt es keine Geheimnisse. DLT verändert das Spiel, indem alle Daten und Updates auf einem unveränderlichen Ledger aufgezeichnet werden—einem permanenten, digitalen Aufzeichnungssystem, das jede Änderung nachvollziehbar macht.

Nehmen wir zum Beispiel ProveAI. Es verwendet DLT, um KI-Trainingsdaten und Updates zu sichern und nachzuverfolgen, sodass die Einhaltung ethischer Standards und Vorschriften wie dem EU AI Act gewährleistet ist. Dieser Ansatz fordert KI-Modelle zur Rechenschaft und schafft eine Grundlage für Vertrauen und Fairness in ihren Ergebnissen.

Verbesserung der Datenqualität mit DLT

Leider bleibt schlechte Datenqualität eine anhaltende Herausforderung in der KI-Entwicklung. Eine 2024 Precisely Umfrage ergab, dass 64% der Unternehmen KI als unzuverlässig betrachten, da die Daten unbestätigt oder voreingenommen sind. DLT adressiert dies, indem es Echtzeitdaten an dezentrale Netzwerke anbindet und sicherstellt, dass sie genau, transparent und unveränderlich sind.

Für KI-Modelle, die wie solche, die Retrieval Augmented Generation (RAG) nutzen, um Antworten mit externen Daten zu verbessern, stellt DLT sicher, dass nur verifizierte, manipulationssichere Informationen verwendet werden. Dies minimiert das Risiko, dass Fehlinformationen oder Voreingenommenheit die Ergebnisse infiltrieren, und fördert eine ethische KI-Governance.

Fetch.ai und Ocean Protocol zeigen bereits das Potenzial dieser Innovation. Fetch.ai nutzt Orakel, um in Echtzeit auf externe Daten zuzugreifen und die Logistik und Energieeffizienz im Web3-Ökosystem zu optimieren. Ebenso sichert Ocean Protocol den tokenisierten Datenaustausch und ermöglicht es KI-Systemen, auf qualitativ hochwertige Datensätze zuzugreifen, während der Datenschutz der Nutzer gewahrt bleibt.

Misinformation mit DLT bekämpfen

Diese Fähigkeiten sind entscheidend, um eskalierende Herausforderungen wie Fehlinformationen zu bekämpfen, insbesondere angesichts des Anstiegs von Deepfakes. Ofcom hat kürzlich enthüllt, dass 43% der Menschen ab 16 Jahren im ersten Halbjahr 2024 mindestens einen Deepfake online gesehen haben. Blockchain-Plattformen wie Truepic bekämpfen dieses Problem bereits, indem sie Blockchain mit Bildauthentifizierung, Zeitstempeln und der Verifizierung von Medien zum Zeitpunkt der Erstellung kombinieren. Durch die Integration verifizierter Daten und Medien in RAG-Workflows können KI-Systeme die Ausgaben effektiver überprüfen und das Vertrauen in die von ihnen generierten Informationen stärken.

Dezentrale Governance für eine ethische KI

Zentralisierte Governance-Modelle kämpfen oft damit, die Geschwindigkeit, Komplexität und ethischen Herausforderungen der KI-Entwicklung zu bewältigen, was verantwortungsvolle Innovation behindert. Precisely’s globale Umfrage ergab, dass 62% der Organisationen unzureichende Governance als Haupthindernis für die Einführung von KI sehen.

Dezentrale Autonome Organisationen (DAOs), die von DLT angetrieben werden, könnten eine Lösung bieten. DAOs automatisieren Governance- und Entscheidungsprozesse durch Smart Contracts, sodass Stakeholder—Entwickler, Nutzer und Regulierungsbehörden—transparent über Vorschläge abstimmen können. Jede Entscheidung wird auf der Blockchain gespeichert, verhindert einseitige Kontrolle, stimmt Entscheidungen mit kollektiven Interessen ab und stellt Verantwortlichkeit und Inklusivität sicher.

SingularityNET zeigt dieses Potenzial auf, indem es ein DAO-Framework verwendet, um KI-Projekte mit ethischen Prinzipien in Einklang zu bringen. Dieser dezentrale Ansatz fördert nicht nur die Inklusion, sondern stellt sicher, dass die Governance das öffentliche Interesse widerspiegelt und damit die Grundlage für eine skalierbare, ethische KI-Entwicklung bildet.

Globale Standards und der Weg nach vorne

Da KI zunehmend auf grenzüberschreitende Daten angewiesen ist, werden sichere und transparente Systeme wie DLT unerlässlich sein, um Vertrauen in großem Umfang aufzubauen. Viele Organisationen erforschen bereits das Potenzial. Beispielsweise nutzt das MediLedger Network DLT, um Datenmanipulation in pharmazeutischen Lieferketten zu verhindern, während die Europäische Blockchain-Dienste-Infrastruktur (EBSI) DLT für die sichere Informationsverteilung einsetzt und potenziell ein Rahmenwerk bietet, das EU-Organisationen helfen könnte, die jüngsten EU-Gesetze zur KI einzuhalten.

Aber wir müssen weiter gehen.

Globale regulatorische Abstimmung ist entscheidend, um Fragmentierung zu verhindern und universelle Standards zu etablieren. Regierungen, Unternehmen und die Zivilgesellschaft müssen zusammenarbeiten, um Governance-Rahmen zu entwickeln, die die öffentlichen Interessen priorisieren. Auch DAOs müssen sich weiterentwickeln, um flexible, kollektive Aufsicht zu bieten, wenn sich die KI-Technologie weiterentwickelt.

Dies ist nicht die Zeit für Selbstgefälligkeit. Wenn jetzt keine Maßnahmen ergriffen werden, werden die Risiken der KI unkontrolliert wachsen und uns machtlos zurücklassen, um sie zu adressieren. Die Zukunft der ethischen KI hängt von mutigen Entscheidungen ab, die heute getroffen werden. DLT kann die Grundlage für diese Zukunft sein—transparent, verantwortungsvoll und im Einklang mit den besten Interessen der Menschheit.

Tags in diesem Artikel