Bereitgestellt von
Interview

AI-Experte: Wahrheitsprotokolle könnten das SSL des Informationszeitalters werden

Von KI generierter Inhalt, einschließlich Deepfakes und gefälschter Audioaufnahmen, verschwimmt die Grenzen zwischen Realität und Fiktion und führte zu weit verbreiteter Verwirrung und Manipulation. Experten wie Yannick Myson setzen sich dafür ein, die Verifikation bereits in der Phase der Inhaltserstellung einzubetten und dezentrale Verifikationssysteme zu implementieren, um Authentizität zu gewährleisten.

GESCHRIEBEN VON
TEILEN
AI-Experte: Wahrheitsprotokolle könnten das SSL des Informationszeitalters werden

Desinformation und ihre Gefahren

Das Jahr 2024 diente als eindringliche Warnung vor den Gefahren, die künstliche Intelligenz (KI) darstellen kann, falls keine Schutzmaßnahmen getroffen werden. Weltweit, von Indiens massivem demokratischem Prozess bis zum angespannten politischen Klima in Taiwan, hinterließen KI-generierte Desinformationskampagnen ihre Spuren.

In Taiwan verschwommen Deepfake-Nachrichtensprecher die Grenzen zwischen Realität und Fiktion, während in den Vereinigten Staaten eine gefälschte Audioaufnahme von Präsident Biden, in der er angeblich New Hampshire Demokraten vom Wählen abgehalten haben soll, die Einfachheit unterstrich, mit der KI für politische Manipulation eingesetzt werden kann. Das schiere Volumen und die Raffinesse dieser synthetischen Medien haben viele in einem Meer der Unsicherheit zurückgelassen, wobei es schwerfällt, Wahrheit von Fiktion zu unterscheiden.

Einige Experten, wie Yannick Myson, Gründer und CEO von Swarm Network, argumentieren jedoch, dass das Problem tiefgreifender ist als Wahlmanipulation. Er nennt die durch KI hervorgerufene Psychose, ein beunruhigendes Phänomen von Menschen, die großartige Wahnvorstellungen entwickeln, die einige Studien mit verlängerten Interaktionen mit KI-Chatbots in Verbindung bringen. Die Kosten dieser durch KI hervorgerufenen Psychose sind immens; einige haben ihren Job verloren, während andere in psychiatrischer Behandlung endeten.

„Genauso wie Deepfakes unsere visuellen Verarbeitungskurzschlüsse ausnutzen, nutzt KI-Psychose unsere psychologischen Schwächen aus, wobei Chatbots als perfekte Echokammern dienen, die wahnhaftes Denken validieren und verstärken“, sagte Myson.

Zentrale vs. dezentrale Lösungen

Myson ist der Meinung, dass die derzeitigen reaktiven Maßnahmen, wie fleckenhafte Faktenprüfungsinitiativen, einfach unzureichend sind, um dieses zunehmende Problem zu bekämpfen. „Die Industrie erkennt zunehmend, dass fleckenhaftes Faktenprüfen mit der Geschwindigkeit synthetischer Medien oder der psychologischen Manipulation von KI-Systemen nicht Schritt halten kann“, so die Einschätzung.

Seine Lösung, verkörpert durch Swarm Network, ist eine proaktive: Verifikation im großen Maßstab einbetten. Dies umfasst die Etablierung der Herkunft zum Zeitpunkt der Inhaltserstellung selbst, um sicherzustellen, dass der Ursprung digitaler Informationen zurückverfolgt und authentifiziert werden kann. Außerdem plädiert Myson für dezentrale Verifikationssysteme, bei denen Informationen über den digitalen Raum hinweg überprüft und validiert werden.

Diese Vision einer robusten „Infrastruktur der Wahrheit“ trifft auf zunehmende Besorgnis innerhalb der KI-Industrie. Da sich die Technologie weiterhin in rasantem Tempo entwickelt, werden die ethischen und sozialen Folgen ihres Missbrauchs immer deutlicher. Der Vertrauensverlust in digitale Informationen, befeuert durch ausgeklügelte KI-generierte Falschheiten, stellt eine erhebliche Bedrohung für demokratische Prozesse, den sozialen Zusammenhalt und sogar das individuelle mentale Wohlbefinden dar.

Um dem entgegenzuwirken, haben einige zu einer regulatorischen Antwort aufgerufen und auf vergangene Fälle verwiesen, in denen sich dies als wertvolles Werkzeug zum Schutz der Nutzer vor potenziellen Risiken neuer Technologien erwiesen hat. Kritiker warnen jedoch davor, dass dies den unbeabsichtigten Effekt haben könnte, Innovationen zu ersticken, eine Behauptung, der Myson offenbar zustimmt.

„Regulierung kann helfen, aber nur, wenn sie vermeidet, die Wahrheit zu zentralisieren. Wir haben gesehen, wie Regierungen ‘Desinformationsgesetze’ dazu gebrauchen, Debatten zu unterdrücken“, erklärte der CEO von Swarm Network.

Um diese Behauptung zu untermauern, wies Myson darauf hin, wie EU-Bürokraten angeblich das Digital Services Act (DSA) der Europäischen Union nutzen, das die Entfernung von weit definierten „schädlichen“ Inhalten verlangt, als „ein Werkzeug, um den offenen Diskurs weltweit einzuschränken.“ Myson argumentiert, dass das EU-KI-Gesetz ebenfalls ähnliche Probleme schafft.

Anstatt Gesetze wie das DSA oder das KI-Gesetz zu erlassen, plädiert Myson stattdessen für die Forderung nach Transparenz, klarer Kennzeichnung synthetischer Medien und offenen Herkunftsstandards wie C2PA. „Regeln sollten Beweise durchsetzen, nicht Meinungen“, argumentierte er.

Die Zukunft der Verifikation

Laut dem CEO erkennen große Social-Media-Plattformen wie Meta und TikTok dies und haben sich seitdem mehr auf dezentrale Herangehensweisen zur Faktenprüfung verlagert.

„Dieser Wandel steht für eine grundlegende Erkenntnis, dass zentrale Faktenprüfung Engpässe und einzelne Versagenspunkte schafft. Die Zukunft der Inhaltsverifikation dreht sich nicht darum, Regierungen oder Konzernen die Macht zu geben, zu entscheiden, was wahr ist“, erklärte der CEO.

Myson glaubt, dass dieser Wandel Lösungen wie die von Swarm Network entscheidend macht. Anstatt sich auf eine Handvoll zentraler Faktenprüfer zu verlassen, setzt Swarm „KI-Agenten ein, die zusammen mit menschlichen Prüfern arbeiten, um eine prüfbare, on-chain protokollierte Aufzeichnung verifizierter Behauptungen zu schaffen.“

In der Tat bewegen sich KI-Agenten rasch von theoretischen Konzepten zu praktischen Anwendungen, die fundamentally verändern, wie verschiedene Branchen arbeiten. Der Hauptvorteil dieser Agenten ist ihre Fähigkeit zur Automatisierung und Optimierung. Sie können in kurzer Zeit große Datenmengen verarbeiten, Muster erkennen, die Menschen möglicherweise übersehen, und rund um die Uhr ohne Ermüdung arbeiten.

Dennoch bringt die weit verbreitete Einführung von KI-Agenten auch komplexe Herausforderungen mit sich, die sorgfältig angegangen werden müssen. Um einige dieser Herausforderungen zu bewältigen, erklärte Myson, dass der Ansatz seines Unternehmens darin bestünde, „Agenten in transparente Partner zu verwandeln, nicht in ungeprüfte Orakel.“ Er fügte hinzu:

„In Swarm zerlegen die Agenten Informationen in kleine, überprüfbare Behauptungen, überprüfen sich gegenseitig, und wo Nuancen erforderlich sind, greifen Menschen ein. Jeder Schritt wird protokolliert und auf der Blockchain verankert, sodass ihre Argumentation nachvollziehbar ist. Kurz gesagt: keine Blackboxen, nur überprüfbare Spuren.“

Unterdessen glaubt Myson, dass sich die Faktenprüfung in den nächsten fünf Jahren von einem manuellen Prozess zu einem integrierten Merkmal des digitalen Lebens entwickeln wird, und KI-Agenten eher nach ihrer Transparenz als nach ihrer Geschwindigkeit bewertet werden. Die ultimative Vision ist es, die Wahrheit zu einer grundlegenden Schicht des Internets zu machen.

„In der gleichen Weise, wie SSL der Standard für Webverkehr wurde, wird ein Wahrheitsprotokoll der Standard für Informationen werden. Und so verhindern wir, dass die KI die Welt in Lärm ertränkt“, schloss Myson.