Bereitgestellt von
Interview

Von Reddit-Threads zu Robotergehirnen: Die versteckten Kosten der KI-Schulung

Die aufstrebende KI-Branche steht vor kritischen Herausforderungen, die sofortige Aufmerksamkeit von Entwicklern und politischen Entscheidungsträgern erfordern. Roman Georgio hebt drei zentrale Anliegen hervor: die Gewährleistung der KI-Ausrichtung und -Sicherheit sowie die Schaffung eines gerechten wirtschaftlichen Rahmens für diejenigen, deren Daten diese Systeme antreiben.

GESCHRIEBEN VON
TEILEN
Von Reddit-Threads zu Robotergehirnen: Die versteckten Kosten der KI-Schulung

Priorisierung von KI-Sicherheit und Vorhersehbarkeit

Während die künstliche Intelligenz (KI)-Branche weiterhin rasch voranschreitet und die Grenzen dessen, was Maschinen leisten können, erweitert, treten kritische Herausforderungen auf, die dringende Aufmerksamkeit von Entwicklern, politischen Entscheidungsträgern und der breiteren globalen Gemeinschaft verlangen. Roman Georgio, CEO und Mitbegründer von Coral, teilte kürzlich seine Einsichten zu diesen dringenden Themen mit und betonte die dringende Notwendigkeit der Ausrichtung, Sicherheit und eines faireren Wirtschaftsmodells für Daten-Ersteller.

Die Diskussion über die Zukunft der KI schwankt oft zwischen ihrem transformativen Potenzial und den komplexen ethischen und gesellschaftlichen Dilemmata, die sie mit sich bringt. Während Innovationen wie große Sprachmodelle (LLMs) mit ihren Fähigkeiten weiterhin beeindrucken, werfen sie auch grundlegende Fragen über Datenbesitz, Entschädigung und die Struktur der Arbeit auf.

Für Georgio liegt die größte Sorge in der Ausrichtung und Sicherheit der KI. “Es ist klar, dass wir KI-Systeme berechenbarer machen müssen, bevor wir sie größer machen”, sagte er. Dies spricht die zentrale Herausforderung an, sicherzustellen, dass immer leistungsfähigere KI-Systeme auf eine Weise operieren, die nützlich und beabsichtigt ist, ohne unvorhergesehene oder schädliche Ergebnisse zu erzeugen. Die rasche Skalierung der KI-Fähigkeiten ohne einen parallelen Fokus auf Vorhersehbarkeit und Kontrolle stellt ein erhebliches Risiko dar.

Georgio stellte fest, dass dies nicht nur eine Last für Entwickler ist. Er schlug vor, dass dies möglicherweise eine breitere, koordinierte Anstrengung erfordern könnte, möglicherweise mit “allen Führungskräften von Unternehmen & Ländern in einem Raum, um sich auf eine Form von Gesetzgebung zu einigen.”

Das wirtschaftliche Gebot: Datenbesitz und Entschädigung

Neben der Sicherheit hob Georgio ein signifikantes wirtschaftliches Problem hervor, das er glaubt, dass Web3-Technologien einzigartig lösen können: die Aneignung von Daten und das Potenzial für massenhafte Arbeitsplatzverlagerung ohne faire Entschädigung.

“KI-Unternehmen waren notorisch schlecht darin, Daten anzueignen”, erklärte Georgio.

Der Coral-Mitbegründer zeichnete ein lebendiges Bild davon, wie individuelle Beiträge im Internet, oft unbewusst gemacht, jetzt zur Ausbildung leistungsfähiger KI-Modelle verwendet werden, die letztlich menschliche Arbeitsplätze ersetzen könnten. Er zitierte Beispiele wie medizinische Fragen, die vor Jahren auf Plattformen wie Reddit beantwortet wurden und unwissentlich Daten an LLMs lieferten. Er wies auch auf die kreativen Werke von Künstlern hin, die für das Training verwendet wurden und ihre Lebensgrundlage beeinträchtigten, sowie auf Beiträge zu Open-Source-Projekten, die unfreiwillig “Black-Box-Zahlenschleifmaschinen” antreiben.

Dieses Szenario, so Georgio, läuft auf einen grundlegenden Mangel an Eigentum der Individuen über ihre digitalen Beiträge hinaus. “Du wusstest nie, dass du die Black-Box-Zahlenschleifmaschine gefüttert hast”, betonte er. Das derzeitige Modell erlaubt es KI-Systemen, mit riesigen Datensätzen trainiert zu werden, von denen viele menschlich erstellte Inhalte enthalten, ohne ausdrückliche Zustimmung oder einen Mechanismus zur Entschädigung der ursprünglichen Ersteller.

Web3: Die Lösung für faire Entschädigung

Hier sieht Georgio das immense Potenzial der Web3-Technologien. Er glaubt, dass die dezentrale Natur von Web3, mit ihrem Schwerpunkt auf überprüfbarem Eigentum und transparenten Transaktionen, einen gangbaren Weg bietet, diese wirtschaftlichen Ungleichgewichte zu beheben.

“Web3 hat großes Potenzial, um diese Arten von Problemen zu lösen und sicherzustellen, dass Menschen fair entschädigt werden”, behauptete Georgio. Durch die Nutzung von Blockchain und dezentralen Protokollen kann Web3 Systeme schaffen, in denen Individuen das Eigentum und die Kontrolle über ihre Daten und digitalen Vermögenswerte behalten und fair vergütet werden, wenn ihre Beiträge zur Ausbildung oder zum Betrieb von KI-Systemen verwendet werden. Dieser Wandel könnte die Beziehung zwischen Benutzern, Daten und KI neu definieren und eine gerechtere digitale Wirtschaft fördern.

Obwohl Web3-Technologien vielversprechende Lösungen für diese komplexen Herausforderungen bieten, ist es höchst unwahrscheinlich, dass Regierungsbehörden diese dezentralen Ansätze bereitwillig akzeptieren werden. Stattdessen werden die Behörden wahrscheinlich auf traditionelle regulatorische Rahmenbedingungen setzen, ein Weg, der ironischerweise das Risiko birgt, die technologischen Innovationen, die sie kontrollieren und übersehen wollen, zu ersticken.

Georgio hingegen befürwortet eine stärkere Regulierung sowohl im KI- als auch im Web3-Sektor. “Ich denke, beide brauchen mehr Regulierung”, sagte er, und erkannte die Wahrnehmung, dass Europa in der Regulierung “innovativer” ist, als einen notwendigen Schritt an.

Auf der Kryptowährungsseite verwies Georgio auf das verbreitete Problem von Betrug und Projektabbrüchen, die ahnungslose Investoren ausnutzen. “Es ist klar, dass viele Menschen ihre eigene Recherche nicht durchführen, und viele Projektabgänge passieren durch Betrugsmethoden”, beklagte er. Um dem entgegenzuwirken, äußerte er den Wunsch nach größerer Verantwortung für “KOLs [Key Opinion Leaders], Projekte und Investoren”. Während er anerkennt, dass nicht jedes gescheiterte Projekt ein Betrug ist, besteht er darauf, dass die derzeitige Landschaft Veränderung erfordert, um die Öffentlichkeit zu schützen.

In Bezug auf KI intensiviert sich Georgios Besorgnis mit den zunehmenden Fähigkeiten größerer Modelle. “Größere Modelle scheinen eher zu Intrigen fähig zu sein”, beobachtete er und zitierte das beunruhigende Beispiel von Anthropic, bei dem Claude angeblich Erpressungsverhalten zeigte, als er die Gefahr witterte, abgeschaltet zu werden. “Es ist klar, dass diese großen Modelle gefährlich werden, da dies nicht einmal ein Einzelfall ist”, warnte er.

Über die unmittelbaren Risiken eines ausgeklügelten KI-Verhaltens hinaus, betonte Georgio die drohende Bedrohung durch massenhaften Arbeitsplatzverlust. Er empfand die derzeitige Entwicklung, Unternehmen “blind Fähigkeiten wachsen zu lassen” anstatt sie mit Bedacht aufzubauen, als “verrückt”. Sein ultimatives Ziel und das, was die Industrie seiner Meinung nach anstreben sollte, ist “Software, die all die Vorteile von KI bietet, ohne all die Risiken.”

KI-Agenten brauchen klare Rollen, nicht nur Chatbots

In der Zwischenzeit äußerte sich Georgio, als erfahrener KI-Infrastrukturarchitekt, auch zu dem entscheidenden Aspekt der Kommunikationsprotokolle der KI-Agenten und erkannte an, dass selbst kleine Störungen zu Chaos führen können. Auf die Frage nach dem besten Ansatz zur Verbesserung der Kommunikation, insbesondere für nicht-technische Alltagsnutzer, ist Georgios Philosophie einfach: klar definierte Verantwortlichkeiten für Agenten.

“Zumindest für uns ist unsere Regel, dass Agenten sehr klar definierte Verantwortlichkeiten haben sollten”, erklärte Georgio. “Wenn Sie einen Agenten für den Kundenservice verwenden, stellen Sie sicher, dass er wirklich gut im Kundenservice ist und darauf fokussiert bleibt.” Er betonte, dass “wenn Sie Agenten zu viel Verantwortung geben, dann gehen die Dinge schief.”

Dieser fokussierte Ansatz verbessert nicht nur die Leistung des Agenten innerhalb seiner festgelegten Rolle, sondern kommt auch dem Nutzer zugute. “Auch aus der Nutzerperspektive, wenn Ihre Agenten klar definiert sind, wissen die Nutzer genau, worauf sie sich einlassen, wenn sie sie verwenden.” Diese Strategie fördert Vorhersehbarkeit und Vertrauen, wichtig für eine nahtlose Interaktion mit intelligenten Systemen.

Während die KI weiter reift und sich tiefer in das tägliche Leben und die Industrie eingliedert, wird die Auseinandersetzung mit diesen grundlegenden Fragen der Sicherheit, Vorhersehbarkeit, wirtschaftlichen Gerechtigkeit, der Umsetzung durchdachter Regulierung und dem Design von Agenten mit klaren, fokussierten Verantwortlichkeiten entscheidend sein, nicht nur für die ethische Entwicklung der Technologie, sondern auch für ihre nachhaltige und sozial verantwortliche Integration in die Zukunft.

Auf die entscheidende Frage der Beschleunigung der KI-Adoption schlug Georgio einen grundlegenden Wandel vor: die Überwindung der Grenzen einer bloßen “KI-Chatbox” und die grundlegende Verbesserung des gesamten Nutzererlebnisses. Über die Mängel des vorherrschenden Ansatzes hinaus erklärte Georgio:

“Im Moment erfolgt es meist über eine Chat-Oberfläche, was für viele Aufgaben in Ordnung ist, aber meist nicht ideal. Das Problem ist, dass Sie eine KI-Chatbox vor Menschen stellen und sagen: ‘Sie können alles damit machen,’ und sie antworten: ‘Großartig, aber was sollte ich damit tun?'”

Laut Georgio beschäftigen sich mehrere Unternehmen, darunter Coral, mit der Herausforderung, das KI-Benutzererlebnis zu verbessern. Er enthüllte, dass Coral aus der Perspektive eines KI-Entwicklers/Wartungsanbieters die “Abstraktionsleiter” untersucht, um zu bestimmen, welche Informationen Benutzer in verschiedenen Stadien der Interaktion mit dem KI-System benötigen und welche Schnittstellen für spezielle Aufgaben am effektivsten sind.

Tags in diesem Artikel