Um Klagen vorzubeugen und Vorwürfe zu entkräften, dass sie ihre jeweiligen künstlichen Intelligenz (KI)-Modelle mit illegal beschafften Daten trainieren, sollten KI-Unternehmen auf öffentlich verfügbare oder Open-Source-Daten zurückgreifen, so Alberto Fernandez. Fernandez, ein Befürworter dezentralisierter KI und ebenfalls der europäische Vertreter des Qubic-Ökosystems, betont, dass KI-Unternehmen anonymisierte und aggregierte Daten berücksichtigen sollten, um Datenschutzbedenken anzugehen.
Open-Source-Tools gleichen die Bedingungen für kleinere KI-Firmen aus, sagt Befürworter dezentralisierter KI
Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Einige Informationen sind möglicherweise nicht mehr aktuell.

Die Kosten für das Training von KI-Modellen stellen eine erhebliche Markteintrittsbarriere dar
In Bezug auf einen Fall im Mai, in dem das KI-Startup Lovo wegen angeblicher widerrechtlicher Aneignung der Stimmen von zwei Schauspielern verklagt wurde, stimmte Fernandez den Klägern zu, dass die Aktionen des Startups einen Eingriff in die Privatsphäre darstellten. Darüber hinaus argumentierte er, dass das Handeln ethische Standards verletzte, indem es die Autonomie der Schauspieler ignorierte. Der Qubic-Ökosystem-Vertreter legt nahe, dass explizite Zustimmung der beteiligten Personen rechtliche Schritte gegen das KI-Startup hätte verhindern können.
In seinen schriftlichen Antworten an Bitcoin.com News erklärte Fernandez, dass die Ergebnisse der AI Index-Studie der Stanford University, die besagen, dass die Kosten für das Training von State-of-the-Art-KI-Modellen in die Höhe geschossen sind, größtenteils korrekt sind. Fernandez merkte jedoch ebenfalls an, dass kleinere KI-Firmen mit begrenzten finanziellen Mitteln immer noch effektiv konkurrieren können, indem sie sich auf Nischenmärkte konzentrieren und Open-Source-Tools nutzen.
Bezüglich der Rolle von Regulierungsbehörden betonte Fernandez die Notwendigkeit klarer Standards im Bereich KI-Dienste. Er empfahl regelmäßige Audits und Strafen bei Nichteinhaltung. Zusätzlich hob er die Bedeutung internationaler Zusammenarbeit zur Lösung grenzüberschreitender Herausforderungen hervor und befürwortete die Förderung öffentlichen Bewusstseins durch Bildung über sichere KI-Praktiken.
In den verbleibenden Antworten teilte Fernandez seine Einsichten bezüglich der Entwicklung der KI-Industrie in den nächsten fünf Jahren und diskutierte das delikate Gleichgewicht zwischen der Förderung von Innovationen und dem Schutz der Öffentlichkeit.
Bitcoin.com News (BCN): Letzten Mai verklagte ein Paar das in Berkeley ansässige KI-Startup Lovo und beschuldigte das Unternehmen, ihre Stimmen widerrechtlich angeeignet zu haben. Dieser Fall unterstreicht einen wachsenden Graben zwischen Kreativen und KI-Unternehmen, die beschuldigt werden, Datenmassen rücksichtslos anzusammeln, um ihre Technologie zu betreiben. Ihrer Meinung nach, war das KI-Unternehmen berechtigt, die Stimmen von Einzelpersonen für die Systemausbildung ohne deren Erlaubnis zu verwenden? Welche alternativen Schritte hätte es unternehmen können, um rechtliche Schritte zu vermeiden?
Alberto Fernandez (AF): Die Verwendung der Stimme einer Person für die Systemausbildung ohne deren Erlaubnis verletzt die Datenschutzrechte, verstößt gegen geistiges Eigentumsrecht und verletzt ethische Standards durch Ignorieren der Autonomie der Individuen. Um rechtliche Schritte zu vermeiden, hätte LOVO explizite Zustimmung von den Personen einholen sollen, wobei Transparenz darüber, wie ihre Stimmen verwendet werden würden, gewährleistet sein müsste. Alternativ hätte das Unternehmen öffentlich verfügbare oder Open-Source-Stimmendaten nutzen können, synthetische Stimmendaten erstellen oder die Daten anonymisieren und aggregieren können, um Datenschutzbedenken zu mindern.
BCN: Komplexitäten im Zusammenhang mit Datenmanagement in dieser Ära aufkommender Technologien scheinen sich um bestehende regulatorische Protokolle und deren Einschränkungen zu drehen. Die aktuellen Gesetze beschränken Innovation, doch ihre Aufhebung könnte die Branche unbegrenzten Risiken aussetzen. Wie können Behörden Datenmanagementvorschriften ausbalancieren, die die Öffentlichkeit vor bestehenden Risiken schützen, während gleichzeitig Innovation gefördert wird?
AF: Das Ausbalancieren von Datenmanagementvorschriften zum Schutz der Öffentlichkeit bei gleichzeitiger Förderung von Innovation erfordert einen dynamischen und flexiblen Regulierungsrahmen. Behörden sollten einen risikobasierten Ansatz verfolgen, der Vorschriften an das Risikolevel verschiedener Datentypen und Technologien anpasst, um einen robusten Schutz für sensible Daten zu gewährleisten, während für weniger riskante Innovationen mehr Nachsicht gewährt wird.
Die Implementierung von Regulierungssandkästen kann eine kontrollierte Umgebung bieten, in der neue Technologien unter aufsichtsrechtlicher Beobachtung getestet werden können, wodurch Innovation gefördert wird, ohne die Sicherheit zu kompromittieren. Zusätzlich kann ein kontinuierlicher Dialog zwischen Regulierern, Industrieakteuren und der Öffentlichkeit dazu beitragen, Vorschriften an aufkommende Technologien anzupassen, sicherstellend, dass sie relevant und wirksam bleiben, ohne den technologischen Fortschritt zu behindern.
BCN: Regulatorische Implikationen stellen nur einen Aspekt der zahlreichen Herausforderungen dar, mit denen die KI-Industrie konfrontiert ist. Ein kürzlicher Bericht der Stanford University offenbart, dass die erheblichen Kosten für das Training von KI-Modellen die Beteiligung von Nicht-Industrieakteuren behindern. Stimmen Sie den Ergebnissen der Stanford-Universitätsstudie bezüglich kosteninduzierter Einschränkungen zu? Wenn ja, wie denken Sie, können aufstrebende KI-Unternehmen die Situation handhaben, um nicht auszusterben?
AF: Ich stimme der Studie der Stanford University über die bedeutende Kostenbarriere beim Training von KI-Modellen für Nicht-Industrieakteure zu. Zusätzlich DARPA, and the National Science Foundation. Die Fokussierung auf Nischenmärkte und die Nutzung von Open-Source-Tools erhöht ebenfalls die Zugänglichkeit und befähigt kleinere KI-Unternehmen dazu, Innovationen voranzutreiben und effektiv in der Branche zu konkurrieren.
BCN: Als Ökosystemvertreter für Europa von Qubic, einer Layer-1-Kette, die sich auf künstliche Intelligenz (KI) konzentriert, welche Beiträge leisten Sie zur ethischen Entwicklung von KI? Können Sie uns kurz über die Schlüssellösungen informieren, die Sie anbieten, um die Herausforderungen der KI-Industrie anzugehen?
BCN: Als Ökosystemvertretergründer von Qubic umfassen meine Beiträge zur ethischen Entwicklung von KI die Sicherstellung von Transparenz, die Förderung des Datenschutzes und die Unterstützung eines inklusiven Zugangs zu KI-Technologien. Qubic adressiert Herausforderungen der KI-Industrie durch das Angebot skalierbarer und sicherer Infrastruktur, erleichtert dezentrales Datenmanagement und implementiert robuste Governance-Mechanismen, um ethische Standards zu wahren.
Unsere Lösungen befähigen Entwickler dazu, KI-Anwendungen zu erstellen, die sowohl innovativ als auch im Einklang mit ethischen Prinzipien stehen, und fördern so einen verantwortungsvollen Fortschritt der KI. Zusätzlich haben wir kürzlich die UNESCO zu unserer neuesten Veranstaltung über KI eingeladen, was unser Engagement für die ethische Entwicklung von KI hervorhebt und unsere Hingabe zu globalen ethischen Standards unterstreicht, indem sichergestellt wird, dass KI-Technologie der gesamten Menschheit verantwortungsvoll zugutekommt.
BCN: Welche Rolle können Regulierungsbehörden in verschiedenen Jurisdiktionen spielen, um Bürger vor Ausbeutung durch üble Akteure zu schützen, die angebliche KI-Dienste anbiden?
AF: Regulierungsbehörden können Bürger schützen, indem sie klare Standards für KI-Dienste festlegen, regelmäßige Audits durchführen, Strafen bei Nichteinhaltung durchsetzen und Transparenz fördern. Sie sollten auch die internationale Zusammenarbeit erleichtern, um grenzüberschreitende Herausforderungen anzugehen und öffentliches Bewusstsein durch Bildung über sichere KI-Praktiken zu fördern.
BCN: Qubic verwendet einen einzigartigen Konsensmechanismus namens Useful Proof of Work. Können Sie unseren Lesern sagen, was das ist und warum Sie die Notwendigkeit sahen, ihn zu entwickeln?
AF: Qubic verwendet einen auf einem Quorum basierenden Konsensmechanismus, inspiriert von Nick Szabos Papier, das eine Mindestanzahl von Mitgliedern benötigt, um zuzustimmen, bevor eine Transaktion genehmigt wird. Dies steht im Gegensatz zu unserem Mining-Algorithmus, Useful Proof of Work (uPoW). Der uPoW-Algorithmus stellt sicher, dass Rechenaufwände auf praktische Aufgaben ausgerichtet sind, wodurch Effizienz und Ressourcennutzung verbessert werden. Dieser innovative Ansatz kombiniert Mining mit nützlicher Arbeit und macht das Netzwerk produktiver und nachhaltiger, während durch den quorumbasierten Konsens eine robuste Sicherheit aufrechterhalten wird.
BCN: Zuletzt, wo sehen Sie die KI-Industrie in fünf Jahren?
AF: In den nächsten fünf Jahren sehe ich die KI-Industrie bedeutende Schritte auf dem Weg zu einer ethischeren und verantwortungsbewussteren Entwicklung machen, angetrieben durch verschiedene technologische Fortschritte. Der Schwerpunkt wird auf der Demokratisierung des Zugangs zu fortschrittlichen KI-Technologien liegen, während ethische Standards durch transparente und verantwortungsbewusste Praktiken gewährleistet werden. Wir können erwarten, dass KI zunehmend in den Alltag integriert wird und die Effizienz in verschiedenen Industrien erheblich verbessert sowie personalisierte Nutzererfahrungen optimiert.
Zusätzlich kann ich vorhersehen, dass die Entwicklung der künstlichen allgemeinen Intelligenz (AGI) innerhalb dieses Zeitrahmens wichtige Meilensteine erreichen wird. Die kollektiven Bemühungen innerhalb der KI-Gemeinschaft zielen darauf ab, eine Zukunft zu gestalten, in der KI der Gesellschaft als Ganzes zugutekommt, Innovationen fördert und für einen verantwortungsvollen technologischen Fortschritt steht.
Was sind Ihre Gedanken zu diesem Interview? Teilen Sie Ihre Meinungen im Kommentarbereich unten mit.




