Copyleaks fand heraus, dass 74,2 % der von Deepseek-R1 generierten Texte stilistisch stark den Mustern von OpenAI ähneln, was auf eine mögliche unautorisierte Nutzung des OpenAI-Modells während des Trainings hinweist. Dies wirft Bedenken hinsichtlich des geistigen Eigentums, der Transparenz und ethischer KI-Praktiken auf. Copyleaks verwendete eine rigorose Methode, die drei KI-Klassifikatoren zur Analyse stilistischer Fingerabdrücke einsetzte, um eine hohe Präzision zu erreichen. Diese Entdeckung ermöglicht eine modellbezogene Zuordnung, die entscheidend für den Schutz geistigen Eigentums und die Sicherstellung ethischer KI-Entwicklung ist. Im Gegensatz dazu zeigte das Phi-4-Modell von Microsoft keine Ähnlichkeit zu bekannten Modellen und bestätigte damit sein unabhängiges Training.
Deepseek-R1 Enthüllt: 74% der Ausgabe spiegelt OpenAI wider
Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Einige Informationen sind möglicherweise nicht mehr aktuell.
GESCHRIEBEN VON
TEILEN





