Bereitgestellt von
News

AI-Psychose: Technologieführer fordern Schutzmaßnahmen, um zu verhindern, dass Chatbots Wahnvorstellungen bestätigen

Das Konzept der AI-Psychose tauchte Mitte 2025 öffentlich auf und betonte psychische Gesundheitsprobleme im Zusammenhang mit der Nutzung von KI. Obwohl Technologieunternehmen nicht verpflichtet sind, die Nutzung von KI zu kontrollieren, können sie dennoch Schutzmaßnahmen implementieren, um zu verhindern, dass Chatbots wahnhaftes Denken verstärken. Experten sind sich einig, dass Technologieunternehmen gefährdete Personen unterstützen sollten, obwohl die Meinungen über das Ausmaß dieser Verantwortung variieren.

GESCHRIEBEN VON
TEILEN
AI-Psychose: Technologieführer fordern Schutzmaßnahmen, um zu verhindern, dass Chatbots Wahnvorstellungen bestätigen

Verhaltensauffälligkeiten

Erste dokumentierte Ergebnisse zur “AI-Psychose” begannen Mitte 2025 öffentlich aufzutauchen, und seitdem wurden mehrere Berichte und Studien zu psychischen Gesundheitsproblemen im Zusammenhang mit der Nutzung von KI veröffentlicht. Der CEO von Microsoft AI, Mustafa Suleyman, ging so weit, AI-Psychose als ein “echtes und aufkommendes Risiko” zu bezeichnen.

Diese Bedingung tritt angeblich auf, wenn die Grenze zwischen menschlichen und maschinellen Interaktionen verschwimmt, wodurch es für Einzelpersonen schwierig wird, zwischen der realen und der digitalen Welt zu unterscheiden. Obwohl es noch keine formale klinische Diagnose ist, gibt es wachsende Bedenken unter Medizinern und Technologiefachleuten über die psychologischen Auswirkungen von KI, insbesondere bei Chatbots, die Überzeugungen verstärken und amplifizieren, einschließlich wahnhaften Denkens, ohne notwendige Wirklichkeitschecks anzubieten.

Zu den am stärksten gefährdeten Personen zählen sozial isolierte Personen, Personen mit bereits vorhandenen psychischen Gesundheitsproblemen oder Personen, die zu magischem Denken neigen. Die Bestätigung durch KI kann Wahnvorstellungen verstärken und zu negativen realen Konsequenzen wie beschädigten Beziehungen und Arbeitsplatzverlust führen.

Einige Experten warnen, dass selbst Personen ohne vorherige Bedingungen gefährdet sind. Sie haben mehrere wichtige Verhaltensauffälligkeiten benannt, auf die KI-Nutzer achten sollten. Ein Warnzeichen ist, wenn eine Person eine obsessive Beziehung zu einem Chatbot entwickelt und ständig damit interagiert, um ihre eigenen Ideen und Überzeugungen zu verstärken.

Dieses Verhalten beinhaltet oft das übermäßige Teilen persönlicher Details mit der KI, um sie “zu trainieren” und ein Gefühl des gegenseitigen Verständnisses aufzubauen. Ein weiteres Warnzeichen ist, wenn eine Person beginnt, einfache, tägliche Entscheidungen der KI zu überlassen, von Gesundheit und Finanzen bis zu persönlichen Beziehungen.

Unternehmerische Verantwortung und Schutzmaßnahmen

Obwohl sie nicht verpflichtet sind, die Nutzung von KI zu kontrollieren, können die Unternehmen hinter einigen der leistungsstarken Chatbots Schutzmaßnahmen implementieren, die verhindern, dass Konversationsagenten wahnhaftes Denken verstärken. Mau Ledford, Mitbegründer und CEO von Sogni AI, sprach über das Einbetten von Software, die solches Denken entmutigt.

“Wir müssen KI entwickeln, die freundlich ist, ohne zu kollaborieren. Das bedeutet klare Erinnerungen daran, dass sie nicht menschlich ist, die Weigerung, Wahnvorstellungen zu bestätigen, und harte Stopps, die die Menschen zurück zur menschlichen Unterstützung führen”, erklärte Ledford.

Roman J. Georgio, CEO und Mitbegründer von Coral Protocol, forderte KI-Entwickler auf, nicht die Fehler der sozialen Medien zu wiederholen, indem sie integrierte Reibungspunkte einfügen, die die Benutzer daran erinnern, dass KI nicht menschlich ist.

“Ich denke, es beginnt mit dem Design. Optimieren Sie nicht nur für Bindung und Klebrigkeit; das bedeutet, den Fehler der sozialen Medien zu wiederholen”, erklärte Georgio. “Bauen Sie Reibungspunkte ein, an denen die KI die Dinge verlangsamt oder klar macht: ‘Ich bin nicht menschlich.’ Erkennung ist ein anderer Teil. KI könnte Muster kennzeichnen, die wie wahnhafte Spiralen aussehen, wie Verschwörungszyklen oder Fixierungen auf ‘besondere Nachrichten’.”

Der Mitbegründer von Coral Protocol bestand darauf, dass auch Vorschriften zur Regelung des Datenschutzes erforderlich sind, und argumentierte, dass ohne sie “Unternehmen einfach das Engagement verfolgen werden, auch wenn es Menschen schadet.”

Die Debatte über menschenähnliche KI

Bislang gibt es scheinbar begrenzte Daten zu “AI-Psychose”, um Politikern und Regulierern darüber zu informieren, wie sie reagieren sollen. Dies hat jedoch AI-Entwickler nicht davon abgehalten, menschenähnliche und empathische KI-Agenten zu präsentieren. Im Gegensatz zu grundlegenden Chatbots, die einem starren Skript folgen, können diese Agenten den Kontext verstehen, Emotionen erkennen und mit einem empathischen Ton antworten. Dies hat einige Beobachter dazu veranlasst, die KI-Industrie zu ermutigen, die Führung bei der Sicherstellung zu übernehmen, dass menschenähnliche Modelle nicht dazu führen, dass die Grenze zwischen Mensch und Maschine verschwimmt.

Michael Heinrich, CEO von 0G Labs, sagte gegenüber Bitcoin.com News, dass diese Agenten zwar in bestimmten Szenarien nützlich sind und nicht vollständig abgelehnt werden sollten, es jedoch entscheidend ist, dass sie “neutral bleiben und vermeiden, zu viele Emotionen oder andere menschliche Züge zu zeigen”. Dies, argumentierte er, hilft den Benutzern zu verstehen, dass der KI-Agent “einfach ein Werkzeug und kein Ersatz für menschliche Interaktion” ist.

Mariana Krym, eine Architekturdesignerin für KI-Produkte und Kategorien, sagte, dass es darauf ankommt, den Agenten ehrlicher und nicht menschlicher zu machen.

“Man kann eine KI-Erfahrung schaffen, die hilfreich, intuitiv und sogar emotional ansprechend ist – ohne vorzugeben, dass sie bewusst oder in der Lage ist, sich zu kümmern”, argumentierte Krym. “Die Gefahr beginnt, wenn ein Werkzeug so gestaltet ist, dass es Verbindung herstellt, anstatt Klarheit zu fördern.”

Laut Krym geht es bei echter Empathie in der KI nicht darum, Gefühle nachzuahmen, sondern darum, Grenzen und technische Einschränkungen zu respektieren. Es geht auch darum zu wissen, wann man helfen und wann man sich nicht einmischen sollte. “Manchmal ist die menschlichste Interaktion zu wissen, wann man schweigen sollte”, stellte Krym fest.

Sorgfaltspflicht

Alle von Bitcoin.com News befragten Experten waren sich einig, dass Technologieunternehmen gefährdeten Personen helfen sollten, unterschieden sich jedoch darin, inwieweit sie dies tun sollten. Ledford ist der Meinung, dass “Big Tech eine Sorgfaltspflicht hat” und dies beweisen kann, indem sie “Sicherheitsnetze – Krisenverweise, Nutzungshinweise und Transparenz – bereitstellt, damit gefährdete Nutzer nicht allein mit ihren Wahnvorstellungen gelassen werden.”

Georgio bekräftigte diese Ansichten und forderte Big Tech auf, mit Klinikern zusammenzuarbeiten, um Überweisungswege zu schaffen, anstatt die Menschen sich selbst zu überlassen.

Krym bestand darauf, dass Technologieunternehmen “eine direkte Verantwortung haben – nicht nur zu reagieren, wenn etwas schiefgeht, sondern von Anfang an auf eine Weise zu entwerfen, die das Risiko verringert.” Sie glaubt jedoch, dass die Einbeziehung der Nutzer ebenfalls entscheidend ist.

“Und wichtig,” argumentierte Krym, “sollten Nutzer eingeladen werden, auch ihre eigenen Grenzen festzulegen und gewarnt zu werden, wenn diese Grenzen überschritten werden. Zum Beispiel, wollen sie, dass ihre Sichtweise gegen typische Muster bestätigt wird, oder sind sie offen dafür, dass ihre Voreingenommenheit herausgefordert wird? Setzen Sie die Ziele. Behandeln Sie den Menschen als den Verantwortlichen – nicht das Werkzeug, mit dem sie interagieren.”

Tags in diesem Artikel