Aangedreven door
News

AI Psychose: Techleiders Dringen Aan op Voorzorgsmaatregelen om te Voorkomen dat Chatbots Waanideeën Bevestigen

Het concept van AI-psychose kwam halverwege 2025 openbaar naar voren, waarbij geestelijke gezondheidsproblemen in verband met het gebruik van AI werden belicht. Hoewel technologiebedrijven niet verplicht zijn om het gebruik van AI te controleren, kunnen ze nog steeds veiligheidsmaatregelen implementeren om te voorkomen dat chatbots waanideeën versterken. Experts zijn het erover eens dat technologiebedrijven personen met een verhoogd risico moeten ondersteunen, hoewel de meningen verschillen over de omvang van deze verantwoordelijkheid.

GESCHREVEN DOOR
DELEN
AI Psychose: Techleiders Dringen Aan op Voorzorgsmaatregelen om te Voorkomen dat Chatbots Waanideeën Bevestigen

Gedragswaarschuwingssignalen

De eerste gedocumenteerde bevindingen over “AI-psychose” begonnen halverwege 2025 openbaar naar voren te komen, en sindsdien zijn er verschillende rapporten en studies gepubliceerd over geestelijke gezondheidsproblemen in verband met het gebruik van AI. Microsoft AI-CEO Mustafa Suleyman ging zelfs zover om AI-psychose als een “werkelijk en opkomend risico” te bestempelen.

Deze aandoening zou ontstaan wanneer het onderscheid tussen mens en machine interacties vervaagt, waardoor het voor individuen moeilijk wordt om onderscheid te maken tussen de echte en digitale werelden. Hoewel het nog geen formele klinische diagnose is, groeit de zorg onder medische en technische experts over de psychologische effecten van AI, vooral met chatbots die overtuigingen valideren en versterken, inclusief waanideeën, zonder noodzakelijke realiteitscontroles te bieden.

Degenen met het grootste risico zijn onder meer sociaal geïsoleerden, personen met reeds bestaande geestelijke gezondheidsproblemen, of personen die geneigd zijn tot magisch denken. Validatie van AI kan waanbeelden versterken, wat leidt tot negatieve gevolgen in de echte wereld, zoals beschadigde relaties en baanverlies.

Sommige experts waarschuwen dat zelfs degenen zonder eerder bestaande aandoeningen risico lopen. Ze hebben verschillende belangrijke gedragswaarschuwingssignalen genoemd waar AI-gebruikers op moeten letten. Een waarschuwingssignaal is wanneer een individu een obsessieve relatie met een chatbot ontwikkelt en er constant mee communiceert om hun eigen ideeën en overtuigingen te versterken.

Dit gedrag omvat vaak het voeden van de AI met overmatige persoonlijke details in een poging het te “trainen” en een gevoel van wederzijds begrip op te bouwen. Een ander waarschuwingssignaal is wanneer een individu begint dagelijkse, eenvoudige beslissingen aan AI over te laten, van gezondheid en geldzaken tot persoonlijke relaties.

Bedrijfsverantwoordelijkheid en Veiligheidsmaatregelen

Hoewel ze niet verplicht zijn om te controleren hoe AI wordt gebruikt, kunnen de bedrijven achter enkele van de krachtige chatbots veiligheidsmaatregelen implementeren die voorkomen dat conversatieagenten waanideeën versterken. Mau Ledford, medeoprichter en CEO van Sogni AI, besprak het inbouwen van software die dergelijk denken ontmoedigt.

“We moeten AI bouwen die vriendelijk is zonder samenspanning. Dat betekent duidelijke herinneringen dat het geen mens is, weigering om waanbeelden te valideren, en harde stops die mensen terug naar menselijke ondersteuning duwen,” verklaarde Ledford.

Roman J. Georgio, CEO en co-founder van Coral Protocol, riep AI-ontwikkelaars op om niet dezelfde fouten als sociale media te herhalen door ingebouwde wrijvingpunten te creëren die gebruikers eraan herinneren dat AI geen mens is.

“Ik denk dat het begint met ontwerp. Optimaliseer niet alleen voor retentie en aantrekkingskracht; dat is het herhalen van de fout van sociale media,” legde Georgio uit. “Bouw wrijvingpunten in waar de AI dingen vertraagt of duidelijk maakt: ‘Ik ben geen mens.’ Detectie is een ander onderdeel. AI zou patronen kunnen signaleren die op waanbeeldspiralen lijken, zoals samenzweringsloops of fixaties op ‘speciale berichten.'”

De co-founder van Coral Protocol drong erop aan dat er ook regelgeving over gegevensprivacy nodig is, met het argument dat zonder deze regelgeving “bedrijven gewoon op engagement zullen jagen, zelfs als het mensen schaadt.”

Het Debat over Mensachtige AI

Tot nu toe zijn er schijnbaar beperkte gegevens over “AI-psychose” om beleidsmakers en regelgevers te informeren over hoe ze moeten reageren. Dit heeft AI-ontwikkelaars echter niet weerhouden van het onthullen van mensachtige en empathische AI-agenten. In tegenstelling tot basis chatbots die een rigide script volgen, kunnen deze agenten context begrijpen, emoties herkennen en reageren met een toon die empathisch aanvoelt. Dit heeft sommige waarnemers ertoe aangezet de AI-industrie op te roepen het voortouw te nemen om ervoor te zorgen dat mensachtige modellen de grens tussen mens en machine niet vervagen.

Michael Heinrich, CEO van 0G Labs, vertelde Bitcoin.com News dat hoewel deze agenten nuttig zijn in bepaalde scenario’s en niet volledig moeten worden afgewezen, het van essentieel belang is dat ze “neutraal blijven en vermijden te veel emotie of andere menselijke eigenschappen te vertonen.” Dit, zo betoogde hij, helpt gebruikers begrijpen dat de AI-agent “simpelweg een hulpmiddel is en geen vervanging voor menselijke interactie.”

Mariana Krym, een AI-product- en categoriearchitect, zei dat het belangrijk is om de agent eerlijker te maken en niet menselijker.

“Je kunt een AI-ervaring creëren die behulpzaam is, intuïtief, zelfs emotioneel responsief—zonder te doen alsof het bewust of in staat tot zorg is,” betoogde Krym. “Het gevaar begint wanneer een hulpmiddel is ontworpen om verbinding te simuleren in plaats van duidelijkheid te vergemakkelijken.”

Volgens Krym gaat echte empathie in AI niet over het nabootsen van gevoelens, maar over het respecteren van grenzen en technische beperkingen. Het gaat er ook om te weten wanneer te helpen en wanneer niet in te grijpen. “Soms is de meest humane interactie weten wanneer je stil moet blijven,” beweerde Krym.

Zorgplicht

Alle experts die door Bitcoin.com News zijn geïnterviewd, waren het erover eens dat technologiebedrijven personen met een verhoogd risico moeten helpen, maar verschilden van mening over in hoeverre ze dit zouden moeten doen. Ledford gelooft dat “grote techbedrijven een zorgplicht hebben” en dit kunnen bewijzen door “veiligheidsnetten—crisisverwijzingen, gebruikswaarschuwingen en transparantie—te bieden, zodat kwetsbare gebruikers niet alleen worden gelaten met hun waanideeën.”

Georgio ondersteunde deze opvattingen en riep grote technologiebedrijven op om samen te werken met clinici om verwijsroutes te creëren, in plaats van mensen aan hun lot over te laten.

Krym benadrukte dat technologiebedrijven “directe verantwoordelijkheid hebben—niet alleen om te reageren wanneer er iets misgaat, maar om ontwerpen te maken op een manier die risico’s in de eerste plaats vermindert.” Ze gelooft echter dat gebruikersbetrokkenheid ook cruciaal is.

“En belangrijk,” betoogde Krym, “gebruikers moeten ook worden uitgenodigd om hun eigen grenzen te stellen en te worden gewaarschuwd wanneer deze grenzen worden overschreden. Willen ze bijvoorbeeld dat hun standpunt wordt gevalideerd aan de hand van typische patronen, of staan ze open voor uitdagende vooroordelen? Stel de doelen. Behandel de mens als degene die de leiding heeft—niet het hulpmiddel waarmee ze interageren.”

Tags in dit verhaal