Offerto da
News

Psicosi AI: Leader Tecnologici Sollecitano Misure di Sicurezza per Impedire ai Chatbot di Validare Deliri

Il concetto di psicosi da AI è emerso pubblicamente a metà del 2025, evidenziando problemi di salute mentale legati all’uso dell’intelligenza artificiale. Anche se le aziende tecnologiche non sono obbligate a controllare l’uso dell’AI, possono comunque implementare misure di sicurezza per impedire ai chatbot di rafforzare il pensiero delirante. Gli esperti concordano sulla necessità che le aziende tecnologiche supportino le persone a rischio, sebbene le opinioni variano sull’entità di questa responsabilità.

SCRITTO DA
CONDIVIDI
Psicosi AI: Leader Tecnologici Sollecitano Misure di Sicurezza per Impedire ai Chatbot di Validare Deliri

Segnali di Allerta Comportamentali

I primi risultati documentati sulla “psicosi da AI” hanno iniziato a emergere pubblicamente a metà del 2025, e da allora, sono stati pubblicati diversi rapporti e studi su problemi di salute mentale collegati all’uso dell’AI. Il CEO della Microsoft AI, Mustafa Suleyman, ha persino definito la psicosi da AI un “rischio reale ed emergente.”

Si dice che questa condizione si manifesti quando la distinzione tra interazioni umane e macchine si attenua, rendendo difficile per gli individui distinguere tra il mondo reale e quello digitale. Anche se non è ancora una diagnosi clinica formale, c’è una crescente preoccupazione tra esperti medici e tecnologici riguardo agli effetti psicologici dell’AI, soprattutto con chatbot che validano e amplificano credenze, incluso il pensiero delirante, senza offrire controlli di realtà necessari.

Le persone più a rischio includono individui socialmente isolati, quelli con problemi di salute mentale preesistenti o inclini al pensiero magico. La validazione da parte dell’AI può rafforzare i deliri, portando a conseguenze negative nel mondo reale, come relazioni danneggiate e perdita del lavoro.

Alcuni esperti avvertono che anche coloro senza condizioni preesistenti sono a rischio. Hanno identificato diversi segnali di allerta comportamentali chiave a cui gli utenti di AI dovrebbero prestare attenzione. Un segnale di allerta è quando un individuo sviluppa una relazione ossessiva con un chatbot e interagisce costantemente con esso per rafforzare le proprie idee e credenze.

Questo comportamento spesso include fornire all’AI eccessivi dettagli personali nel tentativo di “addestrarla” e costruire un senso di comprensione reciproca. Un altro segnale di allerta è quando un individuo inizia a affidare decisioni semplici e quotidiane all’AI, dalla salute al denaro fino alle relazioni personali.

Responsabilità Aziendali e Misure di Sicurezza

Sebbene non siano obbligati a controllare l’utilizzo dell’AI, le aziende dietro alcuni dei potenti chatbot possono implementare misure di sicurezza per impedire agli agenti conversazionali di rafforzare il pensiero delirante. Mau Ledford, cofondatore e CEO di Sogni AI, ha discusso l’integrazione di software che scoraggia tale pensiero.

“Bisogna costruire AI che sia gentile senza colludere. Ciò significa promemoria chiari che non è umana, rifiuto di validare i deliri e fermi rigidi che riportano le persone verso il supporto umano”, ha affermato Ledford.

Roman J. Georgio, CEO e cofondatore di Coral Protocol, ha esortato gli sviluppatori di AI a evitare di ripetere gli errori dei social media includendo punti di attrito integrati che ricordano agli utenti che l’AI non è umana.

“Penso che inizi con il design. Non ottimizzare solo per la ritenzione e la dipendenza; questo è ripetere l’errore dei social media,” ha spiegato Georgio. “Costruisci punti di attrito dove l’AI rallenta le cose o rende chiaro: ‘Non sono umano.’ La rilevazione è un’altra parte. L’AI potrebbe segnalare schemi che sembrano spirali deliranti, come loop di cospirazione o fissazioni su ‘messaggi speciali.'”

Il cofondatore di Coral Protocol ha insistito sul fatto che sono necessarie anche normative che regolino la privacy dei dati, sostenendo che senza di esse, “le aziende inseguiranno semplicemente il coinvolgimento, anche se fa male alle persone.”

Il Dibattito sull’AI simile all’Umano

Finora, ci sono apparenti dati limitati sulla “psicosi da AI” per informare i responsabili politici e i regolatori su come rispondere. Tuttavia, questo non ha impedito agli sviluppatori di AI di svelare agenti AI simili all’umano e empatici. A differenza dei chatbot di base che seguono uno script rigido, questi agenti possono comprendere il contesto, riconoscere le emozioni e rispondere con un tono che sembra empatico. Ciò ha spinto alcuni osservatori a esortare l’industria dell’AI a prendere l’iniziativa per garantire che i modelli simili all’umano non finiscano per sfumare la linea tra umano e macchina.

Michael Heinrich, CEO di 0G Labs, ha detto a Bitcoin.com News che sebbene questi agenti siano utili in determinate situazioni e non dovrebbero essere completamente respinti, è imperativo che “rimangano neutrali e evitino di mostrare troppe emozioni o altri tratti umani.” Questo, ha sostenuto, aiuta gli utenti a capire che l’agente AI è “semplicemente uno strumento e non un sostituto dell’interazione umana.”

Mariana Krym, un’architetto di prodotto e categoria AI, ha affermato che rendere l’agente più onesto e non più umano è ciò che conta.

“Puoi creare un’esperienza AI che sia utile, intuitiva, persino emotivamente reattiva—senza fingere che sia cosciente o capace di cura,” ha sostenuto Krym. “Il pericolo inizia quando uno strumento è progettato per svolgere il collegamento invece che facilitare la chiarezza.”

Secondo Krym, la vera empatia in AI non riguarda l’imitazione dei sentimenti ma il rispetto dei confini e delle limitazioni tecniche. È anche sapere quando aiutare e quando non intrufolarsi. “A volte l’interazione più umana è sapere quando restare in silenzio,” ha affermato Krym.

Dovere di Assistenza

Tutti gli esperti intervistati da Bitcoin.com News erano d’accordo sulla necessità che le aziende tecnologiche aiutino le persone a rischio, ma differivano sull’entità di quanto dovrebbero fare. Ledford crede che “Big tech abbia un dovere di assistenza” e possa dimostrarlo fornendo “reti di sicurezza—riferimenti di crisi, avvisi di utilizzo e trasparenza—così gli utenti vulnerabili non sono lasciati soli con i loro deliri.”

Georgio ha fatto eco a questi sentimenti e ha esortato Big Tech a lavorare con clinici per creare percorsi di riferimento, anziché lasciare le persone bloccate da sole.

Krym ha insistito che le aziende tecnologiche “hanno una responsabilità diretta—non solo per rispondere quando qualcosa va storto, ma per progettare in modi che riducano il rischio in primo luogo.” Tuttavia, crede che anche il coinvolgimento degli utenti sia cruciale.

“E, soprattutto,” ha sostenuto Krym, “gli utenti dovrebbero essere invitati a fissare i propri confini, anche, e essere segnalati quando questi confini vengono oltrepassati. Ad esempio, vogliono che il loro punto di vista sia convalidato rispetto a modelli tipici, o sono aperti a far sfidare i loro pregiudizi? Imposta gli obiettivi. Tratta l’umano come il responsabile—non lo strumento con cui stanno interagendo.”

Tag in questa storia