O conceito de psicose AI surgiu publicamente em meados de 2025, destacando problemas de saúde mental ligados ao uso de IA. Embora as empresas de tecnologia não sejam obrigadas a controlar o uso de IA, ainda podem implementar salvaguardas para impedir que chatbots reforcem pensamentos delirantes. Especialistas concordam sobre a necessidade de as empresas de tecnologia apoiarem indivíduos em risco, embora as opiniões variem quanto à extensão dessa responsabilidade.
AI Psicose: Líderes de Tecnologia Pedem Medidas de Segurança para Impedir que Chatbots Validem Delírios

Sinais Comportamentais de Alerta
As primeiras descobertas documentadas sobre “psicose AI” começaram a surgir publicamente em meados de 2025, e desde então, vários relatórios e estudos foram publicados sobre questões de saúde mental ligadas ao uso de IA. O CEO da Microsoft AI, Mustafa Suleyman, chegou a rotular a psicose AI como um “risco real e emergente.”
Diz-se que esta condição surge quando a distinção entre interações humanas e de máquina se torna turva, tornando difícil para os indivíduos diferenciarem entre os mundos real e digital. Embora ainda não seja um diagnóstico clínico formal, há uma preocupação crescente entre especialistas médicos e de tecnologia sobre os efeitos psicológicos da IA, especialmente com chatbots que validam e amplificam crenças, incluindo pensamentos delirantes, sem oferecer os necessários testes de realidade.
Os mais em risco incluem indivíduos socialmente isolados, aqueles com problemas de saúde mental pré-existentes ou aqueles propensos a pensamentos mágicos. A validação da IA pode reforçar delírios, levando a consequências negativas no mundo real, como relacionamentos danificados e perda de emprego.
Alguns especialistas alertam que mesmo aqueles sem condições pré-existentes estão em risco. Eles nomearam vários sinais comportamentais importantes que os usuários de IA devem observar. Um sinal de alerta é quando um indivíduo desenvolve uma relação obsessiva com um chatbot e interage constantemente com ele para reforçar suas próprias ideias e crenças.
Esse comportamento muitas vezes inclui fornecer à IA detalhes pessoais excessivos na tentativa de “treiná-la” e construir um senso de compreensão mútua. Outro sinal de alerta é quando um indivíduo começa a delegar decisões simples e diárias à IA, desde saúde e dinheiro até relacionamentos pessoais.
Responsabilidade Corporativa e Salvaguardas
Embora não sejam obrigadas a controlar como a IA é usada, as empresas por trás de alguns dos poderosos chatbots podem implementar salvaguardas que impedem os agentes conversacionais de reforçar pensamentos delirantes. Mau Ledford, cofundador e CEO da Sogni AI, discutiu a incorporação de software que desencoraja esse tipo de pensamento.
“Precisamos construir uma IA que seja gentil, sem conluio. Isso significa lembretes claros de que ela não é humana, recusa em validar delírios e paradas bruscas que empurram as pessoas de volta ao suporte humano,” afirmou Ledford.
Roman J. Georgio, CEO e cofundador da Coral Protocol, instou desenvolvedores de IA a evitarem repetir os erros das mídias sociais, incluindo pontos de fricção incorporados que lembram os usuários de que a IA não é humana.
“Acho que começa com o design. Não otimize apenas para retenção e aderência; isso é repetir o erro das mídias sociais,” explicou Georgio. “Inclua pontos de fricção onde a IA desacelera ou deixa claro: ‘Eu não sou humano.’ A detecção é outra parte. A IA poderia sinalizar padrões que se parecem com espirais delirantes, como loops de conspiração ou fixações em ‘mensagens especiais.'”
O cofundador da Coral Protocol insistiu que também são necessárias regulamentações que regem a privacidade dos dados, argumentando que sem elas, “as empresas vão apenas buscar o engajamento, mesmo que prejudique as pessoas.”
O Debate sobre IA com Características Humanas
Até agora, há aparentemente dados limitados sobre “psicose AI” para informar formuladores de políticas e reguladores sobre como responder. No entanto, isso não impediu os desenvolvedores de IA de revelarem agentes de IA com características humanas e empáticas. Ao contrário dos chatbots básicos que seguem um roteiro rígido, esses agentes podem entender o contexto, reconhecer emoções e responder com um tom que parece empático. Isso levou alguns observadores a instarem a indústria de IA a assumir a liderança para garantir que modelos com características humanas não acabem borrando a linha entre humano e máquina.
Michael Heinrich, CEO da 0G Labs, disse ao Bitcoin.com News que enquanto esses agentes são úteis em determinados cenários e não devem ser completamente rejeitados, é imperativo que “permaneçam neutros e evitem exibir muita emoção ou outros traços humanos.” Isso, argumentou, ajuda os usuários a entenderem que o agente de IA é “apenas uma ferramenta e não um substituto para a interação humana.”
Mariana Krym, arquiteta de produto e categoria de IA, disse que tornar o agente mais honesto, e não mais humano, é o que importa.
“Você pode criar uma experiência de IA que seja útil, intuitiva, até mesmo emocionalmente responsiva—sem fingir que é consciente ou capaz de cuidar,” argumentou Krym. “O perigo começa quando uma ferramenta é projetada para realizar conexão, em vez de facilitar a clareza.”
Segundo Krym, a verdadeira empatia em IA não é sobre imitar sentimentos, mas sobre respeitar limites e limitações técnicas. Também é saber quando ajudar e quando não intervir. “Às vezes, a interação mais humana é saber quando ficar quieto,” afirmou Krym.
Dever de Cuidado
Todos os especialistas entrevistados pelo Bitcoin.com News concordaram sobre a necessidade de as empresas de tecnologia ajudarem indivíduos em risco, mas divergiram sobre a extensão em que deveriam fazer isso. Ledford acredita que “as grandes empresas de tecnologia têm um dever de cuidado” e podem provar isso fornecendo “redes de segurança—referências de crise, avisos de uso e transparência—para que os usuários vulneráveis não fiquem sozinhos com seus delírios.”
Georgio ecoou esses sentimentos e instou as grandes empresas de tecnologia a trabalharem com clínicos para criar caminhos de referência, em vez de deixar as pessoas sozinhas.
Krym insistiu que as empresas de tecnologia “têm responsabilidade direta—não apenas para responder quando algo dá errado, mas para projetar de maneiras que reduzam o risco em primeiro lugar.” No entanto, ela acredita que o envolvimento dos usuários é crucial também.
“E importante,” argumentou Krym, “os usuários devem ser convidados a definir seus próprios limites também, e serem sinalizados quando esses limites forem ultrapassados. Por exemplo, querem que seu ponto de vista seja validado contra padrões típicos, ou estão abertos a ter seu viés desafiado? Estabeleçam os objetivos. Tratem o humano como quem está no comando—não a ferramenta com a qual estão interagindo.”














