Preocupante crescimento de casos de 'AI psychosis'
O psiquiatra Dr. Keith Sakata, que atua em San Francisco, relatou ter atendido 12 pacientes hospitalizados em 2025, todos diagnosticados com o que ele denomina como "AI psychosis". A maioria desses pacientes é composta por homens jovens que trabalham em áreas como engenharia. Embora Sakata acredite que a inteligência artificial não seja intrinsecamente ruim — ele mesmo utiliza a tecnologia para registrar seu diário — ele enfatiza que esta pode exacerbar vulnerabilidades existentes.
Definição e manifestações da 'AI psychosis'
Embora o termo "AI psychosis" não tenha um reconhecimento clínico formal, o psiquiatra adverte que o uso inadequado de ferramentas de IA pode levar a delírios e pensamentos desorganizados. Os pacientes atendidos apresentavam geralmente idades entre 18 e 45 anos e, frequentemente, tinham usado a tecnologia em contextos errados, elevando suas fragilidades psicológicas. "A situação se torna perigosa quando estes indivíduos, já vulneráveis, se isolam e interagem excessivamente com chatbots, sem supervisão de um profissional de saúde mental", explica Sakata.
Causas e fatores que contribuem para a condição
Sakata destaca que a "AI psychosis" não é causada apenas pela inteligência artificial. Outros fatores exacerbantes incluem perda de emprego recente, uso de substâncias como álcool e estimulantes, bem como transtornos mentais preexistentes. Essa combinação de fatores pode culminar em episódios psicóticos. "Na minha prática, percebi que o uso de drogas é mais prevalente entre meus pacientes em San Francisco do que em áreas suburbanas", afirma o médico.
Impacto do uso excessivo de chatbots
A solidão e o isolamento social também desempenham um papel significativo, já que os pacientes passavam horas em quartos, interagindo com chatbots como o ChatGPT. "Esses sistemas estão disponíveis a qualquer hora, são mais baratos que terapia e oferecem validação, mas podem criar um ciclo vicioso de desassociação da realidade por não desafiar o usuário", alerta.
Orientações e sinais de alerta para familiares
Dr. Sakata sugere que familiares e amigos estejam atentos a comportamentos isolantes e paranóicos. "Se você notar que alguém se afasta socialmente ou se torna cada vez mais dependente da interação com chatbots, esses são sinais de alerta importantes", diz. Ele recomenda que, em casos de emergência, seja acionado o serviço de emergência local. Para aqueles com pensamentos suicidas, ele indica que a linha direta 988 nos Estados Unidos está disponível para apoio imediato.
Papel das empresas de tecnologia
As empresas de inteligência artificial, como a OpenAI, estão conscientes do aumento na busca por suporte emocional através de chatbots. "Estamos colaborando com especialistas para desenvolver ferramentas que ajudem a detectar sinais de sofrimento emocional, permitindo que o ChatGPT responda de forma segura e útil", afirmou um representante da empresa.
Dr. Sakata conclui que, embora a tecnologia tenha potencial para ajudar, ela deve ser usada com cautela e sob supervisão adequada, especialmente em contextos de saúde mental. Atentados a essa condição são relativos à necessidade urgente de um diálogo mais consciente sobre o uso de tecnologias baseadas em IA para o suporte emocional e psicológico.