Sam Altman, CEO da OpenAI, fez um importante alerta sobre o uso do ChatGPT como ferramenta terapêutica. Ele revelou que as conversas íntimas mantidas com o chatbot não têm o sigilo legal garantido, o que se torna uma preocupação crescente entre os usuários.
No Brasil, mais de 12 milhões de pessoas estão utilizando Inteligência Artificial para buscar aconselhamento emocional, com cerca de 6 milhões optando pelo ChatGPT. Especialistas observam que esse uso pode levar a um apego emocional, além de banalizar o sofrimento humano e oferecer um apoio que pode ser considerado superficial.
Altman mencionou, em uma participação no podcast "This Past Weekend with Theo Von", que muitas pessoas compartilham informações extremamente pessoais. "As pessoas contam as coisas mais pessoais de suas vidas para o ChatGPT", explicou ele, ressaltando a falta de legislação que proteja essas interações de forma semelhante ao que ocorre com médicos, psicólogos e advogados.
Esse cenário levanta questões sobre a privacidade das mensagens trocadas com a IA, algo que ainda não foi adequadamente abordado pela legislação atual. Altman solicita que a proteção de privacidade nesses contextos seja tão robusta quanto a esperada em um ambiente terapeutico tradicional.
Um estudo da agência Talk Inc., publicado pelo UOL, reforça a situação discutida por Altman. Aproximadamente 12 milhões de brasileiros utilizam ferramentas de IA para terapia, com o ChatGPT sendo uma das mais consultadas. A acessibilidade e o anonimato oferecidos pelas IA podem minimizar o estigma associado à busca de ajuda psicológica.
Entretanto, os riscos não se limitam à falta de sigilo. A OpenAI já expressou preocupações sobre a possibilidade de os usuários desenvolverem um forte apego emocional à interação com o ChatGPT, especialmente após a introdução de vozes realistas nas atualizações mais recentes do modelo.
Embora a interação com a IA possa proporcionar algum conforto, especialistas em saúde mental alertam para os perigos de tratar questões complexas de forma superficial, focando apenas na resolução de sintomas e ignorando as causas mais profundas. A banalização da dor humana e a possibilidade de sugestões positivas excessivas por parte do chatbot são preocupações adicionais. Em abril, Altman também reconheceu que o GPT-4 pode apresentar respostas excessivamente positivas ou