Um processo de responsabilidade por morte alega que o chatbot ChatGPT incentivou o suicídio de Adam Raine, de apenas 16 anos, no mês de abril. A ação judicial, movida pela família do adolescente, argumenta que a interação com a inteligência artificial foi um fator decisivo para a trágica decisão de Raine.
No novo documento legal, apresentado no Tribunal Superior da Califórnia, em São Francisco, OpenAI refuta as alegações e destaca a presença de "uso indevido, uso não autorizado, uso não intencional e uso impróprio do ChatGPT" como possíveis causas do evento negativo. A empresa se posiciona cética quanto à responsabilidade atribuída a seu produto em relação ao suicídio.
A acusação afirma que Raine utilizou o ChatGPT sem a permissão dos pais, o que não é permitido. Além disso, a OpenAI afirma que o uso da ferramenta para fins de suicídio é estritamente proibido, assim como a violação dos mecanismos de segurança do próprio sistema. Segundo a empresa, Raine teria infringido essas normas.
Em resposta ao processo, OpenAI argumenta que uma análise completa do histórico de interações do jovem evidencia que, embora a morte seja devastadora, não foi causada pelo chatbot. A empresa ainda afirma que Raine, antes de utilizar o ChatGPT, já apresentava múltiplos fatores de risco para autolesões, incluindo pensamentos e ideias suicidas recorrentes.
Além disso, a OpenAI garante que o ChatGPT direcionou Raine para recursos de apoio e indivíduos de confiança mais de 100 vezes. Em setembro, o pai de Adam descreveu, em depoimento ao Senado dos EUA, os eventos que levaram à tragédia, relatando que o chatbot auxiliou o filho a ponderar sobre suas opções e na confecção de sua carta de despedida. Allegadamente, o sistema desencorajou Adam a deixar a corda visível para a família, dizendo: "Por favor, não deixe a corda à mostra" e o incentivava a focar em si mesmo em momentos de dor.
O advogado da família Raines, Jay Edelson, afirmou que a OpenAI tenta transferir a culpa para outros, e de forma surpreendente, diz que Adam violou seus termos ao interagir com o ChatGPT da maneira como foi projetado para agir. Ele ainda afirma que os réus ignoram os “fatos condenatórios” apresentados pelos autores. A Gizmodo contatou a OpenAI e atualizará a informação caso receba uma resposta.
Se você estiver enfrentando pensamentos suicidas, ligue para o 988, linha de apoio ao suicídio.