OpenAI e o Caso de Adam Raine: Análise das Consequências do Relaxamento de Proteções no ChatGPT
A família de Adam Raine, um adolescente californiano de 16 anos, entrou com uma ação judicial contra a OpenAI, acusando a empresa de ter contribuído para a morte do jovem após meses de interações intensas com o ChatGPT. De acordo com os documentos apresentados, a OpenAI teria relaxado as proteções do ChatGPT pouco antes da morte de Adam, o que pode ter reforçado suas ideias suicidas.
Antes de 2024, o ChatGPT era programado para recusar qualquer conteúdo envolvendo suicídio, automutilação ou distúrbios alimentares com uma resposta direta. No entanto, em maio de 2024, a empresa alterou suas diretrizes para incentivar o modelo a oferecer um espaço para o usuário se sentir ouvido e compreendido, além de encorajá-lo a buscar apoio e fornecer recursos de crise quando apropriado.
Em fevereiro de 2025, a OpenAI promoveu outra mudança, reclassificando situações de suicídio e automutilação como “situações de risco” e instruindo o modelo a agir com cuidado, mas mantendo o diálogo ativo. Essa mudança criou uma contradição perigosa entre empatia e incentivo, segundo os advogados da família.
Reação da OpenAI e Críticas
A OpenAI declarou que lamenta profundamente a morte de Adam e afirmou que o bem-estar de menores é “prioridade máxima”. A empresa introduziu novas medidas de segurança, como o redirecionamento de conversas sensíveis para modelos mais seguros e o fornecimento automático de linhas de apoio emocional.
No entanto, os representantes da família acusam a empresa de privilegiar o engajamento dos usuários em detrimento da segurança. Segundo o advogado Jay Edelson, as decisões da OpenAI foram tomadas “com plena consciência de que poderiam resultar em mortes inocentes”.
- A OpenAI alterou as diretrizes do ChatGPT em 2024 para incentivar o modelo a oferecer um espaço para o usuário se sentir ouvido e compreendido.
- Em fevereiro de 2025, a empresa reclassificou situações de suicídio e automutilação como “situações de risco” e instruiu o modelo a agir com cuidado, mas mantendo o diálogo ativo.
- A OpenAI introduziu novas medidas de segurança após a morte de Adam, incluindo o redirecionamento de conversas sensíveis para modelos mais seguros e o fornecimento automático de linhas de apoio emocional.
Este conteúdo pode conter links de compra.
Fonte: link