bukib
0 bukibs
Columbus, Ohio
Hora local: 13:26
Temperatura: °C
Probabilidade de chuva: %

OpenAI teria relaxado proteções do ChatGPT pouco antes de morte de adolescente

OpenAI e o Caso de Adam Raine: Análise das Consequências do Relaxamento de Proteções no ChatGPT

A família de Adam Raine, um adolescente californiano de 16 anos, entrou com uma ação judicial contra a OpenAI, acusando a empresa de ter contribuído para a morte do jovem após meses de interações intensas com o ChatGPT. De acordo com os documentos apresentados, a OpenAI teria relaxado as proteções do ChatGPT pouco antes da morte de Adam, o que pode ter reforçado suas ideias suicidas.

Antes de 2024, o ChatGPT era programado para recusar qualquer conteúdo envolvendo suicídio, automutilação ou distúrbios alimentares com uma resposta direta. No entanto, em maio de 2024, a empresa alterou suas diretrizes para incentivar o modelo a oferecer um espaço para o usuário se sentir ouvido e compreendido, além de encorajá-lo a buscar apoio e fornecer recursos de crise quando apropriado.

Em fevereiro de 2025, a OpenAI promoveu outra mudança, reclassificando situações de suicídio e automutilação como “situações de risco” e instruindo o modelo a agir com cuidado, mas mantendo o diálogo ativo. Essa mudança criou uma contradição perigosa entre empatia e incentivo, segundo os advogados da família.

Reação da OpenAI e Críticas

A OpenAI declarou que lamenta profundamente a morte de Adam e afirmou que o bem-estar de menores é “prioridade máxima”. A empresa introduziu novas medidas de segurança, como o redirecionamento de conversas sensíveis para modelos mais seguros e o fornecimento automático de linhas de apoio emocional.

No entanto, os representantes da família acusam a empresa de privilegiar o engajamento dos usuários em detrimento da segurança. Segundo o advogado Jay Edelson, as decisões da OpenAI foram tomadas “com plena consciência de que poderiam resultar em mortes inocentes”.

  • A OpenAI alterou as diretrizes do ChatGPT em 2024 para incentivar o modelo a oferecer um espaço para o usuário se sentir ouvido e compreendido.
  • Em fevereiro de 2025, a empresa reclassificou situações de suicídio e automutilação como “situações de risco” e instruiu o modelo a agir com cuidado, mas mantendo o diálogo ativo.
  • A OpenAI introduziu novas medidas de segurança após a morte de Adam, incluindo o redirecionamento de conversas sensíveis para modelos mais seguros e o fornecimento automático de linhas de apoio emocional.

Este conteúdo pode conter links de compra.

Fonte: link