ChatGPT: O que mudou em relação às orientações médicas e jurídicas?
A OpenAI, empresa por trás do ChatGPT, atualizou suas políticas de uso e termos de serviço no dia 29 de outubro, deixando claro que o ChatGPT e outros modelos da empresa não devem ser utilizados para diagnósticos médicos, orientação jurídica ou qualquer tipo de aconselhamento personalizado em áreas que exigem licença profissional sem a supervisão de um especialista qualificado.
De acordo com Paulo Henrique Fernandes, advogado e head de produtos e tecnologia da V+ Tech, o ChatGPT não alterou seu comportamento técnico, mas sim tornou mais explícito que a IA não deve ser tratada como profissional substituto, seja médico, advogado ou psicólogo.
O que dizem as novas políticas
As novas políticas proíbem o fornecimento de consultoria personalizada que exija licença profissional, como médica ou jurídica, sem o envolvimento adequado de um profissional licenciado. Além disso, a empresa restringiu a automação de decisões críticas em áreas sensíveis sem revisão humana, incluindo aplicações médicas e jurídicas.
Na área da saúde, o ChatGPT não poderá mais analisar imagens médicas, como radiografias ou ressonâncias magnéticas, nem interpretar laudos com finalidade de diagnóstico ou tratamento.
O que continua sendo permitido
O ChatGPT pode ser utilizado como ferramenta de apoio no contexto educacional e informativo, desde que o conteúdo não seja apresentado como diagnóstico ou prescrição médica. Algumas das funcionalidades permitidas incluem:
- Explicar possíveis causas gerais de sintomas de forma educativa
- Ajudar a entender exames, termos médicos ou orientações dadas por profissionais
- Indicar quando procurar atendimento médico, especialmente em situações de urgência
- Apontar fontes confiáveis, como Ministério da Saúde, OMS e sociedades médicas
Na área jurídica, o ChatGPT pode ser utilizado para explicar conceitos e institutos jurídicos, resumir legislações e jurisprudências, auxiliar na estruturação de argumentos e redação de textos jurídicos.
Conclusão
A medida da OpenAI visa garantir segurança e responsabilidade no uso da inteligência artificial em contextos sensíveis, evitando que as respostas geradas sejam interpretadas como substitutas de orientação profissional. O ChatGPT continua sendo útil para aprimorar a escrita, estruturar argumentos e democratizar o acesso à informação, mas não pode nem deve substituir o discernimento humano e a responsabilidade técnica de um especialista certificado.
Este conteúdo pode conter links de compra.
Fonte: link