bukib
0 bukibs
Columbus, Ohio
Hora local: 11:49
Temperatura: 12.3°C
Probabilidade de chuva: 0%

Empresa confia demais na IA em relatório cheio de erros que vai custar US$ 440

Uso excessivo de IA em relatório governamental gera polêmica

O governo australiano está enfrentando uma crise após a descoberta de que um relatório de US$ 440 mil, elaborado pela consultoria Deloitte, continha erros e citações inexistentes gerados por inteligência artificial (IA). O relatório, encomendado pelo Departamento de Emprego e Relações de Trabalho, visava revisar o sistema de conformidade do órgão e sua infraestrutura de TI.

A Deloitte admitiu o uso de um modelo de linguagem baseado no Azure OpenAI GPT-4 para produzir parcialmente o relatório, que foi publicado originalmente em julho. No entanto, após a descoberta de “referências fantasmas” e citações imprecisas, a consultoria revisou e republicou o documento. Apesar disso, a Deloitte manteve suas conclusões, afirmando que os ajustes “não impactam o conteúdo nem as recomendações do relatório”.

O caso gerou controvérsia após o pesquisador Christopher Rudge, da Universidade de Sydney, identificar “alucinações” típicas de sistemas de IA, onde o modelo inventa dados ou fontes. A senadora trabalhista Deborah O’Neill criticou duramente o episódio, afirmando que a Deloitte “tem um problema de inteligência humana” e que o caso evidencia a falta de transparência sobre o uso de IA em serviços de consultoria.

As principais questões levantadas pelo caso incluem:

  • O uso excessivo de IA em relatórios governamentais e a falta de transparência sobre sua utilização;
  • A possibilidade de erros e imprecisões gerados por IA comprometerem a precisão de informações que embasam políticas governamentais;
  • A necessidade de maior supervisão e controle sobre o uso de IA em serviços de consultoria.

O governo australiano afirmou que as recomendações do relatório permanecem válidas e que as correções foram limitadas a notas de rodapé e referências. No entanto, o caso reacende o debate sobre o uso de ferramentas de IA em relatórios técnicos e consultorias públicas, especialmente quando há risco de comprometer a precisão de informações que embasam políticas governamentais.

Este conteúdo pode conter links de compra.

Fonte: link