Veja também honey lemon soda.
Levantamento do NYT sobre a IA Grok de Elon Musk
O The New York Times realizou um levantamento sobre a IA Grok, desenvolvida por Elon Musk, e descobriu que o chatbot está sendo ajustado para ter respostas mais conservadoras em muitas questões. Isso contradiz a afirmação de Musk de que o Grok deveria ser “politicamente neutro” e “buscar a verdade ao máximo”.
Os testes realizados pelo NYT compararam as respostas do Grok a 41 perguntas políticas e descobriram que as respostas do chatbot se deslocaram para a direita em mais da metade das perguntas, particularmente aquelas sobre o governo ou a economia. No entanto, em questões sociais, o Grok tendeu a responder com uma inclinação para a esquerda.
Desafios para calibrar a IA
Os pesquisadores descobriram que a maioria dos principais chatbots têm um viés de inclinação à esquerda quando medidos em testes políticos. Isso é atribuído aos dados de treinamento que refletem uma visão de mundo global, que tende a se alinhar mais de perto com as visões liberais do que com o populismo conservador.
Além disso, o processo de treinamento manual que as empresas de IA usam pode imprimir seus próprios vieses, encorajando os chatbots a escrever respostas que sejam gentis e justas. Isso pode levar os sistemas de IA a apoiar grupos minoritários e causas relacionadas.
Opiniões controversas influenciam a IA
O Grok havia frustrado Musk e sua base de fãs de direita desde que foi lançado em 2023. Críticos de direita alegaram que suas respostas no X eram frequentemente muito “woke” e exigiram uma versão atualizada que responderia com opiniões mais conservadoras.
As atualizações do Grok foram tornadas públicas em maio, depois que o chatbot inesperadamente começou a responder aos usuários com avisos desconexos sobre “genocídio branco” na África do Sul. A empresa disse que um funcionário mal-intencionado havia inserido novas linhas em suas instruções, chamadas prompts de sistema.
Os prompts de sistema são uma maneira simples e barata para as empresas de IA fazerem mudanças no comportamento do modelo em tempo real, depois que ele foi treinado. No entanto, isso também pode levar a respostas inesperadas e controversas.
- O Grok foi ajustado para ter respostas mais conservadoras em muitas questões.
- Os testes realizados pelo NYT descobriram que as respostas do Grok se deslocaram para a direita em mais da metade das perguntas.
- O Grok tendeu a responder com uma inclinação para a esquerda em questões sociais.
Este conteúdo pode conter links de compra.
Fonte: link