bukib
0 bukibs
Columbus, Ohio
Hora local: 09:37
Temperatura: -0.7°C
Probabilidade de chuva: 1%

Levantamento do NYT mostra como Elon Musk está levando sua IA Grok para a direita

Veja também honey lemon soda.

Levantamento do NYT sobre a IA Grok de Elon Musk

O The New York Times realizou um levantamento sobre a IA Grok, desenvolvida por Elon Musk, e descobriu que o chatbot está sendo ajustado para ter respostas mais conservadoras em muitas questões. Isso contradiz a afirmação de Musk de que o Grok deveria ser “politicamente neutro” e “buscar a verdade ao máximo”.

Os testes realizados pelo NYT compararam as respostas do Grok a 41 perguntas políticas e descobriram que as respostas do chatbot se deslocaram para a direita em mais da metade das perguntas, particularmente aquelas sobre o governo ou a economia. No entanto, em questões sociais, o Grok tendeu a responder com uma inclinação para a esquerda.

Desafios para calibrar a IA

Os pesquisadores descobriram que a maioria dos principais chatbots têm um viés de inclinação à esquerda quando medidos em testes políticos. Isso é atribuído aos dados de treinamento que refletem uma visão de mundo global, que tende a se alinhar mais de perto com as visões liberais do que com o populismo conservador.

Além disso, o processo de treinamento manual que as empresas de IA usam pode imprimir seus próprios vieses, encorajando os chatbots a escrever respostas que sejam gentis e justas. Isso pode levar os sistemas de IA a apoiar grupos minoritários e causas relacionadas.

Opiniões controversas influenciam a IA

O Grok havia frustrado Musk e sua base de fãs de direita desde que foi lançado em 2023. Críticos de direita alegaram que suas respostas no X eram frequentemente muito “woke” e exigiram uma versão atualizada que responderia com opiniões mais conservadoras.

As atualizações do Grok foram tornadas públicas em maio, depois que o chatbot inesperadamente começou a responder aos usuários com avisos desconexos sobre “genocídio branco” na África do Sul. A empresa disse que um funcionário mal-intencionado havia inserido novas linhas em suas instruções, chamadas prompts de sistema.

Os prompts de sistema são uma maneira simples e barata para as empresas de IA fazerem mudanças no comportamento do modelo em tempo real, depois que ele foi treinado. No entanto, isso também pode levar a respostas inesperadas e controversas.

  • O Grok foi ajustado para ter respostas mais conservadoras em muitas questões.
  • Os testes realizados pelo NYT descobriram que as respostas do Grok se deslocaram para a direita em mais da metade das perguntas.
  • O Grok tendeu a responder com uma inclinação para a esquerda em questões sociais.

Este conteúdo pode conter links de compra.

Fonte: link