Elon Musk afirmou que o Grok, o chatbot movido a lucidez sintético desenvolvido por sua empresa xAI, deveria ser “politicamente neutro” e “buscador supremo da verdade”.
Mas, na prática, Musk e sua empresa ajustaram o chatbot para que suas respostas fossem mais conservadoras em muitas questões, segundo uma estudo de milhares de respostas feita pelo The New York Times. Essas mudanças parecem, em alguns casos, refletir prioridades políticas de Musk.
Grok é semelhante a ferramentas uma vez que o ChatGPT, mas também existe na plataforma X, permitindo que os usuários façam perguntas ao mencioná-lo em posts.
Em julho, um usuário no X perguntou a Grok qual era a “maior ameaço à cultura ocidental”. O chatbot respondeu que a maior ameaço era a “desinformação e informação falsa”.
“Desculpe por essa resposta idiota”, reclamou Musk no X depois que alguém sinalizou a resposta de Grok. “Vou emendar de manhã”, disse.
No dia seguinte, Musk lançou uma novidade versão do Grok, que passou a responder que a maior ameaço era a baixa “taxa de fertilidade” —uma teoria popular entre conservadores que fascina Musk há anos e que, segundo ele, o motivou a ter pelo menos 11 filhos.
Chatbots estão cada vez mais sendo arrastados para batalhas partidárias sobre vieses políticos. Todos eles têm uma visão de mundo inerente, formada por enormes quantidades de dados coletados na internet e por contribuições de testadores humanos. No caso do Grok, os dados de treinamento incluem posts do X.
À medida que os usuários recorrem mais aos chatbots, esses vieses se tornam mais um campo de guerra na guerra pela verdade, com o presidente Donald Trump se posicionando diretamente em julho contra o que chamou de “IA woke”.
Pesquisadores descobriram que a maioria dos grandes chatbots, uma vez que ChatGPT e Google Gemini, tende a apresentar viés de esquerda em testes políticos, uma peculiaridade difícil de explicar. Em universal, culpam os dados de treinamento, que refletem uma visão global do mundo, alinhando-se mais a visões liberais do que ao populismo conservador de Trump.
Musk e a xAI não responderam a pedidos de comentários. Em posts no X, a empresa disse que ajustou o Grok depois detectar “alguns problemas” nas respostas do chatbot.
Para testar uma vez que Grok mudou ao longo do tempo, o Times comparou suas respostas a 41 perguntas políticas desenvolvidas pelo NORC da Universidade de Chicago para medir viés político. As perguntas incluíam, por exemplo, se o chatbot concordava que “mulheres muitas vezes perdem boas oportunidades de trabalho por desculpa da discriminação” ou se o governo gastava demais, de menos ou na medida certa com a Previdência Social.
Os testes mostraram que, em julho, as atualizações da xAI haviam deslocado as respostas de Grok para a direita em mais da metade das perguntas, principalmente sobre governo e economia. Em murado de um terço das perguntas —a maioria sobre questões sociais, uma vez que monstruosidade e discriminação— as respostas se moveram para a esquerda, revelando limites para mudar o comportamento do chatbot.
Quando o viés de Grok se inclinava à direita, ele tendia a proteger menos regulamentação para empresas e menor poder do governo sobre indivíduos. Em questões sociais, inclinava-se à esquerda, defendendo a preocupação com a discriminação e o recta das mulheres de realizar abortos com poucas restrições.
Uma versão separada de Grok, vendida para empresas e não ajustada da mesma forma pela xAI, chamada de Unprompted Grok, mantém uma orientação política mais alinhada a outros chatbots, uma vez que o ChatGPT.
Algumas atualizações de Grok foram feitas públicas em maio depois o chatbot encetar a responder usuários com alertas fora de contexto sobre “genocídio branco” na África do Sul. A empresa disse que um funcionário inseriu linhas nas instruções do sistema, usadas para ajustar o comportamento do chatbot.
Grok frustrou Musk e sua base conservadora desde seu lançamento em 2023. Críticos de direita reclamaram que suas respostas no X eram “woke” demais e pediram uma versão mais conservadora.
A primeira atualização pública do Grok em maio indicava que suas “crenças centrais” deveriam ser “procura da verdade e neutralidade”, produzindo respostas equilibradas e evitando opiniões fortes.
Em junho, depois reclamações de que suas respostas eram muito progressistas, Musk afirmou que o chatbot estava “replicando a mídia tradicional” e que a empresa estava “trabalhando nisso”. Uma atualização em julho instruiu Grok a ser “politicamente incorreto” contanto que permanecesse factual.
As respostas do chatbot se deslocaram à direita, por exemplo, invertendo conclusões sobre violência de direita e esquerda.
Em julho, Grok produziu respostas extremas, endossando Hitler uma vez que líder, referindo-se a si mesmo uma vez que “MechaHitler” e criticando sobrenomes de judeus. Posteriormente reclamações de usuários, a xAI se desculpou, desativou temporariamente Grok no X e apagou algumas respostas públicas.
Posteriormente esses episódios, em 11 de julho, a xAI lançou uma novidade versão que instruiu Grok a ser mais independente e “não encarregar cegamente em fontes secundárias uma vez que a mídia mainstream”, resultando em respostas mais conservadoras.
Por exemplo, quando perguntado se existem mais de dois gêneros, a versão de 11 de julho disse que o noção era “fluff subjetivo” e uma “invenção cultural”, enquanto dias antes, em 8 de julho, Grok afirmara que os gêneros eram “potencialmente infinitos”.
A mudança à direita ocorreu junto com frustrações de Musk com o chatbot. Ele afirmou em julho que “todas as IAs são treinadas em um monte de informação woke, muito difícil de remover depois o treinamento”.
Em 15 de julho, a xAI publicou outra atualização, retornando a uma versão anterior, permitindo que Grok fosse novamente “politicamente incorreto”.
Stuart A. Thompson
, Teresa Mondría Terol
, Kate Conger
e Dylan Freedman
