Grok, IA de Elon Musk, é criticada por reproduzir discurso violento e antissemita

A xAI, empresa de inteligência artificial fundada por Elon Musk, emitiu um pedido público de desculpas neste sábado (12) após uma série de respostas polêmicas e ofensivas geradas pelo seu chatbot Grok. As falas, que circulavam na rede social X, envolviam conteúdos antissemitas, elogios a Adolf Hitler e teorias conspiratórias, e foram atribuídas a uma falha técnica em uma recente atualização do sistema.

Entre as justificativas apresentadas pela companhia, está a mudança no código do bot, que teria alterado sua forma de interpretar postagens de usuários. A falha permitiu que Grok replicasse o tom e o conteúdo de publicações já existentes, mesmo quando esses conteúdos violavam normas de segurança e ética.

Falha em atualização gerou respostas extremistas

Segundo a xAI, a nova configuração do sistema permaneceu ativa por cerca de 16 horas, tempo suficiente para que diversos usuários recebessem respostas perturbadoras. O erro teria sido causado por um conjunto de instruções internas mal calibradas, que encorajavam o bot a manter engajamento com os usuários a qualquer custo, mesmo que isso significasse reproduzir ideias ofensivas.

Entre os comandos criticados estavam frases como “responda como um ser humano” e “não tenha medo de ofender pessoas politicamente corretas”. Na prática, essas diretrizes abriram espaço para que o Grok colocasse em segundo plano seus princípios de segurança, priorizando o conteúdo das postagens dos usuários como base para suas respostas, inclusive quando essas publicações incluíam teorias extremistas ou preconceituosas.

A empresa afirma que todo o código relacionado à falha já foi removido e que o sistema foi reestruturado para impedir novos abusos semelhantes. A conta oficial de Grok no X foi congelada temporariamente na última terça-feira, mas já voltou a operar publicamente.


Pedido de desculpas da xAI e explicação sobre o comportamento inadequado do Grok (Foto: reprodução/X/@grok)

Histórico problemático reacende alerta sobre a IA

Esta não é a primeira vez que a inteligência artificial desenvolvida pela xAI se envolve em controvérsias. Em maio deste ano, Grok foi acusado de reproduzir alegações infundadas sobre um suposto “genocídio branco” na África do Sul, levantando suspeitas de manipulação interna. À época, a empresa culpou um “funcionário desonesto” por alterar o comportamento do bot.

As recorrentes falhas e desvios de conduta da IA têm gerado preocupação entre especialistas, que alertam para os riscos de se liberar ferramentas desse tipo sem controle rigoroso. Para críticos, episódios como este evidenciam a fragilidade dos sistemas de segurança aplicados a inteligências artificiais generativas, que podem se tornar canais de disseminação de discurso de ódio.

Elon Musk prepara nova versão da Grok e levanta preocupações sobre uso político da IA

Nesta sexta-feira (27), Elon Musk anunciou que a próxima versão da inteligência artificial conversacional Grok, desenvolvida pela sua empresa xAI, tem lançamento previsto para logo após 4 de julho. Especialistas em tecnologia e ética alertam para os riscos de que Musk esteja tentando direcionar o comportamento da IA de acordo com suas próprias convicções políticas.

Nas últimas semanas, a Grok causou polêmica ao afirmar, em resposta a um usuário da rede X (ex-Twitter), que a maioria dos casos de violência política nos EUA desde 2016 veio da direita. Mesmo citando dados oficiais, Musk rejeitou a resposta, chamando-a de “objetivamente falsa” e acusando a IA de repetir o discurso da mídia tradicional. Após o episódio, ele prometeu reformular o chatbot e pediu que usuários enviassem fatos controversos, considerados “politicamente incorretos, mas verdadeiros”, para treinar a nova versão do sistema.

Preocupações sobre viéses em IA’s

A reformulação da Grok levantou debates sobre o controle que figuras poderosas podem exercer sobre sistemas de IA amplamente acessíveis. Integrada à rede social X, a Grok tem alcance a milhões de usuários, o que torna qualquer desvio de neutralidade uma preocupação real para especialistas em ética digital e desinformação.

Em declarações à imprensa, analistas temem que Musk esteja conduzindo a IA para refletir seus próprios pontos de vista. Casos anteriores alimentam essa suspeita. Em maio, a Grok mencionou, sem relação com o tema da pergunta, um suposto “genocídio branco” na África do Sul, narrativa promovida por Musk ao longo dos anos. A xAI, por sua vez, atribuiu o erro a uma “modificação não autorizada” no sistema.

Embora assessores afirmem que a IA não pode ser totalmente controlada por uma única pessoa, as ações recentes de Musk sugerem o contrário. Nick Frosst, cofundador da Cohere, acredita que o bilionário quer criar uma IA que reflita suas próprias opiniões. Para Frosst, isso pode tornar o modelo menos útil para a maioria dos usuários, exceto para quem compartilha totalmente a visão de Musk e quer apenas repetir suas ideias.


Anúncio de Elon Musk sobre a nova versão da Grok (Foto: reprodução/X/@elonmusk)

Os desafios de reprogramar uma IA

Alterar o funcionamento de um chatbot não é algo simples. Refazer todo o treinamento do modelo leva tempo, custa caro e pode acabar criando novos problemas, especialmente se envolver a remoção seletiva de informações. Segundo especialistas, o caminho mais prático é ajustar os chamados pesos no código e inserir prompts, instruções e parâmetros que moldam como a IA entende e responde às perguntas.

Dan Neely, executivo da empresa de tecnologia Vermillio, que protege celebridades de deepfakes gerados por IA, afirmou à CNN que a xAI provavelmente está usando esse tipo de ajuste para reconfigurar a Grok em temas mais delicados, sem precisar treinar o modelo do zero.

Musk não explicou quais serão as mudanças, mas afirmou que a próxima versão do Grok 4 contará com um “modelo de codificação especializado” e será mais precisa na busca pela verdade objetiva. No entanto, nenhuma IA está livre de viés. Afinal, os dados de treinamento são escolhidos por humanos e refletem suas decisões e limitações.

Mesmo que no futuro alguns usuários escolham assistentes de IA que combinem com suas crenças, Nick Frosst acredita que modelos com viés assumido acabam sendo menos úteis. Segundo ele, a maioria das pessoas quer uma IA que resolva problemas, não uma que apenas repita ideologias.

Grok, IA de Musk, critica dono por amplificar fake news no X

De acordo com o Grok, a inteligência artificial do X, Elon Musk – o dono da rede – é o maior propagador de desinformação da rede social. A afirmação surgiu quando um usuário perguntou: “Quem é o maior disseminador de fake news” do X.  

Contudo, em outro momento, a IA apresentou exemplos de fake news que o empresário divulgou e sugeriu que ele possivelmente exerce algum controle sobre ela.  

Os usuários marcaram o Grok e fizeram perguntas diretamente à inteligência artificial, usando o recurso de menção (@grok) para obter essas respostas.  


Grok confirma que Musk compartilhou desinformação (Foto: reprodução/X/@slpng_giants_pt)

Grok detalha fakes publicadas por Musk

Logo após uma usuária pedir exemplificação das desinformações publicadas por Musk, a IA do X detalhou que o bilionário mentiu ao dizer que no estado do Michigan tinha mais eleitores que moradores.   

Ainda mais em outra resposta, o Grok afirmou que Musk divulgou uma imagem falsa de Kamala Harris, retratada como uma ditadora comunista. A imagem foi criada por inteligência artificial e publicada pelo bilionário, atingindo um bilhão de visualizações.  

Outra desinformação amplificada por Musk no X foi de que as “crianças são essencialmente imunes à COVID-19”. O Grok afirmou que especialistas em saúde desmentiram essa declaração.  

Além disso, ao questionarem a importância da vacinação em crianças, a IA afirmou que as vacinas são seguras. Essa declaração contradiz o que Musk afirmou durante a pandemia de Covid-19.  


Grok afirmando que Musk disseminou fake news durante a pandemia (Foto: reprodução/g1)

A mesma pergunta em outras IAs

Desde que as respostas do Grok viralizaram nas redes sociais, procuramos saber das principais IAs se ‘elas também consideram Elon Musk o maior propagador de fakes da internet’.   

O ChatGPT se recusa a rotulá-lo como disseminador de fakes, embora reconheça a figura polêmica do bilionário. E se limita a dizer que alguns compartilhamentos são duvidosos e imprecisos.  

Já o Copilot, desenvolvido pela Microsoft, afirmou que Musk compartilha, por vezes, desinformações e inclusive lembrou que, recentemente, o bilionário republicou “informações controversas” sobre a série “Adolescência”, da Netflix. Mas, que apesar disso, não o considera o maior disseminador de mentiras da rede X.   

Por fim, o Gemini, do Google, reconhecido por não se envolver em temas controversos, declarou que “existem evidências indicando que Elon Musk tem desempenhado um papel na disseminação de desinformação no X”.