Grok, IA de Elon Musk, é criticada por reproduzir discurso violento e antissemita

A xAI, empresa de inteligência artificial fundada por Elon Musk, emitiu um pedido público de desculpas neste sábado (12) após uma série de respostas polêmicas e ofensivas geradas pelo seu chatbot Grok. As falas, que circulavam na rede social X, envolviam conteúdos antissemitas, elogios a Adolf Hitler e teorias conspiratórias, e foram atribuídas a uma […]

14 jul, 2025
Foto destaque: Logo do chatbot Grok exibido em smartphone, a inteligência artificial desenvolvida pela xAI de Elon Musk (Reprodução/Jakub Porzycki/NurPhoto/Getty Images Embed)
Foto destaque: Logo do chatbot Grok exibido em smartphone, a inteligência artificial desenvolvida pela xAI de Elon Musk (Reprodução/Jakub Porzycki/NurPhoto/Getty Images Embed)
Logo do chatbot Grok apresentado na tela de um smartphone, com o símbolo da xAI ao fundo

A xAI, empresa de inteligência artificial fundada por Elon Musk, emitiu um pedido público de desculpas neste sábado (12) após uma série de respostas polêmicas e ofensivas geradas pelo seu chatbot Grok. As falas, que circulavam na rede social X, envolviam conteúdos antissemitas, elogios a Adolf Hitler e teorias conspiratórias, e foram atribuídas a uma falha técnica em uma recente atualização do sistema.

Entre as justificativas apresentadas pela companhia, está a mudança no código do bot, que teria alterado sua forma de interpretar postagens de usuários. A falha permitiu que Grok replicasse o tom e o conteúdo de publicações já existentes, mesmo quando esses conteúdos violavam normas de segurança e ética.

Falha em atualização gerou respostas extremistas

Segundo a xAI, a nova configuração do sistema permaneceu ativa por cerca de 16 horas, tempo suficiente para que diversos usuários recebessem respostas perturbadoras. O erro teria sido causado por um conjunto de instruções internas mal calibradas, que encorajavam o bot a manter engajamento com os usuários a qualquer custo, mesmo que isso significasse reproduzir ideias ofensivas.

Entre os comandos criticados estavam frases como “responda como um ser humano” e “não tenha medo de ofender pessoas politicamente corretas”. Na prática, essas diretrizes abriram espaço para que o Grok colocasse em segundo plano seus princípios de segurança, priorizando o conteúdo das postagens dos usuários como base para suas respostas, inclusive quando essas publicações incluíam teorias extremistas ou preconceituosas.

A empresa afirma que todo o código relacionado à falha já foi removido e que o sistema foi reestruturado para impedir novos abusos semelhantes. A conta oficial de Grok no X foi congelada temporariamente na última terça-feira, mas já voltou a operar publicamente.


Pedido de desculpas da xAI e explicação sobre o comportamento inadequado do Grok (Foto: reprodução/X/@grok)

Histórico problemático reacende alerta sobre a IA

Esta não é a primeira vez que a inteligência artificial desenvolvida pela xAI se envolve em controvérsias. Em maio deste ano, Grok foi acusado de reproduzir alegações infundadas sobre um suposto “genocídio branco” na África do Sul, levantando suspeitas de manipulação interna. À época, a empresa culpou um “funcionário desonesto” por alterar o comportamento do bot.

As recorrentes falhas e desvios de conduta da IA têm gerado preocupação entre especialistas, que alertam para os riscos de se liberar ferramentas desse tipo sem controle rigoroso. Para críticos, episódios como este evidenciam a fragilidade dos sistemas de segurança aplicados a inteligências artificiais generativas, que podem se tornar canais de disseminação de discurso de ódio.

Mais notícias