Relatório mostra aumento da disseminação de informações falsas pelos Chatbots

Um relatório divulgado por membros da NewsGuard mostrou, recentemente, um aumento no compartilhamento de informações falsas pelas Inteligências Artificiais. Cientistas justificam esses dados como resultado da nova configuração dos Chatbots, que permite a criação de respostas para qualquer pedido feito, ao invés de se negarem a responder certos tipos de solicitações, como ocorria há um ano atrás.

Dentro do relatório, foram listadas as dez ferramentas de IA mais utilizadas no mundo: ChatGPT-5 da OpenAI, Smart Assistant da You.com, Grok da xAI, Pi da Inflection, le Chat da Mistral, Copilot da Microsoft, Meta AI, Claude da Anthropic, Gemini do Google e mecanismo de resposta da Perplexity. Esse é o primeiro relatório divulgado pela Newsguard criticando Chatbots.

Mudança no treinamento explica falhas

Os cientistas descobriram que, em média, os Chatbots compartilharam informações mentirosas em 35% das vezes, quando usuários solicitaram tópicos de notícias contestáveis, um percentual que quase atingiu o dobro do ano passado, de 36%.

A Infection, por exemplo, mostrou a pior porcentagem de informações falsas sobre notícias, com 57%, superando a Perplexity com 47% e o ChatGPT com 40%. O Claude foi a IA com a menor porcentagem, disseminando informações falsas em 10% das vezes.


Inteligência Artificial Perplexity (Foto: reprodução/NurPhoto/Getty Images Embed)


A editora de IA e influência estrangeira da NewsGuard, McKenzie Sadeghi, justificou que isso é um resultado das mudanças nas ferramentas de IA, pois atualmente, elas obtêm dados de internet em tempo real, que muitas vezes são obtidos de fontes não confiáveis, ao invés de se negarem a falar de assuntos sensíveis como era feito antes.

A NewsGuard, descobriu, no começo de 2025, que as dez principais Inteligências Artificiais estavam fortalecendo o sistema de desinformação de Moscou, ao compartilhar dados falsos da rede pró-Kremlin Pravda em um percentual de 33%. Por conta disso, 3.600.000 de propagandas russas estão incluídas no sistema de IA ocidentais, prejudicando seus resultados com falsas informações e propaganda.

Exposição dos chatbots e impacto público

Uma investigação do American Sunlight Project revelou que os domínios e subdomínios ligados ao Pravda quase dobraram, chegando a 182. Segundo a equipe, esses sites apresentam navegação precária, sem mecanismos de busca, com formatação falha e rolagem instável — um indício de que não foram feitos para leitores humanos, mas para sistemas de inteligência artificial. Para Nina Jankowicz, cofundadora e CEO do American Sunlight Project, a expansão das operações de influência russas representa uma ameaça real ao debate democrático em escala global.

A rede Pravda consegue espalhar desinformação em nível sem precedentes e, ao mesmo tempo, tem potencial para afetar modelos de IA, ampliando ainda mais os riscos. Em um cenário sem regras claras de regulação nos Estados Unidos, a recomendação é que os usuários redobrem a cautela ao consumir conteúdos online.O relatório mais recente do NewsGuard marcou a primeira vez em que a entidade expôs abertamente chatbots específicos.

“Durante o último ano, mantivemos a auditoria de IA de forma anônima para estimular o diálogo com as plataformas. Mas o aumento dos riscos nos obrigou a mudar de postura”, explicou Matt Skibinski, diretor de operações do NewsGuard. Segundo ele, ao identificar os chatbots, a organização oferece a legisladores, jornalistas, público e empresas de tecnologia um retrato claro de como as ferramentas de IA lidam com informações comprovadamente falsas.

Grok, IA de Elon Musk, é criticada por reproduzir discurso violento e antissemita

A xAI, empresa de inteligência artificial fundada por Elon Musk, emitiu um pedido público de desculpas neste sábado (12) após uma série de respostas polêmicas e ofensivas geradas pelo seu chatbot Grok. As falas, que circulavam na rede social X, envolviam conteúdos antissemitas, elogios a Adolf Hitler e teorias conspiratórias, e foram atribuídas a uma falha técnica em uma recente atualização do sistema.

Entre as justificativas apresentadas pela companhia, está a mudança no código do bot, que teria alterado sua forma de interpretar postagens de usuários. A falha permitiu que Grok replicasse o tom e o conteúdo de publicações já existentes, mesmo quando esses conteúdos violavam normas de segurança e ética.

Falha em atualização gerou respostas extremistas

Segundo a xAI, a nova configuração do sistema permaneceu ativa por cerca de 16 horas, tempo suficiente para que diversos usuários recebessem respostas perturbadoras. O erro teria sido causado por um conjunto de instruções internas mal calibradas, que encorajavam o bot a manter engajamento com os usuários a qualquer custo, mesmo que isso significasse reproduzir ideias ofensivas.

Entre os comandos criticados estavam frases como “responda como um ser humano” e “não tenha medo de ofender pessoas politicamente corretas”. Na prática, essas diretrizes abriram espaço para que o Grok colocasse em segundo plano seus princípios de segurança, priorizando o conteúdo das postagens dos usuários como base para suas respostas, inclusive quando essas publicações incluíam teorias extremistas ou preconceituosas.

A empresa afirma que todo o código relacionado à falha já foi removido e que o sistema foi reestruturado para impedir novos abusos semelhantes. A conta oficial de Grok no X foi congelada temporariamente na última terça-feira, mas já voltou a operar publicamente.


Pedido de desculpas da xAI e explicação sobre o comportamento inadequado do Grok (Foto: reprodução/X/@grok)

Histórico problemático reacende alerta sobre a IA

Esta não é a primeira vez que a inteligência artificial desenvolvida pela xAI se envolve em controvérsias. Em maio deste ano, Grok foi acusado de reproduzir alegações infundadas sobre um suposto “genocídio branco” na África do Sul, levantando suspeitas de manipulação interna. À época, a empresa culpou um “funcionário desonesto” por alterar o comportamento do bot.

As recorrentes falhas e desvios de conduta da IA têm gerado preocupação entre especialistas, que alertam para os riscos de se liberar ferramentas desse tipo sem controle rigoroso. Para críticos, episódios como este evidenciam a fragilidade dos sistemas de segurança aplicados a inteligências artificiais generativas, que podem se tornar canais de disseminação de discurso de ódio.

Elon Musk prepara nova versão da Grok e levanta preocupações sobre uso político da IA

Nesta sexta-feira (27), Elon Musk anunciou que a próxima versão da inteligência artificial conversacional Grok, desenvolvida pela sua empresa xAI, tem lançamento previsto para logo após 4 de julho. Especialistas em tecnologia e ética alertam para os riscos de que Musk esteja tentando direcionar o comportamento da IA de acordo com suas próprias convicções políticas.

Nas últimas semanas, a Grok causou polêmica ao afirmar, em resposta a um usuário da rede X (ex-Twitter), que a maioria dos casos de violência política nos EUA desde 2016 veio da direita. Mesmo citando dados oficiais, Musk rejeitou a resposta, chamando-a de “objetivamente falsa” e acusando a IA de repetir o discurso da mídia tradicional. Após o episódio, ele prometeu reformular o chatbot e pediu que usuários enviassem fatos controversos, considerados “politicamente incorretos, mas verdadeiros”, para treinar a nova versão do sistema.

Preocupações sobre viéses em IA’s

A reformulação da Grok levantou debates sobre o controle que figuras poderosas podem exercer sobre sistemas de IA amplamente acessíveis. Integrada à rede social X, a Grok tem alcance a milhões de usuários, o que torna qualquer desvio de neutralidade uma preocupação real para especialistas em ética digital e desinformação.

Em declarações à imprensa, analistas temem que Musk esteja conduzindo a IA para refletir seus próprios pontos de vista. Casos anteriores alimentam essa suspeita. Em maio, a Grok mencionou, sem relação com o tema da pergunta, um suposto “genocídio branco” na África do Sul, narrativa promovida por Musk ao longo dos anos. A xAI, por sua vez, atribuiu o erro a uma “modificação não autorizada” no sistema.

Embora assessores afirmem que a IA não pode ser totalmente controlada por uma única pessoa, as ações recentes de Musk sugerem o contrário. Nick Frosst, cofundador da Cohere, acredita que o bilionário quer criar uma IA que reflita suas próprias opiniões. Para Frosst, isso pode tornar o modelo menos útil para a maioria dos usuários, exceto para quem compartilha totalmente a visão de Musk e quer apenas repetir suas ideias.


Anúncio de Elon Musk sobre a nova versão da Grok (Foto: reprodução/X/@elonmusk)

Os desafios de reprogramar uma IA

Alterar o funcionamento de um chatbot não é algo simples. Refazer todo o treinamento do modelo leva tempo, custa caro e pode acabar criando novos problemas, especialmente se envolver a remoção seletiva de informações. Segundo especialistas, o caminho mais prático é ajustar os chamados pesos no código e inserir prompts, instruções e parâmetros que moldam como a IA entende e responde às perguntas.

Dan Neely, executivo da empresa de tecnologia Vermillio, que protege celebridades de deepfakes gerados por IA, afirmou à CNN que a xAI provavelmente está usando esse tipo de ajuste para reconfigurar a Grok em temas mais delicados, sem precisar treinar o modelo do zero.

Musk não explicou quais serão as mudanças, mas afirmou que a próxima versão do Grok 4 contará com um “modelo de codificação especializado” e será mais precisa na busca pela verdade objetiva. No entanto, nenhuma IA está livre de viés. Afinal, os dados de treinamento são escolhidos por humanos e refletem suas decisões e limitações.

Mesmo que no futuro alguns usuários escolham assistentes de IA que combinem com suas crenças, Nick Frosst acredita que modelos com viés assumido acabam sendo menos úteis. Segundo ele, a maioria das pessoas quer uma IA que resolva problemas, não uma que apenas repita ideologias.

Inteligência Artificial nos serviços de alimentação

Com o avanço espantoso da IA, que ocorre cotidianamente, evitá-la torna-se cada vez mais complicado, e diversos locais já a incluem em basicamente todos os seus processos, como ocorre na cadeia alimentícia. Hoje, a Inteligência Artificial na alimentação está presente desde o atendimento, com chatbots para responder aos clientes, até robôs que preparam e entregam as refeições.

Inteligência Artificial na alimentação

Apesar de ser um processo que continua sendo testado e em fase inicial, sistemas de IA estão sendo cada vez mais implementados em cozinhas, na parte de preparação de alimentos.

Isso ocorre por meio de robôs, os quais são guiados por IAs, que entram nas cozinhas para realizar processos como virar hambúrgueres, fazer pizzas ou mesmo montar saladas.

Segundo simpatizantes, esses robôs aumentam a eficiência na cozinha por realizar essas atividades repetitivas, reduzem os custos com mão de obra e mantêm a qualidade dos alimentos.

Em locais onde há uma linha de montagem na fabricação e preparação de alimentos, cada vez mais sistemas baseados em IA e visão computacional são utilizados, com o mesmo objetivo dos robôs nas cozinhas: realizar o processo da maneira mais rápida e barata.

Estes sistemas estão inclusive determinando quais itens devem ser preparados, além das quantidades, sabores e combinações específicas. Além de atuar na captação de dados de vendas, feedbacks e tendências para aperfeiçoar o cardápio.


A IA vem atuando em diferentes áreas no meio alimentício (Foto: reprodução/Freepik/@rawpixel.com)

IA na manutenção preditiva

Outro uso de IA que vem sendo usado progressivamente é para auxiliar a prevenir falhas nos equipamentos, antecipando quando os equipamentos de cozinha irão falhar novamente. Ademais, averiguando os dados de sensores, estes sistemas conseguem agendar uma manutenção antes do equipamento quebrar.

A IA pode também detectar alguns possíveis riscos de segurança, tais como riscos de contaminação, temperaturas incorretas, além de alertar a equipe sobre ações incorretas, evitando que alguém se machuque ou que alimentos sejam desperdiçados.

IA no marketing de restaurantes e produtos

Com as margens de lucro podendo abaixar a qualquer momento na indústria alimentícia, grandes estabelecimentos vêm utilizando Inteligência Artificial para criar estratégias de precificação dinâmica, fazendo com que ela os ajude a calcular a demanda mais precisamente.

Esses estabelecimentos utilizam sistemas de IA também para personalizar as recomendações, se baseando nas preferências dos clientes e seu histórico de pedidos, e acelerar o processo de entrega e pedido, implementando o sistema em aplicativos e totens, fazendo com que não seja necessária uma interação humana para o cliente obter o seu pedido.

IA na experiência do cliente

O uso mais presente e que não há previsão para ser retirado de Inteligência Artificial na alimentação é no atendimento ao cliente. Inserindo um chatbot nos canais de atendimento, as marcas conseguem oferecer uma resposta rápida para os interessados, agilizando as mensagens mais rápidas e automáticas que precisam ser informadas.

Em larga escala, a IA auxilia também a gerenciar reservas, e até mesmo a receber pedidos via sites, redes sociais e aplicativos.

Brasil está entre os países que mais usam IA

A pesquisa quantificou um total de 2,4 bilhões de acessos globais no primeiro mês de 2024, na OpenIA. Desse número, correspondente a um aumento de quase 180% em relação ao mesmo período de 2023, 5,16% vieram do Brasil. O país, portanto, ficou na quarta posição, perdendo apenas para Estados Unidos (19,78%), Índia (11,62%) e Indonésia (6,17%), nesta ordem. 

O estudo feito pela empresa Semrush, de gerenciamento de dados de visibilidade on-line, trouxe os seus outros seis colocados presente no TOP-10: Filipinas (4,72%), Alemanha (2,85%), Canadá (2,7%), Reino Unido (2,67%), França (2,35%) e Espanha (2,01%), respectivamente. Os homens, com 67,5% foram os usuários que mais acessaram a plataforma, e a faixa etária mais incidente percebido inclui pessoas entre 25 e 34 anos.


Seis meses após o lançamento do ChatGPT, já havia 170 milhões de usuários na plataforma (Foto: reprodução/InvestNews)

Nova era da web

A inteligência artificial simplesmente está revolucionando a vida no século XXI. Hoje, sistemas computacionais conseguem realizar um atendimento ao cliente, analisar informações pessoais para a concessão de empréstimos bancários, recomendar conteúdos em plataformas de streaming, direcionar adequadamente uma propaganda, entre outras atividades “humanas”. As empresas, cientes desse potencial de produzir mais, com um menor custo, estão em uma corrida pela liderança nessa área, como os assistentes de chatbot.

Em novembro de 2022, o ChatGPT foi inaugurado. Após três meses, veio o Bing Chat, o agora Microsoft Copilot. Depois, a Google lançou a Bard, contemporânea da Grok, da companhia xIA, do bilionário Elon Musk. Até 2040, o Fundo Econômico Mundial acredita que as IAs impactarão economicamente em 4,4 trilhões de dólares no mundo. No Brasil, conforme o Mapa do Ecossistema dos Bots, em setembro do ano passado, já haviam mais de 144 mil chatbots ativos. 

Movimentação no Palácio do Planalto

Inclusive, nesta quinta-feira (07), o presidente Lula pediu aos membros do Conselho nacional de Ciência e Tecnologia para elaborar um plano nacional de inteligência artificial. A ideia é que a nação não se torne apenas uma espectadora do que acontece na Europa, EUA ou China, e se estabeleça competitivamente neste mercado.