Um relatório divulgado por membros da NewsGuard mostrou, recentemente, um aumento no compartilhamento de informações falsas pelas Inteligências Artificiais. Cientistas justificam esses dados como resultado da nova configuração dos Chatbots, que permite a criação de respostas para qualquer pedido feito, ao invés de se negarem a responder certos tipos de solicitações, como ocorria há um ano atrás.
Dentro do relatório, foram listadas as dez ferramentas de IA mais utilizadas no mundo: ChatGPT-5 da OpenAI, Smart Assistant da You.com, Grok da xAI, Pi da Inflection, le Chat da Mistral, Copilot da Microsoft, Meta AI, Claude da Anthropic, Gemini do Google e mecanismo de resposta da Perplexity. Esse é o primeiro relatório divulgado pela Newsguard criticando Chatbots.
Mudança no treinamento explica falhas
Os cientistas descobriram que, em média, os Chatbots compartilharam informações mentirosas em 35% das vezes, quando usuários solicitaram tópicos de notícias contestáveis, um percentual que quase atingiu o dobro do ano passado, de 36%.
A Infection, por exemplo, mostrou a pior porcentagem de informações falsas sobre notícias, com 57%, superando a Perplexity com 47% e o ChatGPT com 40%. O Claude foi a IA com a menor porcentagem, disseminando informações falsas em 10% das vezes.
Inteligência Artificial Perplexity (Foto: reprodução/NurPhoto/Getty Images Embed)
A editora de IA e influência estrangeira da NewsGuard, McKenzie Sadeghi, justificou que isso é um resultado das mudanças nas ferramentas de IA, pois atualmente, elas obtêm dados de internet em tempo real, que muitas vezes são obtidos de fontes não confiáveis, ao invés de se negarem a falar de assuntos sensíveis como era feito antes.
A NewsGuard, descobriu, no começo de 2025, que as dez principais Inteligências Artificiais estavam fortalecendo o sistema de desinformação de Moscou, ao compartilhar dados falsos da rede pró-Kremlin Pravda em um percentual de 33%. Por conta disso, 3.600.000 de propagandas russas estão incluídas no sistema de IA ocidentais, prejudicando seus resultados com falsas informações e propaganda.
Exposição dos chatbots e impacto público
Uma investigação do American Sunlight Project revelou que os domínios e subdomínios ligados ao Pravda quase dobraram, chegando a 182. Segundo a equipe, esses sites apresentam navegação precária, sem mecanismos de busca, com formatação falha e rolagem instável — um indício de que não foram feitos para leitores humanos, mas para sistemas de inteligência artificial. Para Nina Jankowicz, cofundadora e CEO do American Sunlight Project, a expansão das operações de influência russas representa uma ameaça real ao debate democrático em escala global.
A rede Pravda consegue espalhar desinformação em nível sem precedentes e, ao mesmo tempo, tem potencial para afetar modelos de IA, ampliando ainda mais os riscos. Em um cenário sem regras claras de regulação nos Estados Unidos, a recomendação é que os usuários redobrem a cautela ao consumir conteúdos online.O relatório mais recente do NewsGuard marcou a primeira vez em que a entidade expôs abertamente chatbots específicos.
“Durante o último ano, mantivemos a auditoria de IA de forma anônima para estimular o diálogo com as plataformas. Mas o aumento dos riscos nos obrigou a mudar de postura”, explicou Matt Skibinski, diretor de operações do NewsGuard. Segundo ele, ao identificar os chatbots, a organização oferece a legisladores, jornalistas, público e empresas de tecnologia um retrato claro de como as ferramentas de IA lidam com informações comprovadamente falsas.
