Estudo revela que IA perde coerência com exposição a conteúdo de baixa qualidade
Pesquisas indicam que modelos de IA, assim como humanos, podem perder precisão e coerência ao serem expostos a dados de qualidade inferior
Pesquisadores da Universidade do Texas, Texas A&M e Purdue divulgaram um estudo preocupante que revela como a inteligência artificial (IA) pode sofrer algo semelhante ao “Brain Rot”, um termo que descreve o impacto negativo do consumo excessivo de conteúdo superficial nas redes sociais sobre o cérebro humano.
A pesquisa sugere que, assim como os humanos, os modelos de IA também podem perder sua capacidade de raciocínio, precisão e coerência quando alimentados com dados rasos e atrativos, mas desprovidos de profundidade. Esse estudo levanta questões importantes sobre os efeitos de conteúdos virais e sensacionalistas na evolução da inteligência artificial.
O impacto do conteúdo nos modelos de IA
O termo “Brain Rot”, que se refere ao “apodrecimento cerebral”, tem ganhado força para descrever como o consumo contínuo de conteúdo raso e de pouca relevância pode prejudicar o cérebro humano. No entanto, um novo estudo revelou que esse fenômeno não afeta apenas os seres humanos.
Quando as IAs, que dependem de grandes volumes de dados para “aprender” e gerar respostas, são expostas a informações de baixa qualidade, elas também começam a apresentar falhas significativas. Isso levanta preocupações sobre o impacto de conteúdos superficiais não só em nós, mas também nas máquinas que usamos para tomar decisões.

Para testar essa teoria, os pesquisadores alimentaram modelos de IA com conteúdo de baixa qualidade, retirado de plataformas como o X (antigo Twitter). Eles usaram textos sensacionalistas, memes e discursos inflamados, que, à primeira vista, podem parecer coerentes, mas carecem de conteúdo substancial.
O impacto foi: as IAs apresentaram uma redução significativa na capacidade de raciocínio lógico e de gerar respostas precisas. Isso levantou uma questão importante, ao serem treinadas com dados de qualidade inferior, as IAs podem começar a imitar falhas cognitivas humanas, comprometendo ainda mais a confiabilidade de suas respostas.
Implicações da “higiene cognitiva” na IA
O estudo também apresentou o conceito de “higiene cognitiva”, que se refere à importância de garantir que as IAs sejam alimentadas com dados de alta qualidade, da mesma forma que o cérebro humano precisa de estímulos saudáveis para funcionar bem.
Os pesquisadores alertam que, com o aumento do conteúdo superficial e muitas vezes gerado por algoritmos na internet, as futuras gerações de IA podem começar a sofrer com distorções no raciocínio e na representação. Isso poderia prejudicar a confiança dos usuários nelas.
Com o crescente uso de IA em áreas sensíveis como saúde, justiça e educação, a qualidade dos dados que alimentam esses modelos se torna ainda mais importante. Se as IAs continuarem a ser alimentadas com conteúdo de baixa qualidade, suas decisões podem se tornar tão imprecisas quanto as respostas de um ser humano que consome dados sem critério. Portanto, os desenvolvedores de IA precisam estar atentos a essa “higiene cognitiva” para garantir que as máquinas não se tornem vítimas de um novo tipo de “apodrecimento mental” digital.
