O termo “apodrecimento cerebral” foi usado para descrever o efeito do consumo excessivo de conteúdo online sobre a cognição humana. Um novo estudo agora investiga se os modelos de inteligência artificial, que aprendem a partir de vastos conjuntos de dados da internet, poderiam sofrer do mesmo mal.
Para isolar o efeito da qualidade dos dados, os pesquisadores realizaram um experimento controlado. Quatro modelos de IA foram continuamente treinados com “dados ruins” (como posts curtos e altamente populares) e comparados a um grupo de controle treinado com dados de alta qualidade (textos mais longos e com baixo engajamento).
Os resultados foram claros: o treinamento contínuo com esse “conteúdo precário” publicado online causou declínios significativos no raciocínio (de 74,9% para 57,2%), na compreensão de contextos longos (de 84,4% para 52,3%) e até nos padrões éticos dos modelos. Aliás, o estudo observou um aumento em “traços sombrios” de personalidade, como psicopatia e narcisismo. O efeito mostrou-se dose-dependente: quanto mais “conteúdo questionável” no treinamento, pior o desempenho.
A análise identificou a principal falha: os modelos começaram a praticar o que os autores chamaram de “pulo de pensamento”. Trata-se de um processo no qual a IA deixa de raciocinar passo a passo, truncando ou omitindo partes inteiras da lógica para chegar mais rápido a uma resposta.
O aspecto mais preocupante é que o dano se mostrou persistente. Mesmo após tentativas de correção, com novos ciclos de treinamento usando dados de melhor qualidade, a recuperação foi apenas parcial. O estudo conclui que a curadoria e a qualidade dos dados constituem um problema crítico de segurança, sugerindo a necessidade de verificações de saúde cognitiva para modelos de IA.
Imagem via Flickr
