Com base no artigo de análise aprofundada publicado em 21 de abril de 2026 por Pedro Dias na The Inference, a falha dos modelos (model collapse) não é uma “ameaça futura” que o sector teme — está a acontecer já, de forma imediata, noutro formato: os motores de resposta por IA citam, no momento da consulta, conteúdos gerados por outras IAs como fonte de autoridade, sem que seja necessário que todo o ciclo de contaminação passe por nova re-treino do modelo. Este argumento utiliza como metáfora central a ideia de que “uma serpente que mordisca o próprio rabo (Ouroboros) aprendeu a citar-se a si própria”.
Diferenças-chave entre Model Collapse e Retrieval Contamination
As preocupações tradicionais sobre a degradação dos modelos de IA giram em torno do model collapse: conteúdos sintéticos contaminam progressivamente os dados de treino, levando a uma queda da qualidade nos modelos das gerações futuras. Este é um risco crónico, que só se torna visível após múltiplas rondas de re-treino.
O aviso apresentado por Pedro Dias é uma camada diferente: a retrieval contamination (contaminação por pesquisa). Motores de resposta baseados em RAG (retrieval-augmented generation) como Perplexity, Google AI Overviews, ChatGPT, Grok, etc., captam, no instante em que o utilizador faz uma pergunta, conteúdos de páginas Web como base para a resposta. Se a página captada tiver, ela própria, conteúdo errado gerado por IA, o motor apresenta-o como facto aos leitores — e esta contaminação não requer qualquer re-treino para se tornar ativa imediatamente.
Três casos reais: motores de IA enganados por desinformação que eles próprios geraram
O autor lista três incidentes específicos:
Caso Lily Ray: a Perplexity citou um suposto update de algoritmo do Google chamado “September 2025 Perspective Core Algorithm Update” como informação de referência — esse update não existe; a fonte era um falso post de blog SEO gerado por IA.
Teste de Thomas Germain: o jornalista Thomas Germain publicou um blogue experimental “o jornalista tecnológico mais forte a comer hot-dogs”; em 24 horas, ficou em primeiro lugar e foi citado pelo Google AI Overviews e pelo ChatGPT, e ainda inventou uma “competição desportiva no Dakota do Sul” inexistente para dar suporte.
Grokipedia: o projecto enciclopédico da xAI da Musk já gerou ou reescreveu 885,279 artigos, incluindo factos errados (por exemplo, a data de falecimento do pai da cantora canadiana Feist está errada) e citações sem suporte. A Grokipedia já perdeu grande parte da sua visibilidade no Google em meados de fevereiro de 2026.
Estudo Oumi: Gemini 3 com alta taxa de acerto, mas 56% sem fontes
Avaliação encomendada pelo NYT e realizada pela Oumi: Gemini 2 tem 85% de taxa de acerto no benchmark SimpleQA, e Gemini 3 melhora para 91%. Mas o mesmo teste mostra que, nas respostas corretas do Gemini 3, 56% são “ungrounded” — o modelo acerta na resposta, mas não há fontes de suporte verificáveis; no caso do Gemini 2, essa proporção é de 37%.
Isto significa que os novos modelos geracionais estão “mais precisos na forma” ao dar respostas, mas ao mesmo tempo pioram em “rastreabilidade das fontes das respostas”. Para cenários como comunicação social, investigação, verificação de factos, etc., esta pioria é mais fatal do que uma taxa de erro puramente mais alta, porque os leitores não conseguem recuar até aos documentos de autoridade originais para verificar por si.
Dimensão da indústria: Google AI Overviews abrange 2 mil milhões de utilizadores
A escala industrial deste problema de contaminação: Google AI Overviews tem mais de 2 mil milhões de utilizadores ativos mensais, o Google tem mais de 5 triliões de pesquisas anuais, e o ChatGPT tem quase 900 milhões de utilizadores semanais (50 milhões pagos). Ou seja, a grande maioria dos utilizadores da Internet obtém informação factual através de canais que já passaram pela camada de motores de resposta que podem estar contaminados por conteúdos gerados por IA.
Outro estudo da Ahrefs mostra que, entre as fontes citadas pelo ChatGPT, 44% são artigos de listas do tipo “best X”. Este tipo de artigos é precisamente o conteúdo de IA produzido em massa pela indústria de SEO para combater a perda de tráfego para os motores de resposta — constituindo, em particular, uma das principais fontes de contaminação para esses motores.
Conclusão estrutural: a camada de citações já se desligou da identidade de autores fiáveis
A conclusão final do autor: a camada de citações dos motores de resposta por IA já se desligou da identidade de autores fiáveis. A indústria de SEO produz conteúdos de IA → os motores de resposta os captam como facto → os leitores acreditam → a indústria de SEO recebe incentivos para continuar a produzir ainda mais conteúdos de IA, formando um ciclo de contaminação de auto-reforço. Neste momento, não existe um mecanismo claro de responsabilização na indústria que exija que os motores de IA respondam pela qualidade das fontes que citam.
Para os utilizadores, isto significa que, na fase atual, não se pode tratar as respostas do Perplexity, AI Overviews e ChatGPT como o ponto final de verificação de factos; ainda é necessário recuar manualmente até às fontes oficiais originais para garantir a precisão.
Este artigo “contaminação em massa dos motores de resposta por IA: 56% das respostas corretas do Gemini 3 sem suporte de fontes” apareceu pela primeira vez em Cadeia de Notícias ABMedia.
Related Articles
A Casa Branca acusa a China de roubo de modelos de IA em “escala industrial”
OpenClaw 2026.4.22 Unifica o Ciclo de Vida dos Plugins Entre os Harness Codex e Pi, Reduz o Tempo de Carregamento dos Plugins em Até 90%
Reppo Foundation garante um compromisso de $20M da Bolts Capital para uma infra-estrutura de dados de treino de IA
UE vai redigir directrizes que exigem que a Google forneça às aplicações de IA de terceiros acesso Android equivalente ao da Gemini
Cluster Protocol Angaria $5M em Financiamento, DAO5 Lidera a Ronda
Presidente dos EAU discute oportunidades em IA e no espaço com Musk e Fink