Engenho de respostas por IA em contaminação colectiva: 56% das respostas correctas do Gemini 3 não têm suporte de fontes

Com base no artigo de análise aprofundada publicado em 21 de abril de 2026 por Pedro Dias na The Inference, a falha dos modelos (model collapse) não é uma “ameaça futura” que o sector teme — está a acontecer já, de forma imediata, noutro formato: os motores de resposta por IA citam, no momento da consulta, conteúdos gerados por outras IAs como fonte de autoridade, sem que seja necessário que todo o ciclo de contaminação passe por nova re-treino do modelo. Este argumento utiliza como metáfora central a ideia de que “uma serpente que mordisca o próprio rabo (Ouroboros) aprendeu a citar-se a si própria”.

Diferenças-chave entre Model Collapse e Retrieval Contamination

As preocupações tradicionais sobre a degradação dos modelos de IA giram em torno do model collapse: conteúdos sintéticos contaminam progressivamente os dados de treino, levando a uma queda da qualidade nos modelos das gerações futuras. Este é um risco crónico, que só se torna visível após múltiplas rondas de re-treino.

O aviso apresentado por Pedro Dias é uma camada diferente: a retrieval contamination (contaminação por pesquisa). Motores de resposta baseados em RAG (retrieval-augmented generation) como Perplexity, Google AI Overviews, ChatGPT, Grok, etc., captam, no instante em que o utilizador faz uma pergunta, conteúdos de páginas Web como base para a resposta. Se a página captada tiver, ela própria, conteúdo errado gerado por IA, o motor apresenta-o como facto aos leitores — e esta contaminação não requer qualquer re-treino para se tornar ativa imediatamente.

Três casos reais: motores de IA enganados por desinformação que eles próprios geraram

O autor lista três incidentes específicos:

  1. Caso Lily Ray: a Perplexity citou um suposto update de algoritmo do Google chamado “September 2025 Perspective Core Algorithm Update” como informação de referência — esse update não existe; a fonte era um falso post de blog SEO gerado por IA.

  2. Teste de Thomas Germain: o jornalista Thomas Germain publicou um blogue experimental “o jornalista tecnológico mais forte a comer hot-dogs”; em 24 horas, ficou em primeiro lugar e foi citado pelo Google AI Overviews e pelo ChatGPT, e ainda inventou uma “competição desportiva no Dakota do Sul” inexistente para dar suporte.

  3. Grokipedia: o projecto enciclopédico da xAI da Musk já gerou ou reescreveu 885,279 artigos, incluindo factos errados (por exemplo, a data de falecimento do pai da cantora canadiana Feist está errada) e citações sem suporte. A Grokipedia já perdeu grande parte da sua visibilidade no Google em meados de fevereiro de 2026.

Estudo Oumi: Gemini 3 com alta taxa de acerto, mas 56% sem fontes

Avaliação encomendada pelo NYT e realizada pela Oumi: Gemini 2 tem 85% de taxa de acerto no benchmark SimpleQA, e Gemini 3 melhora para 91%. Mas o mesmo teste mostra que, nas respostas corretas do Gemini 3, 56% são “ungrounded” — o modelo acerta na resposta, mas não há fontes de suporte verificáveis; no caso do Gemini 2, essa proporção é de 37%.

Isto significa que os novos modelos geracionais estão “mais precisos na forma” ao dar respostas, mas ao mesmo tempo pioram em “rastreabilidade das fontes das respostas”. Para cenários como comunicação social, investigação, verificação de factos, etc., esta pioria é mais fatal do que uma taxa de erro puramente mais alta, porque os leitores não conseguem recuar até aos documentos de autoridade originais para verificar por si.

Dimensão da indústria: Google AI Overviews abrange 2 mil milhões de utilizadores

A escala industrial deste problema de contaminação: Google AI Overviews tem mais de 2 mil milhões de utilizadores ativos mensais, o Google tem mais de 5 triliões de pesquisas anuais, e o ChatGPT tem quase 900 milhões de utilizadores semanais (50 milhões pagos). Ou seja, a grande maioria dos utilizadores da Internet obtém informação factual através de canais que já passaram pela camada de motores de resposta que podem estar contaminados por conteúdos gerados por IA.

Outro estudo da Ahrefs mostra que, entre as fontes citadas pelo ChatGPT, 44% são artigos de listas do tipo “best X”. Este tipo de artigos é precisamente o conteúdo de IA produzido em massa pela indústria de SEO para combater a perda de tráfego para os motores de resposta — constituindo, em particular, uma das principais fontes de contaminação para esses motores.

Conclusão estrutural: a camada de citações já se desligou da identidade de autores fiáveis

A conclusão final do autor: a camada de citações dos motores de resposta por IA já se desligou da identidade de autores fiáveis. A indústria de SEO produz conteúdos de IA → os motores de resposta os captam como facto → os leitores acreditam → a indústria de SEO recebe incentivos para continuar a produzir ainda mais conteúdos de IA, formando um ciclo de contaminação de auto-reforço. Neste momento, não existe um mecanismo claro de responsabilização na indústria que exija que os motores de IA respondam pela qualidade das fontes que citam.

Para os utilizadores, isto significa que, na fase atual, não se pode tratar as respostas do Perplexity, AI Overviews e ChatGPT como o ponto final de verificação de factos; ainda é necessário recuar manualmente até às fontes oficiais originais para garantir a precisão.

Este artigo “contaminação em massa dos motores de resposta por IA: 56% das respostas corretas do Gemini 3 sem suporte de fontes” apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Casa Branca acusa a China de roubo de modelos de IA em “escala industrial”

A Casa Branca alertou a 23 de abril de 2026 que entidades estrangeiras, principalmente na China, estão a conduzir campanhas de “escala industrial” para copiar modelos de inteligência artificial americanos, de acordo com um memorando de Michael Kratsios, Assessor de

CryptoFrontier28m atrás

OpenClaw 2026.4.22 Unifica o Ciclo de Vida dos Plugins Entre os Harness Codex e Pi, Reduz o Tempo de Carregamento dos Plugins em Até 90%

Mensagem do Gate News, 23 de abril — OpenClaw, uma plataforma open-source de Agentes de IA, lançou a versão 2026.4.22 a 22 de abril, com a sua maior mudança a ser o alinhamento dos ciclos de vida do Codex harness e do Pi harness. Anteriormente, os plugins comportavam-se de forma inconsistente entre as duas vias de harness, com alguns hooks em falta em certos ambientes.

GateNews1h atrás

Reppo Foundation garante um compromisso de $20M da Bolts Capital para uma infra-estrutura de dados de treino de IA

Mensagem de Gate News, 23 de Abril — A Reppo Foundation anunciou que recebeu um compromisso de financiamento estratégico de $20 milhões da Bolts Capital para impulsionar o desenvolvimento do protocolo e a expansão do ecossistema, com foco na construção de infraestruturas de dados de treino de IA impulsionadas por mercados de previsão. A abordagem central da Reppo

GateNews2h atrás

UE vai redigir directrizes que exigem que a Google forneça às aplicações de IA de terceiros acesso Android equivalente ao da Gemini

Mensagem do Gate News, 23 de Abril — A União Europeia irá redigir directrizes que exigem que a Google forneça ao ChatGPT e ao Claude o mesmo acesso à funcionalidade no Android que a Gemini recebe, de acordo com fontes do mercado. A medida visa garantir que as aplicações de IA de terceiros tenham permissões e

GateNews2h atrás

Cluster Protocol Angaria $5M em Financiamento, DAO5 Lidera a Ronda

Mensagem do Gate News, 23 de abril — A Cluster Protocol, uma empresa de infraestruturas Web3 e deep tech em IA, anunciou a conclusão de uma ronda de financiamento de $5 milhões liderada pela DAO5, com participação da Paper Ventures, JPEG Trading e Mapleblock Capital. O financiamento total da empresa até à data atinge 7,75 milhões de dólares

GateNews2h atrás

Presidente dos EAU discute oportunidades em IA e no espaço com Musk e Fink

Mensagem do Gate News, 23 de abril — O Presidente dos EAU, xeque Mohamed bin Zayed Al Nahyan, reuniu-se em conversações com o fundador da SpaceX, Elon Musk, e com o presidente da BlackRock, Larry Fink, sobre possíveis oportunidades em inteligência artificial e no setor espacial. Musk falou com o líder emiratense por telefone, de acordo com os EAU

GateNews3h atrás
Comentar
0/400
Nenhum comentário