Os dados revelam que “Claude fica menos inteligente” não é um mito urbano; o modelo de IA é instável, constituindo um risco empresarial

Depois de a IA se tornar uma ferramenta padrão nas empresas, um fenómeno que, no passado, era visto como um «problema de percepção corporal» está a ganhar rapidamente visibilidade: os LLM (modelos de linguagem de grande escala) estão a «ficar mais estúpidos». Um utilizador Wisely Chen apontou que, por «LLM a perder inteligência», não se trata de um boato urbano, mas sim de algo que já pode ser acompanhado de forma contínua através de dados, e que está a causar impactos reais nos fluxos de trabalho das empresas.

Ele deu como exemplo a sua experiência: a 15 de abril, os serviços da série Claude da Anthropic sofreram uma degradação total, incluindo claude.ai, API e Claude Code, que apresentaram todos «Degraded Performance». Isto não é apenas uma questão de ficar mais lento ou de erros ocasionais, mas sim uma quebra clara da qualidade das respostas, chegando até ao ponto de não ser possível usar normalmente, o que fez com que as três tarefas de desenvolvimento do próprio dia ficassem todas atrasadas.

Para este tipo de cenário, para os programadores individuais pode ser apenas uma diminuição de eficiência; mas para as equipas de TI das empresas, o impacto é ampliado em múltiplas vezes. Quando uma equipa tem vários engenheiros a dependerem em simultâneo de ferramentas de IA para coding, redação de documentos e automatização de processos, uma degradação do modelo num único momento significa que a produtividade global diminui coletivamente nesse mesmo período, o que se transforma em perdas consideráveis de tempo e custos.

A IA parece ter ficado mais estúpida? Os dados confirmam que «já tinha degradado»

Wisely Chen aponta que «o GPT ficou mais estúpido» e «o Claude não é como antes» circulam há muito tempo na comunidade, mas durante muito tempo faltaram dados objetivos que sustentassem essas afirmações. Só até recentemente, com o aparecimento de plataformas de monitorização contínua da qualidade dos modelos, este fenómeno foi quantificado pela primeira vez.

Entre essas plataformas, o StupidMeter realiza testes automáticos 24 horas a modelos de referência, incluindo OpenAI, Anthropic, Google, etc., acompanhando indicadores como exatidão, capacidade de raciocínio e estabilidade. Ao contrário dos benchmark tradicionais feitos uma única vez, este tipo de sistemas aproxima-se mais da forma como as empresas monitorizam uma API ou a disponibilidade de serviços, observando as flutuações do desempenho do modelo em ambientes reais de utilização.

Os resultados dos dados são bastante diretos: neste momento, a maioria dos modelos de referência encontra-se em estado de aviso ou de degradação, e apenas alguns poucos mantêm-se no normal. Isto significa que a qualidade dos modelos é instável; não é um problema de um único produto, mas sim um fenómeno generalizado em toda a indústria.

LLM a perder inteligência «por baixo do radar»; impacto na estabilidade dos fluxos de trabalho em IA nas empresas

Para as empresas, esta mudança representa que a IA deixou de ser «uma ferramenta para aumentar a eficiência» e passou a ser «uma variável que afecta a estabilidade». Se os fluxos de trabalho diários de uma empresa, desde escrever programas, fazer code review, até produzir documentos e relatórios de análise, já dependem fortemente de LLM, então, quando num dia o modelo apresentar uma queda de capacidade de raciocínio ou uma degradação na qualidade das respostas, esses problemas não se manifestam de forma localizada como os bugs de software tradicionais; em vez disso, vão penetrar simultaneamente em todos os momentos em que se usa IA.

O mais crítico é que estas flutuações são, muitas vezes, difíceis de prever e difíceis de detetar em tempo real. A maioria das empresas não dispõe de mecanismos para monitorizar continuamente a qualidade dos modelos; normalmente só percebe que o problema está no próprio modelo depois de resultados anómalos ou após a queda da eficiência da equipa. Neste tipo de cenário, «perder inteligência» deixa de ser apenas uma perceção subjectiva dos utilizadores e passa a ser um risco sistémico que afecta diretamente o ritmo das operações da empresa.

Quando a IA se torna eletricidade e água, a estabilidade torna-se o novo indicador-chave

Wisely Chen compara o papel dos LLM a «eletricidade e água da empresa moderna». Quando a IA se infiltra nas operações do dia-a-dia e se torna uma capacidade básica indispensável, a importância da sua estabilidade também aumenta.

No passado, ao avaliar ferramentas de IA, as empresas focavam-se sobretudo nas capacidades do modelo, no preço e nas funcionalidades; mas com o surgimento do fenómeno de «perder inteligência», está a emergir outro indicador ainda mais decisivo: a estabilidade. Quando a qualidade do modelo pode mudar sem aviso, as empresas deixam de ser apenas «utilizadoras de IA» e passam a ter de assumir um novo tipo de risco de infraestruturas. O mais desesperante é que, se olharmos apenas para os grandes modelos de linguagem de ponta, basicamente, enquanto o problema de capacidade de computação não estiver resolvido, pode continuar a acontecer.

Este artigo «Dados revelam que “Claude perdeu inteligência” não é boato urbano; modelos de IA instáveis tornam-se risco para as empresas» foi publicado pela primeira vez em «Cadeia de Notícias ABMedia».

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Bundesbank alerta que o modelo Mythos da Anthropic poderá expor fragilidades nos sistemas bancários europeus

Mensagem da Gate News, 21 de abril — O presidente da Bundesbank da Alemanha, Joachim Nagel, alertou na terça-feira que o modelo de IA Mythos da Anthropic representa riscos significativos de cibersegurança para as instituições financeiras europeias e apelou a um acesso mais amplo à tecnologia. Nagel, que também é membro do Conselho de Governação do Banco Central Europeu

GateNews20m atrás

As exportações de semicondutores da Coreia do Sul disparam 182,5% no início de abril com a procura de chips de IA

A procura de IA impulsionou as exportações e os lucros dos semicondutores da Coreia para a Samsung e a SK hynix; as remessas para a China e os EUA aumentaram. Ainda assim, subsistem riscos de políticas devido a tarifas dos EUA, apesar de um nível recorde em 2025. Resumo: O artigo relata que as exportações de semicondutores da Coreia do Sul dispararam no início de abril, impulsionadas pela procura relacionada com IA, que aumentou as remessas de chips de memória e os lucros da Samsung Electronics e da SK hynix. As exportações subiram para 18,3 mil milhões de dólares em 1–20 de abril, enquanto as exportações totais aumentaram 49,4% para 50,4 mil milhões de dólares e o saldo comercial atingiu 10,4 mil milhões de dólares. A China e os Estados Unidos foram os principais mercados de crescimento, e as exportações de semicondutores em 2025 atingiram um recorde de 173,4 mil milhões de dólares, acima de mais de 20% face ao ano anterior. No entanto, persistem incertezas de política: uma tarifa de 25% dos EUA sobre certos chips de computação avançada pode afetar o sentimento, ficando as exportações de chips de memória excluídas, e as tensões no Médio Oriente e políticas de tarifas mais amplas podem pesar no panorama.

GateNews20m atrás

Economistas apontam as oportunidades de emprego após a vaga de desemprego provocada pela IA: o valor da escassez muda para os “serviços emocionais”

Imas indica que a IA não vai substituir totalmente a mão de obra humana, mas sim transferir a escassez para uma economia com o foco nas emoções e nas relações. O experimento da Starbucks revela as falhas da automatização: a retenção de clientes depende da forma como se trata o cliente e da atmosfera. A transformação da estrutura histórica e o fenómeno de Baumol mostram que a IA reduz os preços de bens padronizados; a escassez, por sua vez, requer um valor de perceção elevado que dependa da interação interpessoal. O foco futuro estará nos serviços emocionais e em áreas como o trabalho manual, mas as questões da distribuição global e do rendimento básico ainda precisam de ser resolvidas.

ChainNewsAbmedia27m atrás

Artefactos do Claude Live: painel com ligação directa à aplicação, actualização automática em tempo real

De acordo com o anúncio oficial da X da Claude, a Anthropic lançou a funcionalidade Live Artifacts na aplicação de ambiente de trabalho Cowork da Claude em 20 de abril, permitindo que os gráficos, painéis e rastreadores gerados por IA se liguem diretamente às aplicações e ficheiros do utilizador, e que sejam atualizados automaticamente com os dados mais recentes quando abertos. Os Live Artifacts estão disponíveis para todos os utilizadores do Cowork nos planos pagos da Claude (Pro, Max, Team, Enterprise). Funcionalidades principais dos Live Artifacts: de saídas estáticas a uma ligação em tempo real No passado, depois de gerados, os Claude Artifacts ficavam desligados da realidade — se o utilizador quisesse atualizar os dados, só podia voltar a colar os dados e pedir que o Claude os regenerasse. L

ChainNewsAbmedia47m atrás

Startup sul-coreana de armazenamento de IA Dnotitia angaria US$61,2 milhões na ronda de financiamento Série A

Mensagem do Gate News, 21 de abril — A startup sul-coreana de armazenamento de IA Dnotitia levantou 90 mil milhões de won (US$61.2 milhões) numa ronda de financiamento Série A liderada pela Elohim Partners. A Kiwoom Investment e a Shinhan Venture Investment também participaram na ronda. Os principais produtos da Dnotitia são a base de dados de vetores Seahorse

GateNews50m atrás

O fundador da Pi Network, a 7 de maio, na Consensus 2026, discutiu a identificação da identidade humana na era da IA

O fundador da Pi Network, Nicolas Kokkalis, vai participar no dia 7 de Maio na conferência Consensus 2026, a decorrer em Miami, juntando-se a um painel de especialistas para discutir questões de identificação humana online na era da inteligência artificial (IA). De acordo com o programa oficial do evento, esta discussão em painel reunirá especialistas nas áreas da identidade, privacidade e confiança digital.

MarketWhisper2h atrás
Comentar
0/400
Nenhum comentário