A Bloomberg informou que um grupo privado de fórum terá anunciado publicamente, no próprio dia, uma suposta ultrapassagem do controlo relacionada com o modelo de cibersegurança Mythos, da empresa de segurança na infraestrutura da Anthropic, pertencente à Anthropic. Ao aceder ao sistema através das permissões de acesso detidas por um empreiteiro terceiro, conseguiram utilizar o modelo, suscitando preocupações no exterior sobre a governação e segurança dos principais modelos de IA.
(A Anthropic lançou o programa global de cibersegurança Glasswing, e o novo modelo Mythos: por que motivo não é disponibilizado ao público?)
No primeiro dia de funcionamento, o Mythos foi alvo de acesso não autorizado
A Anthropic anunciou, a 7 de abril, um novo modelo de IA de segurança na rede, o Claude Mythos. No entanto, um grupo privado de fórum online, cuja identidade ainda não foi divulgada, terá, segundo relatos, obtido silenciosamente permissões de acesso a este modelo.
Ao que se sabe, estas pessoas não terão penetrado através de métodos tradicionais de pirataria, mas antes aproveitado o conhecimento do formato de URL dos modelos anteriores da Anthropic, deduzindo plausivelmente a localização online do Mythos no sistema. A falha decisiva residia num funcionário que trabalhava para um empreiteiro terceiro da Anthropic. Ele já tinha autorização legal para consultar modelos de IA da Anthropic; os membros do grupo, por sua vez, infiltraram-se no sistema através desta entrada conforme.
Depois disso, o grupo forneceu à Bloomberg capturas de ecrã e uma demonstração em tempo real das operações como prova, e revelou que continua a utilizar o Mythos até ao presente, mas enfatizou que o seu objetivo se limita a «brincar com o novo modelo», sem intenção de praticar quaisquer atos de destruição, porque não querem ser descobertos.
O que é o Mythos? Porque é que isso suscitou preocupação no exterior?
O Claude Mythos é um modelo de IA desenvolvido pela Anthropic especificamente para defesa de cibersegurança de empresas, definido pela equipa como uma ferramenta «demasiado potente para ser publicada abertamente». A sua capacidade central consiste em identificar proactivamente vulnerabilidades de segurança em sistemas digitais, ajudando as empresas a concluir a correção antes de sofrerem ataques.
No entanto, esta «espada da defesa» também pode ser uma «faca de dois gumes». A Anthropic reconheceu que, se o Mythos cair nas mãos de indivíduos maliciosos, as suas capacidades também podem ser usadas para lançar ataques. Por isso, a empresa, através do programa de cibersegurança denominado «Project Glasswing», apenas disponibiliza o Mythos a um número reduzido de grandes instituições ou empresas tecnológicas que foram submetidas a uma auditoria rigorosa.
A premissa central deste mecanismo fechado de controlo é a seguinte: os parceiros de confiança conseguem garantir que as permissões de acesso não se divulguem entre si.
(A Anthropic levanta preocupações com a supervisão do Mythos; altos executivos da Baesente e Powell convocam uma reunião de emergência bancária)
Resposta da Anthropic: está a investigar; não há impacto
A Anthropic respondeu afirmando: «Estamos a investigar um relatório que afirma que houve acesso não autorizado ao Claude Mythos Preview através de um ambiente de fornecedor terceiro.» A empresa salientou que, até ao momento, não foi detetado que os seus sistemas tenham sido afetados e que, preliminarmente, este caso é «mais suscetível de resultar num abuso das permissões de acesso do que de um ataque de hackers externos».
Mesmo que, até agora, os utilizadores que conseguiram usar o Mythos antecipadamente não tenham realizado quaisquer ações maliciosas, o incidente em si continua a deixar os especialistas em cibersegurança em elevado estado de alerta. O diretor-executivo da empresa de segurança Smarttech247, Raluca Saceanu, apontou:
Quando ferramentas de IA poderosas são acedidas ou utilizadas fora dos mecanismos de controlo estabelecidos, o risco não se limita a um incidente de cibersegurança; é mais provável que também suscite suspeitas de fraude, abuso de rede ou outros usos maliciosos.
Que impacto é que isto pode causar? As fragilidades no controlo da segurança da IA
O que verdadeiramente suscita receio neste caso não é a tentativa de sabotagem, mas sim a fragilidade sistémica que ele revela: quando uma empresa de IA delega o acesso a modelos altamente sensíveis para fornecedores terceiros, qualquer falha num dos elos da rede de controlo, pode tornar-se uma brecha e desencadear uma crise.
Agora, o incidente do Mythos lembra toda a indústria que, numa altura em que as capacidades da IA estão a evoluir rapidamente, a conceção da arquitetura de segurança não pode depender apenas da confiança; precisa também de resiliência institucional capaz de suportar a falha da confiança. Para a Anthropic, a forma de reconstruir a confiança do público no seu mecanismo de controlo sobre os parceiros será um desafio mais longo do que a própria investigação.
Este artigo, «O modelo de cibersegurança ao nível de armas da Anthropic, o Mythos, sofreu acesso não autorizado: como é que eles conseguiram fazer isso?» surgiu pela primeira vez em «cadeia de notícias ABMedia».
Related Articles
A Anthropic revela três falhas do Claude Code em cascata: degradação do raciocínio, esquecimento do cache e reação adversa de comandos de 25 caracteres
A Casa Branca acusa a China de roubo de modelos de IA em “escala industrial”
OpenClaw 2026.4.22 Unifica o Ciclo de Vida dos Plugins Entre os Harness Codex e Pi, Reduz o Tempo de Carregamento dos Plugins em Até 90%
Reppo Foundation garante um compromisso de $20M da Bolts Capital para uma infra-estrutura de dados de treino de IA
UE vai redigir directrizes que exigem que a Google forneça às aplicações de IA de terceiros acesso Android equivalente ao da Gemini
Cluster Protocol Angaria $5M em Financiamento, DAO5 Lidera a Ronda