Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Ainda está comprando o centro de transferência de IA no Taobao? O denunciante do código fonte do Claude Code vazado: pelo menos dezenas foram envenenadas
Revelações recentes de uma pesquisa sobre o whistleblower do vazamento do código fonte do Claude Code revelam que os centros de transferência de IA no mercado escondem riscos de segurança cibernética. Testes práticos mostram que alguns centros de transferência podem roubar credenciais, chaves privadas de carteiras ou injetar códigos maliciosos, tornando-se pontos de ataque na cadeia de suprimentos.
Whistleblower do vazamento do código fonte do Claude Code, revela riscos de segurança dos centros de transferência de IA
Recentemente foi publicada uma pesquisa intitulada “Seu Agente é Meu” (Your Agent Is Mine), cujo um dos autores é o whistleblower Chaofan Shou, que revelou inicialmente o vazamento do código fonte do Claude Code.
Este artigo faz uma análise sistemática de ameaças de segurança relacionadas ao roteador de API de terceiros para grandes modelos de linguagem (LLM), também conhecido como centro de transferência, e revela que esses centros podem se tornar pontos de ataque na cadeia de suprimentos.
O que é um centro de transferência de IA?
Devido ao consumo elevado de tokens ao chamar LLMs, gerando custos de computação altos, os centros de transferência de IA podem usar cache para repetir perguntas e contextos, ajudando os clientes a economizar significativamente nos custos.
Ao mesmo tempo, esses centros possuem funções de alocação automática de modelos, podendo trocar dinamicamente entre diferentes modelos com padrões de cobrança e desempenho variados, de acordo com a dificuldade da questão do usuário, além de alternar automaticamente para modelos de backup caso o servidor principal falhe, garantindo estabilidade na conexão do serviço.
Centros de transferência são especialmente populares na China, pois o país não consegue usar diretamente certos produtos de IA estrangeiros. Além disso, a demanda por cobrança local faz desses centros uma ponte importante entre modelos upstream e desenvolvedores downstream. Plataformas como OpenRouter e SiliconFlow também pertencem a essa categoria de serviço.
No entanto, embora pareçam reduzir custos e facilitar o acesso técnico, esses centros escondem riscos de segurança cibernética de grande magnitude.
Fonte: Pesquisa revela riscos de ataques na cadeia de suprimentos de centros de transferência de IA
Centros de transferência de IA têm acesso completo, criando vulnerabilidades na cadeia de suprimentos
A pesquisa aponta que os centros operam na camada de aplicação da arquitetura de rede, tendo acesso completo ao conteúdo de cargas JSON transmitidas.
Como a comunicação entre o cliente e o fornecedor do modelo upstream não possui uma verificação de integridade de criptografia ponta a ponta, os centros podem facilmente visualizar e modificar chaves de API, prompts do sistema e parâmetros de chamadas de ferramentas na saída do modelo.
A equipe de pesquisa destacou que, já em março de 2026, o roteador de código aberto LiteLLM foi alvo de um ataque de confusão de dependências, permitindo que atacantes injetassem código malicioso na pipeline de processamento de requisições, evidenciando a vulnerabilidade dessa etapa.
Testes práticos mostram comportamento malicioso em dezenas de centros de transferência de IA
A equipe comprou 28 centros de transferência pagos em plataformas como Taobao, Xianyu e Shopify, além de coletar 400 centros gratuitos de comunidades públicas para testes aprofundados, e os resultados revelaram que 1 centro pago e 8 centros gratuitos injetaram códigos maliciosos ativamente.
Entre as amostras de centros gratuitos, 17 tentaram usar credenciais AWS criadas pelos pesquisadores, e 1 deles chegou a roubar criptomoedas da carteira Ethereum dos pesquisadores.
Dados adicionais indicam que, ao reutilizar credenciais vazadas de upstream ou direcionar tráfego para nós com menor proteção de segurança, centros aparentemente normais podem ser involuntariamente envolvidos na mesma superfície de ataque.
Durante os testes de infecção, a equipe descobriu que esses nós afetados processaram mais de 2,1 bilhões de tokens, expondo 99 credenciais reais em 440 sessões, sendo que 401 sessões estavam operando de forma totalmente autônoma, permitindo que atacantes injetassem cargas maliciosas facilmente, sem necessidade de condições complexas de disparo.
Fonte: Pesquisa revela que mais de 400 centros de transferência foram testados, com dezenas apresentando comportamentos maliciosos
Quatro principais técnicas de ataque expostas
A pesquisa categoriza as ações maliciosas dos centros de transferência em duas categorias principais e duas variantes de evasão adaptativa.
Para evitar detecção de segurança convencional, os atacantes evoluíram para técnicas de injeção de dependências, alterando nomes de pacotes em comandos de instalação de software, substituindo pacotes legítimos por versões maliciosas com nomes iguais ou confusos, publicados em repositórios públicos, criando backdoors persistentes na cadeia de suprimentos.
Outra técnica é a entrega condicional, onde ações maliciosas só são ativadas sob certas condições, como quando o número de requisições ultrapassa 50 ou quando o sistema está operando de forma totalmente autônoma (modo YOLO), para evitar testes de segurança limitados.
Três medidas de defesa viáveis
Diante de ataques de cadeia de suprimentos que envenenam centros de transferência de IA, a pesquisa propõe três estratégias de defesa:
Apelo aos fornecedores upstream para implementar mecanismos de autenticação criptográfica
Embora as defesas no cliente possam reduzir alguns riscos atualmente, elas não resolvem a vulnerabilidade fundamental na verificação de identidade na origem. Desde que alterações nos centros de transferência não acionem alertas de anomalia no cliente, atacantes podem facilmente modificar a semântica da execução do programa e causar danos.
Para garantir a segurança do ecossistema de agentes de IA de forma definitiva, é necessário que os fornecedores upstream adotem mecanismos de resposta com verificação criptográfica. Somente vinculando rigorosamente os resultados gerados pelo modelo às instruções finais executadas pelo cliente, será possível assegurar a integridade ponta a ponta dos dados e prevenir integralmente os riscos de cadeia de suprimentos causados por alterações nos centros de transferência.
Leituras adicionais:
OpenAI usa o Mixpanel e ocorreu uma violação! Dados de alguns usuários vazaram, atenção a ataques de phishing
Um erro de copiar e colar fez 50 milhões de dólares evaporarem! Fraudes com endereços criptográficos voltaram, como se proteger?