Futuros
Centenas de contratos liquidados em USDT ou BTC
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A tecnologia central do agente de IA apresenta uma falha fatal: alerta de vulnerabilidade do 'LangChain'LangGrinch'
Fonte: TokenPost Título Original: AI 요원 핵심 기술에 치명적 결함… 랭체인 ‘LangGrinch’ 경보 발령 Link Original: A biblioteca chave na utilização de agentes de IA ‘LangChain core(langchain-core)’ foi descoberta com uma vulnerabilidade de segurança grave. O problema foi nomeado ‘LangGrinch’, permitindo que atacantes roubem informações sensíveis do sistema de IA. Essa vulnerabilidade pode abalar a segurança de muitas aplicações de IA a longo prazo, despertando a atenção de toda a indústria.
A startup de segurança em IA Cyata Security divulgou essa vulnerabilidade como CVE-2025-68664, atribuindo uma classificação de risco de 9.3 na sistema unificado de pontuação de vulnerabilidades(CVSS). O núcleo do problema reside no fato de que funções auxiliares internas no núcleo do LangChain podem interpretar erroneamente entradas do usuário como objetos confiáveis durante os processos de serialização e desserialização. Os atacantes podem explorar a técnica de ‘injeção de prompts(prompt injection)’ para inserir chaves internas de marcação na saída estruturada gerada pelo agente, fazendo com que ela seja posteriormente tratada como um objeto confiável.
O núcleo do LangChain desempenha um papel crucial em muitos frameworks de agentes de IA, com dezenas de milhões de downloads nos últimos 30 dias, totalizando mais de 847 milhões de downloads. Considerando todo o ecossistema do LangChain e seus aplicativos relacionados, o alcance dessa vulnerabilidade será extremamente amplo.
O pesquisador de segurança da Cyata, Yarden Forrat, afirmou: “Essa vulnerabilidade não é apenas um problema de desserialização, mas ocorre na própria rota de serialização, o que é incomum. O armazenamento, transmissão e posterior recuperação de dados estruturados gerados por prompts de IA expõem uma nova superfície de ataque.” A Cyata confirmou 12 caminhos de ataque claros, que podem evoluir de um único prompt para múltiplos cenários.
Quando ativada, a vulnerabilidade pode causar vazamento remoto de variáveis de ambiente, incluindo credenciais de nuvem, URLs de acesso a bancos de dados, informações de bancos vetoriais e chaves de API de LLM, entre outros dados sensíveis. O aspecto especialmente crítico é que essa vulnerabilidade é uma falha estrutural que ocorre apenas no núcleo do LangChain, sem envolver ferramentas de terceiros ou integrações externas. A Cyata a descreve como uma “ameaça na camada de pipeline do ecossistema”, demonstrando alta vigilância.
Os patches de segurança para resolver o problema foram lançados separadamente para as versões 1.2.5 e 0.3.81 do núcleo do LangChain. Antes de tornar público, a Cyata notificou antecipadamente a equipe de operações do LangChain, que tomou medidas imediatas e implementou planos de reforço de segurança a longo prazo.
Shahar Tal, cofundador e CEO da Cyata, afirmou: “À medida que os sistemas de IA começam a ser implantados em larga escala no setor industrial, o alcance e os privilégios finais obtidos pelo sistema tornaram-se uma questão de segurança central, indo além da execução de código em si. Na arquitetura de IDs de agentes, a redução de privilégios e a minimização do impacto se tornaram elementos de design essenciais.”
Este incidente servirá como uma oportunidade de reflexão na indústria, levando a uma revisão dos fundamentos de segurança no setor de IA, especialmente em uma era onde a automação de agentes substitui cada vez mais a intervenção humana.