A OpenAI, a Anthropic e a Google lançam um mecanismo conjunto para detetar comportamentos de destilação de IA

AI蒸餾行為

De acordo com um relatório da Bloomberg a 16 de Abril, a OpenAI, a Anthropic PBC e a Google já iniciaram uma colaboração através da organização sem fins lucrativos do sector Frontier Model Forum, partilhando informações para detectar e impedir a prática de “model extraction” por meio de modelos de IA adversaria que violam os termos de serviço. A OpenAI confirmou à Bloomberg que já participou no trabalho de partilha de informações sobre model extraction adversaria.

Quadro de cooperação: mecanismo de partilha de informações do Frontier Model Forum

O Frontier Model Forum foi criado em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft. De acordo com a Bloomberg, as três empresas trocam actualmente informações através desta organização, com o objectivo de identificar pedidos massivos de dados adversaria, acompanhar tentativas de model extraction que violem os termos de serviço e coordenar a prevenção de actividades relacionadas. A Google já publicou um artigo no blog indicando que detectou um aumento das tentativas de extracção de modelos.

De acordo com a Bloomberg, este tipo de modelo de partilha de informações está em linha com práticas existentes na indústria da segurança informática, que há muito utiliza a troca interempresarial de dados de ataques e das estratégias dos adversários para reforçar a defesa.

Memorando do Congresso da OpenAI e registo de alegações relacionadas

De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI à House Select Committee on China dos Estados Unidos, a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “aproveitar-se” de “tecnologia desenvolvida pela OpenAI e outros laboratórios de ponta dos EUA”, e afirma que esta continua a utilizar técnicas de model extraction de dados para extrair resultados de modelos dos EUA a fim de desenvolver uma nova versão de um chatbot, com métodos cada vez mais complexos.

A Anthropic publicou uma declaração em fevereiro de 2026, na qual identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — e acusou-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria. A Anthropic tinha já, em 2025, proibido empresas chinesas de utilizar o Claude. A Bloomberg também tinha noticiado anteriormente que, após a DeepSeek ter lançado o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI iniciaram investigações sobre se houve extracção ilegal de dados de modelos dos EUA.

Posicionamento da administração Trump e limitações de conformidade antitrust

De acordo com documentos de políticas públicas, responsáveis do governo Trump indicaram que estão dispostos a promover a partilha de informações entre empresas de IA para fazer face às ameaças de model extraction adversaria. O plano de acção em matéria de Inteligência Artificial anunciado pelo Presidente Trump apela explicitamente à criação de centros de partilha de informações e de análise, sendo um dos objectivos precisamente responder a estas acções.

De acordo com a Bloomberg, o âmbito da partilha de informações sobre model extraction por via tecnológica entre as três empresas continua a ser limitado, uma vez que elas não têm certeza sobre quais informações poderão ser partilhadas em conformidade com as actuais orientações antitrust; as três empresas afirmaram que pretendem alargar o âmbito da cooperação após o governo dos EUA clarificar os quadros orientadores relevantes.

Perguntas frequentes

A OpenAI, a Anthropic e a Google cooperam através de que organização?

De acordo com a Bloomberg, as três empresas fazem partilha de informações através do Frontier Model Forum, uma organização criada em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft, sendo uma organização sem fins lucrativos do sector.

Que conteúdo apresentou a OpenAI ao Congresso dos EUA sobre o problema do AI model extraction?

De acordo com informação divulgada pela OpenAI, a OpenAI apresentou um memorando (fevereiro de 2026) à House Select Committee on China, nos EUA, acusando a DeepSeek de continuar a extrair resultados de modelos dos EUA através de técnicas de model extraction de dados e de usar isso para desenvolver uma nova versão de um chatbot.

Que acções já publicadas tomou a Anthropic sobre o problema de model extraction dos laboratórios de IA chineses?

De acordo com a declaração pública da Anthropic, a Anthropic proibiu em 2025 empresas chinesas de utilizar o modelo Claude e, em fevereiro de 2026, identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — acusando-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O robô Lightning da Honor vence a Meia-Maratona de Robôs Humanoides de Pequim 2026 com 50:26

O robô humanoide "Lightning" da Honor estabeleceu um novo recorde na Meia-Maratona de Robôs Humanoides de Yizhuang em Pequim 2026, concluindo a corrida em 50 minutos e 26 segundos, superando o recorde mundial humano.

GateNews1h atrás

As acções da Meta sobem 1,73% enquanto a empresa planeia um despedimento de 8.000 trabalhadores com início a 20 de maio

A Meta Platforms planeia cortar cerca de 8.000 empregos, ou 10% da sua força de trabalho, a partir de 20 de maio, apesar da subida dos preços das acções. A empresa, com mais de $200 mil milhões de receitas, está a concentrar-se em investimentos em IA no meio de uma reestruturação significativa, alinhando-se pelas tendências da indústria de despedimentos.

GateNews9h atrás

O relatório anual do Google afirma que o Gemini implementou bloqueio em milissegundos, impedindo 99% dos anúncios fraudulentos

O artigo discute como a Google reforçou a segurança da publicidade através do seu sistema de inteligência artificial generativa Gemini; o relatório indica que a sua velocidade de deteção de anúncios em incumprimento foi reduzida para milissegundos, com uma taxa de deteção de 99%. No ano passado, a Google removeu 8,3 mil milhões de anúncios e suspendeu 24,9 milhões de contas, o que mostra um aumento acentuado do número de anúncios fraudulentos. Os especialistas apontam que se trata de um confronto entre inteligência artificial e inteligência artificial e que, no futuro, ainda será necessário enfrentar os desafios das ações legais e ilegais trazidas pela IA.

ChainNewsAbmedia10h atrás

Cofundador da Ethereum Lubin: A IA será o ponto de viragem crítico para as criptomoedas, mas o monopólio das gigantes da tecnologia coloca um risco sistémico

O cofundador da Ethereum, Joseph Lubin, destacou o potencial transformador da IA para o sector das criptomoedas, ao mesmo tempo que alertou para os riscos da centralização entre grandes empresas de tecnologia. Ele imagina transacções autónomas impulsionadas por IA na blockchain e sublinha a convergência das finanças tradicionais com a DeFi.

GateNews13h atrás

Elon Musk promove cheques de “Rendimento Elevado Universal” como solução definitiva para o desemprego causado pela IA

Elon Musk defende um Rendimento Universal Elevado para combater o desemprego provocado pela IA, imaginando um futuro com abundantes bens e inflação zero. Em contraste, especialistas como Sam Altman levantam preocupações sobre a perda de empregos e propõem medidas de proteção para os trabalhadores.

Coinpedia13h atrás

A DeepSeek, segundo se diz, lança o seu primeiro round externo de angariação de fundos, com alvo de uma avaliação de 10 mil milhões de dólares+ e 300 milhões de dólares+

A DeepSeek, uma startup chinesa de IA, está a negociar o seu primeiro round de financiamento externo, com o objectivo de conseguir pelo menos $300 milhões numa avaliação de $10 mil milhões. Apesar das rejeições anteriores de propostas de investimento, as conversas de angariação de fundos estão agora, segundo relatos, em curso.

GateNews13h atrás
Comentar
0/400
Nenhum comentário