Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
A Google acaba de fazer um movimento bem estratégico na conferência Cloud Next em Las Vegas. Lançou dois novos processadores TPU de oitava geração simultaneamente, e isso marca uma virada importante na forma como a empresa enxerga o mercado de IA.
Pela primeira vez, o Google separou completamente os chips de treinamento e inferência. Tem o TPU 8t focado em treinar modelos de IA, e o TPU 8i otimizado para rodar esses modelos em produção. É uma mudança tática clara - reconhecem que essas duas tarefas têm necessidades muito diferentes.
Os números de desempenho são interessantes. O TPU 8t oferece 124% mais eficiência por watt comparado à geração anterior, enquanto o TPU 8i tem 117% de melhora. Comparado ao Ironwood que saiu em novembro, o TPU 8t entrega 2,8 vezes mais desempenho pelo mesmo preço, e o 8i é 80% mais eficiente. Esses ganhos não são triviais.
O que mais chama atenção no TPU 8t é a capacidade de escalar até 9.600 unidades em um único sistema. O Google está bem consciente de que em instalações desse tamanho, energia virou o limitador crítico dos data centers. Por isso a eficiência energética virou prioridade máxima.
Já o TPU 8i tem uma abordagem diferente. Cada chip carrega 384MB de SRAM - três vezes mais que o Ironwood. Isso faz total sentido para inferência, onde o chip precisa processar múltiplos passos de raciocínio sem ficar buscando dados lá fora o tempo todo. Ideal para rodar agentes de IA complexos.
Os dois processadores chegam no mercado no final de 2026. Sundar Pichai, CEO da Alphabet, deixou claro que a arquitetura foi pensada para "rodar milhões de agentes simultaneamente de forma economicamente viável". Isso é o ponto - não é só sobre ter chips melhores, é sobre fazer isso sem quebrar o orçamento.
No lado do software, o Google lançou a Gemini Enterprise Agent Platform com novos recursos. Memory Bank e Memory Profile permitem que agentes se lembrem de interações passadas com usuários - resolvem um problema real que as ferramentas antigas tinham. Tem também Agent Simulation para testar melhor antes de lançar.
A plataforma Projects integra dados do Workspace, OneDrive e chats corporativos, dando contexto aos agentes. Além disso, lançaram Gemini Enterprise para funcionários comuns, posicionando como um "assistente de IA para cada um", sem precisar escrever código.
Tudo isso é um ataque duplo - hardware e software - contra Nvidia, OpenAI e Anthropic. O Google está bem ciente que engenheiros do Vale frequentemente alternam entre Claude da Anthropic e Codex da OpenAI para desenvolvimento de IA, raramente considerando as ferramentas do Google. Isso claramente incomoda a liderança.
A adoção do TPU está acelerando. Citadel Securities já construiu software quantitativo em TPU do Google. Os 17 laboratórios nacionais do Departamento de Energia dos EUA usam ferramentas colaborativas baseadas em TPU. Meta assinou acordo de longo prazo para usar TPU do Google, e Anthropic se comprometeu com capacidade computacional em escala de gigawatts.
Analistas da DA Davidson estimam que o valor combinado dos negócios de TPU e DeepMind do Google ultrapassava US$ 900 bilhões em setembro passado.
Interessante notar que o Google não comparou diretamente seu novo TPU com produtos Nvidia. Enquanto isso, Nvidia está para lançar uma nova linha incorporando tecnologia da Groq, que adquiriu por US$ 20 bilhões, especialmente voltada para inferência de ultra baixa latência. Jensen Huang da Nvidia afirmou que mais de 20% das cargas de IA podem ser melhor manejadas por esse tipo de chip.
O Google está testando implementar TPU em data centers de clientes e promovendo compatibilidade com ferramentas de terceiros. Mas gargalos de fornecimento e o descompasso entre iterações rápidas de modelos e ciclos de desenvolvimento de chips que levam anos continuam sendo desafios reais para escalar.