A Google acaba de fazer um movimento bem estratégico na conferência Cloud Next em Las Vegas. Lançou dois novos processadores TPU de oitava geração simultaneamente, e isso marca uma virada importante na forma como a empresa enxerga o mercado de IA.



Pela primeira vez, o Google separou completamente os chips de treinamento e inferência. Tem o TPU 8t focado em treinar modelos de IA, e o TPU 8i otimizado para rodar esses modelos em produção. É uma mudança tática clara - reconhecem que essas duas tarefas têm necessidades muito diferentes.

Os números de desempenho são interessantes. O TPU 8t oferece 124% mais eficiência por watt comparado à geração anterior, enquanto o TPU 8i tem 117% de melhora. Comparado ao Ironwood que saiu em novembro, o TPU 8t entrega 2,8 vezes mais desempenho pelo mesmo preço, e o 8i é 80% mais eficiente. Esses ganhos não são triviais.

O que mais chama atenção no TPU 8t é a capacidade de escalar até 9.600 unidades em um único sistema. O Google está bem consciente de que em instalações desse tamanho, energia virou o limitador crítico dos data centers. Por isso a eficiência energética virou prioridade máxima.

Já o TPU 8i tem uma abordagem diferente. Cada chip carrega 384MB de SRAM - três vezes mais que o Ironwood. Isso faz total sentido para inferência, onde o chip precisa processar múltiplos passos de raciocínio sem ficar buscando dados lá fora o tempo todo. Ideal para rodar agentes de IA complexos.

Os dois processadores chegam no mercado no final de 2026. Sundar Pichai, CEO da Alphabet, deixou claro que a arquitetura foi pensada para "rodar milhões de agentes simultaneamente de forma economicamente viável". Isso é o ponto - não é só sobre ter chips melhores, é sobre fazer isso sem quebrar o orçamento.

No lado do software, o Google lançou a Gemini Enterprise Agent Platform com novos recursos. Memory Bank e Memory Profile permitem que agentes se lembrem de interações passadas com usuários - resolvem um problema real que as ferramentas antigas tinham. Tem também Agent Simulation para testar melhor antes de lançar.

A plataforma Projects integra dados do Workspace, OneDrive e chats corporativos, dando contexto aos agentes. Além disso, lançaram Gemini Enterprise para funcionários comuns, posicionando como um "assistente de IA para cada um", sem precisar escrever código.

Tudo isso é um ataque duplo - hardware e software - contra Nvidia, OpenAI e Anthropic. O Google está bem ciente que engenheiros do Vale frequentemente alternam entre Claude da Anthropic e Codex da OpenAI para desenvolvimento de IA, raramente considerando as ferramentas do Google. Isso claramente incomoda a liderança.

A adoção do TPU está acelerando. Citadel Securities já construiu software quantitativo em TPU do Google. Os 17 laboratórios nacionais do Departamento de Energia dos EUA usam ferramentas colaborativas baseadas em TPU. Meta assinou acordo de longo prazo para usar TPU do Google, e Anthropic se comprometeu com capacidade computacional em escala de gigawatts.

Analistas da DA Davidson estimam que o valor combinado dos negócios de TPU e DeepMind do Google ultrapassava US$ 900 bilhões em setembro passado.

Interessante notar que o Google não comparou diretamente seu novo TPU com produtos Nvidia. Enquanto isso, Nvidia está para lançar uma nova linha incorporando tecnologia da Groq, que adquiriu por US$ 20 bilhões, especialmente voltada para inferência de ultra baixa latência. Jensen Huang da Nvidia afirmou que mais de 20% das cargas de IA podem ser melhor manejadas por esse tipo de chip.

O Google está testando implementar TPU em data centers de clientes e promovendo compatibilidade com ferramentas de terceiros. Mas gargalos de fornecimento e o descompasso entre iterações rápidas de modelos e ciclos de desenvolvimento de chips que levam anos continuam sendo desafios reais para escalar.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar