Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
OpenClaw coloca a Apple de volta no jogo da IA — E agora eles não conseguem construir Macs rápido o suficiente
Resumidamente
O Mac mini da Apple sempre foi o desktop silencioso e esquecível no fundo da Apple Store. Prático, barato pelos padrões da Apple, e amplamente ignorado pela comunidade de IA. Até que surgiu o OpenClaw. Na quinta-feira, Tim Cook disse aos analistas que o Mac mini e o Mac Studio estão esgotados—e podem permanecer assim por vários meses. “Ambos são plataformas incríveis para IA e ferramentas agentic,” afirmou na chamada de resultados do segundo trimestre de 2026 da Apple, “e o reconhecimento do cliente sobre isso está a acontecer mais rápido do que prevíamos.” Tradução: a Apple subestimou o quanto os desenvolvedores desejariam estas máquinas, especialmente em tempos em que a escassez está a afetar os mercados.
A receita do Mac foi de 8,4 mil milhões de dólares no trimestre, um aumento de 6% em relação ao ano anterior. Não exatamente um estouro—mas as restrições de fornecimento, não a procura, são o fator limitador. Configurações de Mac mini e Mac Studio com alta RAM não só estão atrasadas; algumas foram completamente retiradas da Apple Store. O Mac mini base de 599 dólares está esgotado nos EUA, sem entregas ou recolha na loja disponíveis. Configurações atualizadas com 64GB de RAM mostram tempos de espera de 16 a 18 semanas. Modelos do Mac Studio com 512GB de memória unificada desapareceram completamente da loja. Scalpers no eBay perceberam rapidamente, listando modelos básicos por quase o dobro do preço de venda. O catalisador de tudo isto? OpenClaw e o boom de IA Agentic que consome muita memória.
A estrutura de agentes de IA de código aberto—construída por Peter Steinberger e agora apoiada pela OpenAI após uma guerra de propostas com a Meta—explodiu para mais de 323.000 estrelas no GitHub e tornou-se a forma mais rápida para indivíduos e pequenas equipas executarem agentes de IA persistentes localmente. E o hardware de referência não oficial para executá-lo tornou-se, quase imediatamente, o Mac mini.
No entanto, não foi resultado de uma campanha de marketing. O que a maioria das pessoas que cobre a escassez de Macs não percebe é que a Apple foi irrelevante para cargas de trabalho sérias de IA durante anos. Antes do milagre dos Agentes de IA se tornarem mainstream, as pessoas reclamavam que executar LLMs, Stable Diffusion ou qualquer outro tipo de software de IA doméstica era extremamente lento e quase inutilizável. Um Mac M2 tinha um desempenho comparável a uma GPU de 2019. A recusa da Apple em adotar CUDA ou usar Nvidia, promovendo a sua tecnologia MLX, tornou-a tão irrelevante para IA quanto para jogos. A Nvidia dominava porque o CUDA—o seu framework proprietário de programação de GPU—era a espinha dorsal do treino e inferência de modelos. Toda a pilha de IA era construída em torno dele. A Apple não tinha nada comparável. Ninguém queria um Mac para inferência local. Mas o CUDA tem um segredo sujo: limites de VRAM. Mesmo a melhor GPU de consumo da Nvidia, a RTX 5090, atinge um máximo de 32GB de VRAM. É um teto rígido. Um modelo maior que 32GB não consegue correr a plena velocidade nessa placa—ele transborda para a RAM do sistema, arrasta-se pelo bus PCIe, e o desempenho despenca. Para executar um modelo sério de 70 bilhões de parâmetros na hardware da Nvidia, é preciso múltiplas GPUs, um rack de servidores, consumo de energia elevado, e milhares de dólares. A arquitetura de memória unificada da Apple (UMA) resolve isto de uma forma que o CUDA não consegue. No Apple Silicon, a CPU, GPU e Neural Engine partilham o mesmo pool físico de RAM. Não há VRAM separada. Não há bus PCIe para atravessar. Um Mac mini com 64GB pode carregar um modelo de 70 bilhões de parâmetros que um RTX 5090 de 1.800 dólares simplesmente se recusa a tocar.
O M4 Ultra—o chip que alimenta configurações de alto nível do Mac Studio—suporta até 192GB de memória unificada. Isso é suficiente para executar localmente modelos de 100 bilhões de parâmetros numa única máquina. Sem servidor. Sem conta mensal na cloud. OpenClaw tornou essa troca de recursos óbvia. Porque executa agentes localmente—conectando-se aos seus ficheiros, aplicações, mensagens—os utilizadores precisavam de máquinas que pudessem suportar a carga de raciocínio sem precisar de alugar computação na cloud. Um Mac mini com 32GB de memória unificada executa confortavelmente modelos de 30B de parâmetros. Um Mac Studio com 128GB lida com modelos que a maioria dos desenvolvedores não conseguiria tocar sem um cluster de GPU empresarial há um ano. Um Mac lento capaz de executar um modelo de IA poderoso é muito melhor do que uma placa Nvidia potente que nem consegue carregar esse modelo. O resultado: os desenvolvedores começaram a comprar Mac minis como costumavam comprar Raspberry Pis—vários de uma vez, tratados como infraestrutura, não como computadores pessoais. A cadeia de abastecimento da Apple nunca foi projetada para esse padrão. Há também uma escassez mais ampla de memória a agravar o problema. A IDC espera que as remessas globais de PCs diminuam 11,3% em 2026, parcialmente impulsionadas por uma escassez de chips de memória alimentada pela procura de servidores de IA. A Apple agora compete pela mesma oferta de RAM que os hyperscalers a construir data centers. Cook disse que pode levar “vários meses” para equilibrar a oferta e a procura no Mac mini e no Studio. Espera-se uma atualização com o chip M5 ainda em 2026, o que poderá aliviar a pressão—mas os compradores atuais ficam à espera ou a pagar preços de scalper. O Mac mini gerou mais urgência em 2026 do que em qualquer momento na sua história de 20 anos—e tudo o que precisou foi de uma ajuda de um projeto de código aberto com o qual a Apple não tinha nada a ver para fazer acontecer.