Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O modelo mais recente da Anthropic, Opus4.7, com 8 lâminas ocultas
Escrevendo: Alan Walker do Vale do Silício
As oito lâminas de faca não explicadas na apresentação, e os setores e indústrias que elas vão cortar
A apresentação focou no SWE-bench, mas o verdadeiro sinal está nas notas de rodapé, nos trechos introdutórios e numa frase discreta de modo automático. Os veteranos, ao terminar esse café, vão desmontar tudo.
ZOMBIE CAFÉ · 16 DE ABRIL DE 2026 · PALO ALTO
Na California Ave, em Palo Alto, às nove e meia da manhã, aquela luz inclinada entra pelas janelas de vidro do Coupa Café, refletindo na metade de um flat white frio de Alan Walker. Ele acabou de visitar o site da Anthropic, encostou-se na cadeira e virou-se para Tony, que acabou de se sentar do outro lado.
“Anthropic lançou o Opus 4.7, a apresentação foi bem contida — o destaque são aquelas colunas do SWE-bench, as citações de clientes em rotação, e uma bela imagem de alinhamento. A maior parte da mídia tecnológica só copiou o release e foi embora.”
“Mas o que realmente importa está escondido nas notas de rodapé, no guia de migração, e numa frase como ‘auto mode expandido para Max users’. Você precisa lê-lo como um relatório 10-K — o texto principal é para investidores de varejo, as notas são para os institucionais.”
“Antes de terminar esse café, vou desmontar oito lâminas. Cada uma delas eu vou te dizer quem ela vai cortar.”
— BLADE NO. 01
xhigh não é uma atualização de nível — o padrão foi secretamente elevado
Na apresentação: “No Claude Code, elevamos o esforço padrão para xhigh em todos os planos.”
A maioria das pessoas viu xhigh e pensou que era só mais uma cor, como no iPhone. Errado. O sinal real está na última frase — em Claude Code, o padrão de todos os planos foi elevado para xhigh.
É um movimento muito Anthropic: silenciosamente, elevar a linha de base de todos, mantendo a conta de computação igual. Como colocar um colega mais inteligente ao seu lado, mas sem aumentar o salário.
TONY: Espera, isso quer dizer que o antigo usuário Pro, que pagava $20 por medium, agora vai direto para xhigh?
ALAN: Exato. E leia com atenção aquele trecho do Hex — “low-effort 4.7 ≈ medium-effort 4.6”. Com o padrão elevado, a inteligência efetiva que o usuário comum recebe pula duas categorias. A apresentação não destacou esse número, porque eles não querem que a página de consumo de tokens fique feia.
Cenários de implementação
Na segunda-feira de manhã, você pede ao Claude Code para modificar um módulo backend de 500 linhas — antes, você tinha que digitar /effort max para ele rodar sozinho; agora, você não precisa fazer nada, o padrão já é xhigh, e uma xícara de café depois, o trabalho está feito. Essa diferença não é só 10% mais rápido, é “você não precisa mais se preocupar com isso”.
LISTA DE ELIMINAÇÃO
→ SaaS de “ajuste de IA / configuração de prompt” — ferramentas que ensinam como ajustar o thinking budget, como escolher effort, com valores padrão automáticos, sem negócio na camada intermediária
→ Posições de engenheiro iniciante — o trabalho padrão de xhigh já é o limite de qualidade de um engenheiro com três anos de experiência
→ Empresas terceirizadas de revisão de código — a terceira lâmina vai travar isso de vez
— BLADE NO. 02
Auto Mode — A revolução silenciosa na interface de permissões
Na terceira nota de rodapé da apresentação: “Auto mode expandido para Max users”. Uma frase.
No site da Anthropic: “auto mode é uma nova opção de permissões onde Claude toma decisões por você.” — “decide por você.”
No último ano, todas as startups de agentes se dividiram em dois extremos: ou pulavam todas as permissões de uma vez só (Devin, Cognition), ou ficavam com janelas pop-up de aprovar/recusar (early Cursor). A Anthropic escolheu o terceira via: treina o modelo para decidir quando perguntar, quando não perguntar, internalizando essa decisão no auto mode.
KAI: Alan, qual a diferença essencial entre skip permissions e auto mode? Não é só deixar rolar?
ALAN: A diferença é grande. Skip é você tirar a trava de segurança, e se der problema, você responde. Auto é o modelo que coloca uma trava própria — operações perigosas ele para e pergunta, operações de baixo risco ele resolve sozinho. No fundo, é mover toda a camada de “interface de permissões” do produto para dentro do peso do modelo.
TONY: Então, aquelas startups de “agent governance / guardrails”…
ALAN: O produto passa a fazer parte do modelo. É o que Andrej chamou no ano passado de “the model is the product”, um exemplo vivo.
LISTA DE ELIMINAÇÃO
→ SaaS de guardrails / fluxo de aprovação de agentes — toda a categoria é reduzida a uma camada mais simples
→ Indústria tradicional de RPA (UiPath / Automation Anywhere) — seu valor central era “automação controlada”, agora ela se internalizou
→ Backoffice de terceirização de BPO — entrada de dados, distribuição de atendimento, reconciliação de faturas, um dia de auto mode cobre toda uma equipe
— BLADE NO. 03
/ultrareview — Uma ordem de execução para engenheiros seniores
No site: “uma sessão de revisão dedicada que analisa mudanças e sinaliza bugs e problemas de design que um revisor cuidadoso detectaria.”
Note a palavra — “um revisor cuidadoso”. Não é júnior, não é linter, é “revisor cuidadoso”. Em linguagem comum: engenheiro sênior.
David Loker, do CodeRabbit, dá números mais diretos: aumento de mais de 10% na recall, detectando os bugs mais difíceis em PRs complexos, quase sem perda de precisão. Recall aumenta, precisão mantém — na área de revisão de código, isso é o santo graal. O último a conseguir essa combinação foi o Tricorder, da Google, que trabalhou nisso por dez anos.
MARCUS: Nosso FAANG, um staff engineer, ganha US$ 800 mil por ano, e passa metade do tempo revisando PRs. Se isso realmente funcionar…
ALAN: Usuários Pro e Max ganham três ultrareviews grátis, para testar. Essa é a estratégia de “freemium” de Silicon Valley — você prova o sabor, e fica preso.
MARCUS: Então, isso não é só uma ferramenta, é um substituto.
ALAN: Nem totalmente. Ele não substitui o staff, mas substitui aquelas duas horas diárias de revisão de dez PRs pelo engenheiro sênior. As duas horas liberadas, o sênior realmente trabalha, não é um bot humano no GitHub.
Cenários de implementação
Uma equipe de vinte engenheiros, onde o tech lead gastava três horas por dia revisando PRs, agora, com o ultrareview, só precisa olhar os poucos “design issues” destacados pelo Claude — três horas viraram vinte minutos, e o tempo economizado é para fazer arquitetura. Não é “IA assistindo”, é uma reescrita de responsabilidades.
LISTA DE ELIMINAÇÃO
→ Todas as startups independentes de revisão de código com IA — CodeRabbit, Codacy, Qodo, agora recursos do Anthropic
→ Ferramentas tradicionais de SAST / DAST — regras de varredura estática, agora superadas por “leitura de código como humano”
→ Serviços terceirizados de revisão de código na Índia / Europa Oriental — mercado avaliado em bilhões, agora evaporando
— BLADE NO. 04
Visão de 2.576 pixels — Computer-Use vira arma a partir do demo
“Imagem com comprimento máximo de 2.576 pixels, cerca de 3,75 megapixels, mais do que o triplo do anterior.”
Essa é a mais subestimada. A maioria pensa: “Ah, ficou mais HD.” Errado. Essa é a grande mudança do computer-use, de demo para produção.
A evidência está na última citação da página de lançamento — Oege de Moor, CEO da XBOW, disse:
54,5% → 98,5%. Não é uma melhoria gradual, é uma transição de “não utilizável” para “não dá para não usar”. O opus 4.6 ainda adivinhava onde estavam os botões na tela, o 4.7 já consegue ler textos pequenos em painéis densos e tabelas aninhadas.
SARAH: Nosso cliente corporativo sempre ficou nesse ponto. Com 4.6, ele consegue automatizar a leitura de faturas, mas erra metade — o chefe manda parar.
ALAN: Agora, com 98,5%, significa que RPA, operações de TI, auditoria de reembolsos, migração de sistemas antigos — todas essas tarefas que dependem de visão humana — têm um modelo confiável pela primeira vez.
KAI: computer use deixou de ser só demo, virou produtividade.
ALAN: Exato, e atenção — isso é uma atualização no nível do modelo, não só nos parâmetros da API. Os usuários antigos continuam do mesmo jeito, só que automaticamente. A Anthropic está elevando a capacidade de integração de todos os produtos.
LISTA DE ELIMINAÇÃO
→ SaaS de OCR / compreensão de documentos (Rossum / Hyperscience / Nanonets) — seu diferencial era “visão + estruturado”, agora igualaram ou superaram com modelos genéricos
→ Três gigantes de RPA — a tecnologia de reconhecimento de tela do UiPath perdeu metade do valor
→ Setor de entrada de dados corporativos — reembolsos de seguros, KYC bancário, processamento de formulários governamentais, toda a linha de produção manual
→ Testes de penetração / red team — empresas como XBOW se beneficiam, mas consultorias tradicionais de pentesting perdem espaço
— BLADE NO. 05
Memória de Sistema de Arquivos — Anthropic escolheu o caminho mais simples
Na nota de rodapé: “Opus 4.7 é melhor em usar memória baseada em sistema de arquivos. Lembra notas importantes ao longo de sessões longas e múltiplas.”
OpenAI aposta na “memória embutida” — embute a memória no modelo, invisível e imutável. Google trabalha com atenção infinita (infinite attention). A Anthropic revelou: o sistema de arquivos é memória. Claude escreve notas .md, lê notas .md, e você pode usar cat para ver.
Essa escolha parece low-tech, mas é uma vitória dos princípios fundamentais. O problema central da memória nunca foi armazenamento, mas auditoria, edição e transferência. Bancos de vetores e memória embutida violam esses três princípios.
ERIC: Os clientes empresariais têm mais medo de “o que esse AI realmente lembra de mim, e eu não sei”.
ALAN: A memória de sistema de arquivos resolve a conformidade. Direito ao esquecimento do GDPR? É só apagar. Auditoria SOC2? É só mostrar o arquivo. Não é vantagem técnica, é vantagem legal.
ERIC: Então, essas startups de “camada de memória de IA”…
ALAN: Mem0, LangMem, Zep — receberam bastante investimento neste ano. Elas resolvem o problema de “o modelo não gerencia a memória”, a Anthropic colocou essa capacidade no próprio modelo, usando o mais simples sistema de arquivos POSIX. A camada intermediária foi pulada.
LISTA DE ELIMINAÇÃO
→ Startups de infraestrutura de memória de IA (Mem0, LangMem, Zep) — valor internalizado no modelo
→ Cenários de uso de memória de agentes em bancos de dados vetoriais — Pinecone, Weaviate, uma narrativa principal afetada
→ SaaS de gestão de conhecimento empresarial com IA — sem necessidade de middleware, Claude lê e escreve arquivos de projeto diretamente
— BLADE NO. 06
Orçamento de Tarefas — Dar freio ao agente, liberar o acelerador
“Permitir que desenvolvedores orientem o gasto de tokens do Claude para priorizar tarefas ao longo de execuções mais longas.” (beta pública)
Essa inovação passou despercebida por todos, mas é a maior conquista de engenharia do agente de longo prazo neste ano.
No último ano, todas as startups de agentes enfrentaram o mesmo problema: o token de tarefas longas saía do controle. Dava uma tarefa complexa ao Devin ou Cursor, eles rodavam duas horas, voltavam e mostravam que tinham gasto US$ 800, e só tinham feito metade do trabalho. Os chefes ficavam de cabelo em pé.
O design do Task Budget é genial — não é só limitar tokens, é fazer o modelo perceber que o orçamento está acabando, e decidir quais passos pular, como garantir que a tarefa seja concluída com o máximo de eficiência.
CLAIRE: Isso não é só gestão de projetos, é o pensamento de “entregável mínimo viável”?
ALAN: Exato. A Anthropic treinou o modelo para fazer cortes de escopo — o scope-cutting — uma habilidade de gerenciamento de projetos. Dá um orçamento ao agente, e ele decide qual funcionalidade fazer até 80%, qual precisa de 100%.
TONY: Então, aquele trecho do Notion — “testes de necessidade implícita” — é o primeiro a passar?
ALAN: É. O modelo começa a ter “consciência de recursos”, consegue prever o que você espera, mesmo que não tenha dito, e prioriza dentro do orçamento. É treinar o julgamento de engenheiro sênior.
LISTA DE ELIMINAÇÃO
→ Startups de controle de custos de IA / monitoramento de LLM (Helicone / Langfuse) — funcionalidades nativas
→ Frameworks de orquestração de agentes (parte do LangGraph / CrewAI) — o modelo consegue planejar o orçamento sem precisar de um scheduler externo
→ Gestão de recursos em projetos de consultoria — “alocação de recursos + corte de entregas” agora é feito pelo modelo
— BLADE NO. 07
Prova antes de codificar — O novo comportamento da Vercel
Joe Haddad, engenheiro sênior na Vercel: “Ele até faz provas em código de sistemas antes de começar a trabalhar, algo que não víamos nos modelos anteriores do Claude.”
Essa frase está escondida entre mais de vinte citações, ninguém deu atenção. Mas os veteranos, ao lerem isso, largaram o café.
“Provas em código de sistemas” — antes de escrever código de sistema, o modelo faz provas matemáticas ou formais. Não é mais inteligente, é o modelo usando métodos de verificação de tese de PhD para validar seu próprio código.
MARCUS: Essa prática aparece nos dados de treinamento, indicando que a Anthropic explicitamente recompensou o “faça a prova antes de codificar” na fase de RL.
ALAN: Sim, foi treinado com essa intenção. Combinando com o trecho da Vercel, o conceito de resistência ao loop do Genspark, e o “relata corretamente quando dados estão ausentes ao invés de dar respostas plausíveis, mas incorretas” do Hex — você vê um projeto de treinamento completo, que faz o modelo trabalhar como um engenheiro difícil de enganar.
MARCUS: Difícil de enganar — quer dizer, sem autoengano.
ALAN: Exato. O opus 4.7 não vai mais criar uma solução só para cumprir a tarefa. É uma implementação concreta de alinhamento, refletida no produto.
LISTA DE ELIMINAÇÃO
→ Mercado de ferramentas de verificação formal (parte) — Coq, Lean, TLA+ — algumas aplicações de entrada, o modelo ajuda a fazer
→ Mercado de segurança de alta frequência / auditoria blockchain — a auditoria de código, que verifica invariantes, é colaborada pelo modelo, e o preço cai
→ Núcleo de sistemas operacionais / embarcados — áreas que exigem raciocínio baseado em provas, com barreiras niveladas
— BLADE NO. 08
Verificação Cibernética — A janela para arbitragem regulatória se abriu
“Durante o treinamento, experimentamos esforços para reduzir diferencialmente essas capacidades.”
A jogada mais ousada está aqui. A Anthropic admitiu que, durante o treinamento, deliberadamente diminuiu as capacidades de ataque e defesa do Opus 4.7, porque o Mythos Preview mais forte não foi liberado. E então—
Criaram um Programa de Verificação Cibernética, onde pesquisadores de segurança, pentesters e red teams certificados podem desbloquear níveis mais altos de acesso.
ERIC: Isso… não é uma versão de controle de exportação do modelo?
ALAN: Mais precisamente, é uma “conformidade de capacidades”. O modelo tem três níveis de capacidade, e você precisa provar sua identidade para desbloquear cada um. Uma janela de arbitragem regulatória, agora, é uma negociação aberta por empresas de IA.
ERIC: E o que isso significa para startups?
ALAN: Primeiro, qualquer startup de “IA + segurança” que queira atuar em cenários avançados precisa obter a certificação da Anthropic, a cadeia de suprimentos já fica controlada. Segundo, uma nova categoria surge: consultorias que ajudam a obter essa certificação, como hoje fazem com SOC2. Terceiro, é uma forma de a Anthropic treinar futuras versões de modelos de fronteira, e o Mythos só vai ficar mais restrito.
TONY: Então, empresas como Palantir, Booz Allen, com experiência em conformidade governamental…
ALAN: Ganham uma camada de proteção extra. Já têm credenciais de alto nível, e agora podem desbloquear os modelos mais avançados.
Cenários de implementação
Um YC startup que quer fazer pentesting de IA, em Q2 de 2026, na primeira página do plano de negócios, precisa responder: “Vocês têm a certificação de Cyber Verification da Anthropic?” Se não, não recebem investimento. Se sim, o valuation dobra. Uma certificação, uma linha de divisão no mercado de capitais.
LISTA DE ELIMINAÇÃO & NOVOS SETORES
→ SaaS de segurança cibernética universal — sem certificação, não consegue acesso às capacidades superiores, o teto fica travado
→ Nova categoria de consultoria de conformidade de capacidades de IA — nos próximos 12 meses, surgirão intermediários especializados em certificação de modelos de fronteira
→ Indústria militar e governamental — com a certificação, ganham uma vantagem competitiva natural, transformando a barreira em proteção
→ Código aberto / implantação local — Llama, Qwen, DeepSeek — a vantagem de “não precisar de certificação” vira ponto de venda principal
Alan Walker empurra o copo vazio para a mesa, fecha o MacBook.
Do lado de fora, o sol na California Ave já passou pelo telhado do Palo Alto Creamery, refletindo na janela.
“Cada lâmina de faca, cortando em oito direções. Alguns setores morrem hoje, outros nascem hoje.”
“Cada lançamento de frontier model, o que é realmente importante, não aparece no headline.” Ele diz a Tony, “a apresentação é para os analistas. As notas de rodapé e os números nas citações, são para nós.”
“Não se empolgue demais.”
— Alan
FIM DA DESpacho · 10:47 PST · CALIFORNIA AVE© ZOMBIE CAFÉ · 2026