Anthropic le dernier modèle Opus4.7 avec 8 lames cachées

Writing by: Silicon Valley Alan Walker

Les huit lames non expliquées lors de la conférence, et les secteurs et industries qu’elles veulent couper

La conférence a mis en avant le SWE-bench, mais le vrai signal se cache dans les notes de bas de page, les blocs d’introduction, et une simple phrase “auto mode”. Les vieux OG, après cette tasse de café, te la décortiquent.

ZOMBIE CAFÉ · 16 AVRIL 2026 · PALO ALTO

Sur California Ave à Palo Alto, la lumière du matin à 9h30, qui pénètre en biais par la vitre du Coupa Café, éclaire la moitié d’un flat white refroidi d’Alan Walker. Il vient de finir de consulter le site d’Anthropic, s’appuie contre le dossier de sa chaise, et s’adresse à Tony qui vient de s’asseoir en face.

“Anthropic a lancé Opus 4.7, la conférence était plutôt sobre — le vrai sujet, ce sont ces quelques colonnes du SWE-bench, les citations clients en boucle, et un joli graphique d’alignement. La plupart des médias tech ont juste recopié le communiqué et sont partis.”

“Mais le vrai contenu, il est enterré dans les notes de bas de page, le guide de migration, et une phrase comme ‘auto mode étendu aux utilisateurs Max’. Il faut le lire comme un rapport 10-K — le corps principal est pour le grand public, les notes sont pour les institutions.”

“Avant d’avoir fini cette tasse, je vais te dévoiler huit lames. Je vais te dire à qui elles s’attaquent.”

— LAME NO. 01

xhigh n’est pas une simple mise à niveau de niveau — Default a été discrètement porté à xhigh

La conférence passe rapidement : “Dans Claude Code, nous avons porté le niveau d’effort par défaut à xhigh pour tous les plans.”

La majorité des gens pensent que xhigh, c’est juste un niveau supplémentaire, comme une couleur d’iPhone. Faux. Le vrai signal, c’est la dernière phrase — dans Claude Code, tous les plans ont leur niveau par défaut porté à xhigh.

C’est une action très Anthropic : discrètement, augmenter la ligne de base de tout le monde d’un cran, tout en maintenant la facture de calcul inchangée. C’est comme si tu avais un collègue plus intelligent, mais sans augmentation de salaire.

TONY : Attends, ça veut dire que l’ancien Pro, qui payait $20 pour medium, va directement avoir xhigh ?

ALAN : Exact. Et regarde cette citation de Hex — “low-effort 4.7 ≈ medium-effort 4.6”. En superposant la hausse du niveau par défaut, l’efficacité réelle pour l’utilisateur moyen grimpe de deux niveaux entiers. La conférence n’a pas mis en avant ce chiffre, parce qu’ils ne veulent pas que la page de consommation de tokens soit peu attrayante.

Scénarios concrets

Lundi matin, tu demandes à Claude Code de modifier un module backend de 500 lignes — avant, tu devais taper /effort max pour qu’il s’exécute tout seul ; maintenant, tu ne fais rien, le niveau par défaut est xhigh, et en revenant d’une tasse de café, le boulot est fait. La différence n’est pas 10% plus rapide, c’est “tu n’as plus besoin de t’en soucier”.

LISTE DE MORT

→ SaaS “AI tuning / prompt configuration” — outils qui t’apprennent à régler ton thinking budget, à choisir effort, avec des valeurs par défaut automatiques, sans marché intermédiaire

→ Postes d’ingénieur débutant — le travail effectué par xhigh est déjà la limite de qualité d’un ingénieur avec trois ans d’expérience

→ Entreprises de outsourcing de code review — la troisième lame va verrouiller cela

— LAME NO. 02

Auto Mode — La révolution silencieuse de l’UI de permission

La troisième note de bas de page de la conférence : “Auto mode étendu aux utilisateurs Max”. Juste une phrase.

Le site officiel d’Anthropic : “auto mode est une nouvelle option de permissions où Claude prend des décisions en votre nom.” — “Décide pour vous.”

L’année dernière, toutes les startups d’agents IA se sont concentrées sur deux extrêmes : soit skip-all-permissions (Devin, Cognition), soit des pop-ups d’approbation/refus (Cursor). Anthropic a choisi une troisième voie : entraîner le modèle à décider quand il doit demander, quand il ne doit pas, et internaliser cette capacité dans auto mode.

KAI : Alan, en quoi ça diffère fondamentalement du skip permissions ? Ce n’est pas juste le laisser faire ?

ALAN : La différence est grande. Skip, c’est comme retirer le fusible de sécurité, si ça plante, c’est toi qui assumes. Auto, c’est comme si le modèle s’était équipé d’un système de sécurité — il arrête l’opération risquée, demande, ou gère le risque lui-même. En gros, cette couche “permission UI” a été déplacée du produit vers le poids du modèle.

TONY : Donc, toutes ces startups “agent governance / guardrails”…

ALAN : Le produit est intégré dans le modèle. C’est ce qu’Andrej a dit l’année dernière : “the model is the product”, un exemple vivant.

LISTE DE MORT

→ SaaS “agent guardrails / approval flow” — ceux qui font des “plateformes d’approbation homme-machine”, toute la catégorie est simplifiée

→ Secteur traditionnel RPA (UiPath / Automation Anywhere) — leur valeur centrale, “automation contrôlable”, devient auto contrôlable

→ Back-office BPO — saisie de données, dispatching client, réconciliation de factures, tout un travail manuel qui peut être automatisé par auto mode en une journée

— LAME NO. 03

/ultrareview — La directive assassine pour ingénieur senior

Le site officiel : “une session de revue dédiée qui parcourt les changements et repère bugs et problèmes de design qu’un relecteur attentif détecterait.”

Fais attention à ce mot — “un relecteur attentif”. Pas junior, pas linter, mais “relecteur attentif”. En langage simple : ingénieur senior.

David Loker de CodeRabbit donne une statistique plus directe : le recall augmente de plus de 10%, en dénichant dans les PR les bugs les plus difficiles, sans perdre en précision. Recall en hausse, précision stable — dans le domaine du code review, c’est le Graal. Le précédent était le Tricorder de Google, utilisé pendant dix ans.

MARCUS : Chez nos FAANG, un staff engineer passe la moitié de son temps à review. Si ça marche vraiment…

ALAN : Pro et Max donnent trois ultrareviews gratuites, pour tester. C’est la stratégie “freemium” de la Silicon Valley — tu goûtes, puis tu ne peux plus t’en passer.

MARCUS : Donc ce n’est pas un outil, c’est un remplaçant.

ALAN : Pas tout à fait. Il ne remplace pas le staff, il remplace ces deux heures quotidiennes de review de 10 PR par un senior. Ces deux heures libérées, le senior devient vraiment senior, pas un bot humain.

Scénarios concrets

Une équipe de 20 devs, le tech lead passait trois heures par jour à review. Avec /ultrareview, il ne regarde plus que les “design issues” en rouge de Claude — trois heures réduites à vingt minutes, et le temps gagné sert à faire de l’architecture. Ce n’est pas “IA assistée”, c’est une réécriture du rôle.

LISTE DE MORT

→ Startups indépendantes de review IA — CodeRabbit, Codacy, Qodo, qui sont maintenant des fonctionnalités d’Anthropic

→ Outils de sécurité SAST / DAST traditionnels (Snyk / Checkmarx) — leur règle de détection statique est dépassée par la lecture “humaine” du code

→ Services de review de code externalisés en Inde / Europe de l’Est — marché valorisé à plusieurs milliards, qui s’évapore

— LAME NO. 04

Vision 2576 pixels — Computer-Use passe de démo à arme

“Longueur maximale acceptée d’image jusqu’à 2 576 pixels, soit environ 3,75 mégapixels, soit plus du triple de avant.”

C’est la plus sous-estimée. La plupart pensent “oh, c’est plus clair”. Faux. C’est la ligne de démarcation entre le computer-use en démo et en production.

La preuve est dans la citation en bas de la page de lancement, où Oege de Moor, CEO d’XBOW, dit :

54,5% → 98,5%. Ce n’est pas une amélioration progressive, c’est une transition de “impossible à utiliser” à “indispensable”. Opus 4.6 devinait où étaient les boutons, 4.7 peut lire de petits caractères sur des tableaux de bord complexes.

SARAH : Nos clients ont toujours bloqué à ce stade. Avec 4.6, ça scanne automatiquement les factures, mais à moitié faux — le boss dit “stop, c’est inutile”.

ALAN : Avec 98,5%, cela veut dire que RPA, IT, audits, migration de vieux systèmes — tout ce qui repose sur la vision humaine — a maintenant un modèle fiable pour la base.

KAI : Computer use n’est plus une démo, c’est de la productivité.

ALAN : Exact, et surtout — c’est une mise à niveau du modèle, pas une simple API. Les anciens utilisateurs n’ont rien à changer, tout est automatique. Anthropic pousse discrètement la puissance de tous ses partenaires.

LISTE DE MORT

→ SaaS OCR / compréhension de documents (Rossum / Hyperscience / Nanonets) — leur avantage “vision + structuration” est maintenant égalé ou dépassé par les modèles généralistes

→ Gardiens RPA traditionnels (UiPath, Automation Anywhere) — leur technologie de reconnaissance d’écran, dont la valeur a été divisée par deux en une nuit

→ Départements de saisie de données en entreprise — assurance, KYC bancaire, formulaires administratifs, tout ce flux manuel peut être automatisé

→ Tests de pénétration / red team — des sociétés comme XBOW profitent de cette évolution, mais les consultants traditionnels sont dépassés

— LAME NO. 05

Mémoire de système de fichiers — Anthropic a choisi la voie la plus simple

Une note de bas de page dans la conférence : “Opus 4.7 est meilleur à utiliser la mémoire basée sur le système de fichiers. Il se souvient des notes importantes sur plusieurs sessions longues.”

OpenAI privilégie “mémoire embarquée” — tout est dans le modèle, invisible et non modifiable. Google travaille sur une attention infinie mystérieuse. Anthropic a dévoilé : la mémoire, c’est le système de fichiers. Claude écrit des notes .md, les lit, et tu peux les consulter à tout moment.

Ce choix, apparemment low-tech, est en réalité la victoire des principes fondamentaux. La mémoire, ce n’est pas le stockage, c’est la traçabilité, l’éditabilité, la portabilité. Les bases de données vectorielles et la mémoire embarquée violent ces trois principes.

ERIC : Les clients craignent surtout “ce que cette IA se souvient de moi, sans que je le sache”.

ALAN : La mémoire de système de fichiers règle directement la conformité. Droit à l’effacement GDPR ? Un rm, et c’est réglé. Audit SOC2 ? Un cat pour l’auditeur. Ce n’est pas une avancée technique, c’est un avantage juridique.

ERIC : Donc, ces startups “couches mémoire IA”…

ALAN : Mem0, LangMem, Zep — elles ont levé beaucoup cette année. Leur problème, c’était que “le modèle ne gère pas la mémoire”, Anthropic l’a intégré dans le modèle, en utilisant le système de fichiers POSIX le plus simple. La couche intermédiaire est sautée.

LISTE DE MORT

→ Startups d’infrastructure mémoire IA (Mem0, LangMem, Zep) — leur valeur est internalisée dans le modèle

→ Cas d’usage de mémoire agentique dans certains vecteurs de bases (Pinecone, Weaviate) — leur narration principale est impactée

→ SaaS de gestion de connaissances d’entreprise — plus besoin de middleware, Claude lit et écrit directement dans les fichiers

— LAME NO. 06

Budgets de tâches — donner un frein à l’agent, puis relâcher l’accélérateur

“Permettre aux développeurs de guider la dépense en tokens de Claude pour prioriser le travail sur de longues sessions.” (bêta publique)

C’est la plus grande avancée technique de l’année pour les agents à long terme.

L’année dernière, tous les agents se heurtaient au même problème : le dérapage du token sur de longues tâches. Confier une tâche complexe à Devin ou Cursor, ils tournent deux heures, puis reviennent en disant qu’ils ont brûlé 800$, et n’ont fait que la moitié. Le boss, en voyant la facture, devient vert.

Le design du task budget est très malin — ce n’est pas juste une limite de tokens, c’est que le modèle voit le budget diminuer, décide lui-même quels étapes sauter, et comment maximiser la tâche.

CLAIRE : Ce n’est pas une gestion de projet “minimum viable” ?

ALAN : Exact. Anthropic a entraîné le modèle à faire du scope-cutting, cette compétence de PM. Tu lui donnes un budget $10 , il décide lui-même quand arrêter une fonctionnalité à 80%, ou quand la pousser à 100%.

TONY : Donc cette citation de Notion — “tests de besoin implicite” — va pouvoir passer en premier ?

ALAN : Oui. Le modèle commence à avoir une “conscience des ressources”, il peut deviner ce que tu n’as pas dit mais que tu attends, et prioriser en conséquence. C’est l’intégration du jugement d’un senior engineer.

LISTE DE MORT

→ Startups d’IA pour la gestion des coûts / surveillance des LLM (Helicone / Langfuse) — leur fonctionnalité principale devient native

→ Cadres d’orchestration d’agents (certaines utilisations de LangGraph / CrewAI) — le modèle peut planifier son budget, sans besoin de gestion extérieure

→ Partie gestion de projet dans le conseil traditionnel — “répartition des ressources + ajustement de la livraison”, cette intelligence est désormais dans le modèle

— LAME NO. 07

Preuve avant de coder — La nouvelle pratique chez Vercel

Joe Haddad, ingénieur distingué chez Vercel : “Il réalise même des preuves sur le code système avant de commencer à travailler, ce qui est une nouveauté qu’on n’avait pas vue avec les modèles Claude précédents.”

Cette phrase, enfouie parmi une vingtaine de citations, n’a pas été mise en avant. Mais le vieux OG, en la lisant, a tout de suite posé sa tasse.

“Preuves sur le code système” — avant d’écrire du code système, le modèle réalise d’abord une preuve mathématique ou formelle. Ce n’est pas plus intelligent, c’est que le modèle commence à vérifier son code comme un doctorant vérifie une publication.

MARCUS : Ce comportement, il doit venir des données d’entraînement, ce qui montre qu’Anthropic a explicitement récompensé le “prouver avant d’écrire” en RL.

ALAN : Exact. C’est une formation consciente. En combinant cette info avec la résistance à la boucle de Genspark, et la capacité de Hex à signaler quand des données manquent au lieu de faire des suppositions incorrectes, on voit tout un processus de formation pour faire travailler le modèle comme un ingénieur difficile à duper.

MARCUS : Difficile à duper — ça veut dire qu’il ne se ment pas à lui-même.

ALAN : Exact. Opus 4.7 ne va plus inventer une solution qui semble fonctionner pour finir la tâche. C’est une vraie manifestation de l’alignement dans le produit.

LISTE DE MORT

→ Sous-marché des outils de vérification formelle (partie de Coq/Lean/TLA+) — certains cas d’usage d’entrée, où le modèle t’aide à faire la preuve

→ Secteur de la finance à haute fréquence / sécurité blockchain — leur tâche principale (trouver des invariants violés dans le code) devient collaborative avec le modèle, le prix de l’audit baisse

→ Développement de systèmes d’exploitation / embarqué — domaines nécessitant du raisonnement basé sur la preuve, leur seuil est abaissé

— LAME NO. 08

Vérification cybernétique — La fenêtre pour l’arbitrage réglementaire s’ouvre

“Pendant sa formation, nous avons expérimenté avec des efforts pour réduire ces capacités de manière différenciée.”

Le coup de maître ici. Anthropic admet avoir volontairement réduit la capacité offensive et défensive d’Opus 4.7 durant l’entraînement, car la version plus puissante, Mythos Preview, n’était pas encore dévoilée. Et puis —

Ils ont lancé un Cyber Verification Program, permettant à des chercheurs en sécurité légitimes, pentesters, red team, d’obtenir une certification pour débloquer des capacités accrues.

ERIC : Ça… ça ressemble à une version du contrôle des exportations pour les modèles ?

ALAN : Plus précis, c’est du “KYC capacité”. Le modèle a trois niveaux de capacités, il faut prouver son identité pour débloquer chaque niveau. La fenêtre d’arbitrage réglementaire, c’est la première fois que les IA se mettent à fixer leur propre prix.

ERIC : Qu’est-ce que ça signifie pour les startups ?

ALAN : Premièrement, toute startup “IA + sécurité” qui veut faire du haut de gamme doit obtenir la certification d’Anthropic, la chaîne d’approvisionnement est contrôlée. Deuxièmement, un nouveau secteur va émerger : des services de conseil pour faire certifier votre modèle par Anthropic — comme ceux qui aident à obtenir SOC2 aujourd’hui. Troisièmement, c’est la façon dont Anthropic prévoit de déployer ses futurs modèles de frontier, Mythos ne sera pas plus permissif.

TONY : Donc, des boîtes comme Palantir, Booz Allen, qui ont une forte conformité gouvernementale…

ALAN : Elles ont une barrière supplémentaire, une vraie muraille. Elles ont déjà des statuts de conformité, elles débloquent directement les modèles de haut niveau.

Scénarios concrets

Un entrepreneur YC qui veut faire du pentesting IA, en Q2 2026, doit dans sa première page de business plan répondre “Avez-vous la certification Cyber Verification d’Anthropic ?” Si non, pas de financement. Si oui, la valorisation double. Une certification, c’est une ligne de démarcation dans le marché.

LISTE DE MORT & NOUVEAUX SECTEURS

→ SaaS de cybersécurité généraliste — sans certification Anthropic, pas d’accès aux capacités avancées, plafond bloqué

→ Nouveau secteur “conseil en conformité IA” — dans 12 mois, émergeront des intermédiaires pour certifier les modèles de frontier

→ Entreprises de défense / intégrateurs gouvernementaux (Palantir, Booz Allen) — ils ont déjà une longueur d’avance, leur barrière devient une muraille

→ Open source / déploiement local — Llama, Qwen, DeepSeek, qui misent sur “sans certification, ça marche aussi”, en deviennent les principaux atouts

Alan Walker pousse son verre vide sur la table, ferme son MacBook.

Dehors, le soleil de California Ave a déjà dépassé le toit de Palo Alto Creamery, et éclaire en biais la vitre.

“Les huit lames, qui coupent dans huit directions. Certains secteurs meurent aujourd’hui, d’autres naissent aujourd’hui.”

“À chaque lancement de frontier model, le vrai contenu n’est pas dans le Headline.” Il regarde Tony, “la conférence, c’est pour les analystes. Les notes de bas de page et les chiffres dans les citations, c’est pour nous.”

“Ne te laisse pas distraire.”

— Alan

FIN DU DISPATCH · 10:47 PST · CALIFORNIA AVE© ZOMBIE CAFÉ · 2026

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler