Selon le rapport de The Decoder et les tests en conditions réelles de plateformes d’observation des coûts d’IA comme Finout et ClaudeCodeCamp, Claude Opus 4.7, lancé à la mi-du mois, conserve un tarif officiel identique de $5 USD pour l’entrée et $25 USD pour la sortie par million de tokens, mais le nouveau tokenizer découpe le même texte en davantage de tokens — avec, d’après les observations en tests, une hausse de 1,47 fois pour le contenu en anglais et le code. Les tests moyens de la communauté indiquent aussi une augmentation de +37,4% des coûts. Pour les utilisateurs professionnels, il s’agit d’une controverse de tarification IA en 2026 avec le premier cas « rate card inchangée, facture en hausse ».
Le plafond officiel de 1,35x rencontre des résultats de 1,47x lors des tests
La documentation officielle d’Anthropic reconnaît que le nouveau tokenizer d’Opus 4.7 fera en sorte qu’un même passage soit découpé en davantage de tokens ; le ratio fourni par l’officiel se situe dans une fourchette de 1,0 à 1,35 fois (soit au maximum +35%). Mais plusieurs tests indépendants aboutissent à des résultats différents : Finout mesure 1,47x dans des prompts d’entreprises réels, ClaudeCodeCamp observe aussi 1,47x dans des scénarios de technical docs, et l’évaluation moyenne de la communauté ressort à +37,4%. L’écart vient du type de texte utilisé dans les tests : la documentation très dense en anglais et le code sont les plus affectés.
Conversion en coûts réels : d’Opus 4.6 à Opus 4.7
En termes de coût concret : le travail d’un prompt sur Opus 4.6, qui consommait 1 000 tokens d’entrée + 500 tokens de sortie, passe sur Opus 4.7 à environ 1 370–1 470 tokens d’entrée + 685–735 tokens de sortie. Même si le tarif par token reste strictement identique, la facture totale de la requête augmente de 37–47%.
La logique du modèle économique transforme les tokens en levier de prix invisible
Ce n’est pas un événement isolé, mais un problème structurel du modèle commercial de l’IA. L’unité de tarification des fournisseurs de LLM est « par token », mais la question de savoir « combien d’informations correspond à un token » est entièrement contrôlée par le fournisseur : modifier le tokenizer, adapter l’algorithme de codage, ou changer la table de vocabulaire fait correspondre le même contenu à un nombre différent de tokens. En d’autres termes, les fournisseurs d’IA peuvent réaliser une hausse de prix réelle sans toucher à la rate card, simplement via une mise à niveau du tokenizer.
Les achats d’IA par les entreprises, ces dernières années, utilisaient principalement le « coût par token » comme indicateur de comparaison ; mais le cas d’Opus 4.7 montre que cet indicateur est incomplet. Le vrai pilotage des coûts doit regarder la « consommation totale de tokens pour accomplir une tâche métier unique » : pour comparer des modèles, il faut d’abord un benchmark token-calibrated (avec une entrée de tâche identique, et en observant la consommation réelle de tokens de chaque modèle).
Impact concret sur les contrats d’achat des entreprises
Pour les organisations ayant déjà signé des contrats d’entreprise avec Anthropic, trois aspects doivent être vérifiés immédiatement : d’abord, si les dépenses mensuelles montent anormalement en raison de la mise à niveau du modèle ; ensuite, si le contrat comporte des conditions obligatoires de mise à niveau de « version du modèle » ; enfin, si le suivi des coûts d’IA en interne inclut un tracking des tokens par tâche, plutôt que de ne surveiller que le total de tokens par jour. Cette semaine, Anthropic a aussi officiellement lancé la facturation à l’usage pour l’offre entreprise ; l’effet combiné de ces deux éléments signifie que le budget IA des entreprises pourrait connaître des dépassements inattendus à deux chiffres.
La transparence du prix de l’IA deviendra un nouveau sujet industriel
La controverse autour du tokenizer d’Opus 4.7 pourrait faire émerger de nouvelles normes d’autorégulation dans l’industrie : demander aux fournisseurs de publier les variations de token ratio lors des mises à niveau des modèles, ou exiger que le tokenizer reste fixe pendant une période donnée. Pour l’écosystème d’IA qui « engloutit » 80% du capital-risque mondial, un manque de transparence rapprochera l’attention des organismes de régulation : la FTC américaine, le DMA de l’UE, etc. s’intéressent déjà à la question des « suppléments invisibles » des services numériques. Pour les lecteurs de Wade, côté achats et développement en entreprise, ce n’est pas un sujet abstrait : ce sont les chiffres sur la facture du mois prochain.
Cet article « Claude Opus 4.7 cache une hausse de prix : le nouveau tokenizer fait consommer 37–47% de tokens pour le même texte, le tarif ne change pas mais la facture devient plus chère » apparaît pour la première fois sur Chaîne Actualités ABMedia.
Articles similaires
Baidu Qianfan lance l’assistance Day 0 pour DeepSeek-V4 avec des services d’API
Le cours d’IA de Stanford, associé aux leaders de l’industrie comme Huang Renxun et Altman, défie de créer de la valeur pour le monde en dix semaines.
Anthropic envoie Claude Mythos : acceptation après 20 heures d’évaluation psychiatrique : réaction défensive seulement 2 %, niveau le plus bas jamais enregistré sur plusieurs générations
Un agent IA peut déjà reproduire de manière autonome des articles universitaires complexes : Mollick affirme que les erreurs proviennent davantage des textes originaux humains que de l’IA
OpenAI fusionne Codex dans le modèle principal à partir de GPT-5.4, met fin à la ligne de codage distincte
Salesforce va recruter 1 000 diplômés et stagiaires pour ses produits d’IA, et relève ses prévisions de revenus pour l’exercice 2026