Selon les annonces officielles d’Anthropic et le communiqué officiel d’Amazon, les deux parties ont élargi leur coopération stratégique le 20/4 : Amazon ajoute un investissement pouvant aller jusqu’à 25 milliards de dollars dans Anthropic, tandis qu’Anthropic s’engage à ce que ses dépenses sur AWS dépassent 100 milliards de dollars au cours des dix prochaines années, et à l’obtention jusqu’à 5GW de capacité de calcul supplémentaire, pour entraîner et déployer des modèles Claude.
C’est la deuxième vague majeure d’expansion des « guerres de puissance de calcul » d’Anthropic, après le 7/4, quand Anthropic et Google, Broadcom ont conclu un partenariat pour obtenir 3,5GW de puissance de calcul TPU. Il s’agit aussi du plus grand engagement d’Amazon envers une seule entreprise d’IA ; la valorisation d’Anthropic est ainsi fixée à 38 milliards de dollars.
Structure d’investissement : 5 milliards d’avance, 20 milliards liés à des jalons
L’investissement d’Amazon se décompose en deux étapes : 5 milliards de dollars décaissés immédiatement le jour de l’annonce, et au maximum 20 milliards de dollars qui seront libérés par tranches après avoir été liés à des « jalons commerciaux spécifiques ». En ajoutant les 8 milliards de dollars déjà investis auparavant, le plafond d’investissement cumulé d’Amazon dans Anthropic atteindra 33 milliards de dollars.
Les 5 milliards de dollars de cette fois-ci seront investis pour entrer au capital sur la base de la dernière valorisation d’Anthropic de 38 milliards de dollars ; c’est également la première fois que cette valorisation est confirmée pour la première fois par un investisseur de premier rang via un nouveau contrat.
Anthropic s’engage à 100 milliards de dépenses sur AWS sur dix ans
En contrepartie de la coopération, Anthropic s’engage à ce que ses dépenses sur AWS dépassent 100 milliards de dollars au cours des dix prochaines années ; le périmètre couvre à la fois les puces d’IA personnalisées Trainium des générations actuelles et futures, ainsi que les CPU d’usage général Graviton avec « des dizaines de millions de cœurs ».
Andy Jassy (PDG d’Amazon) a déclaré dans l’annonce : « En s’engageant à exécuter les grands modèles de langage sur AWS Trainium au cours des dix prochaines années, Anthropic reflète nos progrès conjoints sur la voie des puces personnalisées. » Dario Amodei (PDG d’Anthropic) a quant à lui indiqué : « Les utilisateurs nous disent que Claude devient de plus en plus important pour leur travail ; nous devons construire une infrastructure capable de suivre la croissance des besoins. »
Feuille de route des 5GW de capacité de calcul : Trainium2, 3 et 4 sur toute la gamme verrouillés
Cette convention couvre trois générations de puces : Trainium2, Trainium3 et Trainium4, et Anthropic conserve l’option d’acheter des puces personnalisées des générations suivantes. En termes de calendrier précis, une large mise en service des capacités de Trainium2 aura lieu au T2 2026 ; les grandes capacités de Trainium3 seront progressivement mises en service d’ici la fin de l’année, et l’ensemble des capacités cumulées sur l’année de Trainium2 et Trainium3 représentera près de 1GW.
Project Rainier est le projet phare de la collaboration existante des deux parties ; ce cluster d’entraînement est actuellement déployé avec environ 500 000 puces Trainium2, qui constituent l’infrastructure principale pour l’entraînement des modèles Claude.
Des revenus de 9 milliards à 30 milliards : l’explosion de la demande d’Anthropic comme moteur des négociations
Dans l’annonce, Anthropic révèle de manière rare sa situation financière : son chiffre d’affaires annualisé a déjà dépassé 30 milliards de dollars ; par rapport aux 9 milliards de dollars à la fin 2025, il a plus que triplé en l’espace de six mois. Le nombre de clients entreprises utilisant Claude sur la plateforme Amazon Bedrock a également dépassé 100 000 ; Claude fait partie des familles de modèles les plus utilisées sur la plateforme Amazon Bedrock.
Anthropic admet aussi que l’explosion de la demande a entraîné des contraintes sur l’infrastructure pendant les périodes de pointe, avec un impact sur la disponibilité et la performance ; c’est précisément la motivation directe de cette extension massive de capacité de calcul. Les controverses récentes autour du tokenizer de Claude Opus 4.7 et les ajustements des limites d’utilisation sont également liés à la réalité de cette « infrastructure sous tension ».
Consolidation de la puissance de calcul à trois : AWS, Google et accélérateurs développés en interne progressent en parallèle
En plus des 3,5GW de puissance de calcul TPU annoncés plus tôt en avril dans le cadre du partenariat d’Anthropic avec Broadcom et Google, Anthropic a déjà lié simultanément deux trajectoires de puces personnalisées, AWS Trainium et Google TPU, tout en conservant une option de long terme pour ses accélérateurs développés en interne. Cette approche contraste avec celle d’OpenAI, qui suit la voie reposant principalement sur Microsoft Azure, puis en élargissant récemment AWS.
Pour la chaîne d’approvisionnement des semi-conducteurs à Taïwan, la montée en production à grande échelle de Trainium2 à Trainium4 implique que Marvell, les fournisseurs d’emballage avancé de TSMC et les fournisseurs de mémoire HBM continueront à prendre en charge des commandes de puces personnalisées d’AWS au cours des trois à cinq prochaines années.
Du courage de la capacité de calcul en coulisses de la course à l’IPO
Cette annonce renforce aussi les bases du récit d’une introduction en bourse d’Anthropic. Des reportages récents indiquent que le chiffre d’affaires annualisé d’OpenAI a dépassé 25 milliards de dollars, tandis qu’Anthropic, avec 19 milliards, poursuit ; ces reportages révèlent que l’écart entre les revenus des deux sociétés se réduit. D’après les annonces officielles, le chiffre d’affaires annualisé d’Anthropic se situe désormais à 30 milliards de dollars, et l’écart se resserre davantage.
Pour les investisseurs, l’enjeu de l’engagement d’Amazon ne réside pas dans le montant d’une seule opération, mais dans le niveau de liaison « de 100 milliards de dollars de dépenses AWS sur dix ans », qui ancre clairement pour le marché l’approvisionnement en puissance de calcul d’Anthropic et la structure à long terme des coûts. Project Glasswing, modèle à seuil d’exigence élevé Mythos, ainsi que la capacité de calcul d’entraînement ultérieure de la série Claude 4.x seront pris en charge par ces 5GW de nouvelle capacité.
Cet article « Amazon renforce l’investissement dans Anthropic de 25 milliards de dollars : 5GW de puissance de calcul, liaison AWS de 100 milliards » est apparu pour la première fois sur Chaîne News ABMedia.
Articles similaires
Alibaba Cloud Lance Qwen-Image-2.0-Pro avec une Génération Texte-Image et une Retouche Unifiées, prenant en charge le rendu de texte multilingue
L’API DeepSeek V4-Pro bénéficie d’une réduction de 75 % jusqu’au 5 mai, le prix de sortie passe à 0,87 $ par million de jetons
Anthropic met en place des garanties électorales pour Claude avant les élections législatives de mi-mandat de 2026
DeepRoute.ai système d’aide à la conduite avancée dépasse 300 000 véhicules déployés : objectif 2026 1 000 000 de flotte de véhicules urbains NOA
DeepSeek lance les modèles V4-Pro et V4-Flash à un coût inférieur de 98 % à celui du GPT-5.5 Pro d’OpenAI
Le juge rejette les allégations de fraude dans la plainte d’Elon Musk contre OpenAI ; l’affaire progresse vers un procès avec deux allégations restantes