Amazon renforce encore Anthropic à hauteur de 25 milliards de dollars : 5 GW de capacité informatique, et un engagement de 100 milliards de dollars sur AWS

Selon les annonces officielles d’Anthropic et le communiqué officiel d’Amazon, les deux parties ont élargi leur coopération stratégique le 20/4 : Amazon ajoute un investissement pouvant aller jusqu’à 25 milliards de dollars dans Anthropic, tandis qu’Anthropic s’engage à ce que ses dépenses sur AWS dépassent 100 milliards de dollars au cours des dix prochaines années, et à l’obtention jusqu’à 5GW de capacité de calcul supplémentaire, pour entraîner et déployer des modèles Claude.

C’est la deuxième vague majeure d’expansion des « guerres de puissance de calcul » d’Anthropic, après le 7/4, quand Anthropic et Google, Broadcom ont conclu un partenariat pour obtenir 3,5GW de puissance de calcul TPU. Il s’agit aussi du plus grand engagement d’Amazon envers une seule entreprise d’IA ; la valorisation d’Anthropic est ainsi fixée à 38 milliards de dollars.

Structure d’investissement : 5 milliards d’avance, 20 milliards liés à des jalons

L’investissement d’Amazon se décompose en deux étapes : 5 milliards de dollars décaissés immédiatement le jour de l’annonce, et au maximum 20 milliards de dollars qui seront libérés par tranches après avoir été liés à des « jalons commerciaux spécifiques ». En ajoutant les 8 milliards de dollars déjà investis auparavant, le plafond d’investissement cumulé d’Amazon dans Anthropic atteindra 33 milliards de dollars.

Les 5 milliards de dollars de cette fois-ci seront investis pour entrer au capital sur la base de la dernière valorisation d’Anthropic de 38 milliards de dollars ; c’est également la première fois que cette valorisation est confirmée pour la première fois par un investisseur de premier rang via un nouveau contrat.

Anthropic s’engage à 100 milliards de dépenses sur AWS sur dix ans

En contrepartie de la coopération, Anthropic s’engage à ce que ses dépenses sur AWS dépassent 100 milliards de dollars au cours des dix prochaines années ; le périmètre couvre à la fois les puces d’IA personnalisées Trainium des générations actuelles et futures, ainsi que les CPU d’usage général Graviton avec « des dizaines de millions de cœurs ».

Andy Jassy (PDG d’Amazon) a déclaré dans l’annonce : « En s’engageant à exécuter les grands modèles de langage sur AWS Trainium au cours des dix prochaines années, Anthropic reflète nos progrès conjoints sur la voie des puces personnalisées. » Dario Amodei (PDG d’Anthropic) a quant à lui indiqué : « Les utilisateurs nous disent que Claude devient de plus en plus important pour leur travail ; nous devons construire une infrastructure capable de suivre la croissance des besoins. »

Feuille de route des 5GW de capacité de calcul : Trainium2, 3 et 4 sur toute la gamme verrouillés

Cette convention couvre trois générations de puces : Trainium2, Trainium3 et Trainium4, et Anthropic conserve l’option d’acheter des puces personnalisées des générations suivantes. En termes de calendrier précis, une large mise en service des capacités de Trainium2 aura lieu au T2 2026 ; les grandes capacités de Trainium3 seront progressivement mises en service d’ici la fin de l’année, et l’ensemble des capacités cumulées sur l’année de Trainium2 et Trainium3 représentera près de 1GW.

Project Rainier est le projet phare de la collaboration existante des deux parties ; ce cluster d’entraînement est actuellement déployé avec environ 500 000 puces Trainium2, qui constituent l’infrastructure principale pour l’entraînement des modèles Claude.

Des revenus de 9 milliards à 30 milliards : l’explosion de la demande d’Anthropic comme moteur des négociations

Dans l’annonce, Anthropic révèle de manière rare sa situation financière : son chiffre d’affaires annualisé a déjà dépassé 30 milliards de dollars ; par rapport aux 9 milliards de dollars à la fin 2025, il a plus que triplé en l’espace de six mois. Le nombre de clients entreprises utilisant Claude sur la plateforme Amazon Bedrock a également dépassé 100 000 ; Claude fait partie des familles de modèles les plus utilisées sur la plateforme Amazon Bedrock.

Anthropic admet aussi que l’explosion de la demande a entraîné des contraintes sur l’infrastructure pendant les périodes de pointe, avec un impact sur la disponibilité et la performance ; c’est précisément la motivation directe de cette extension massive de capacité de calcul. Les controverses récentes autour du tokenizer de Claude Opus 4.7 et les ajustements des limites d’utilisation sont également liés à la réalité de cette « infrastructure sous tension ».

Consolidation de la puissance de calcul à trois : AWS, Google et accélérateurs développés en interne progressent en parallèle

En plus des 3,5GW de puissance de calcul TPU annoncés plus tôt en avril dans le cadre du partenariat d’Anthropic avec Broadcom et Google, Anthropic a déjà lié simultanément deux trajectoires de puces personnalisées, AWS Trainium et Google TPU, tout en conservant une option de long terme pour ses accélérateurs développés en interne. Cette approche contraste avec celle d’OpenAI, qui suit la voie reposant principalement sur Microsoft Azure, puis en élargissant récemment AWS.

Pour la chaîne d’approvisionnement des semi-conducteurs à Taïwan, la montée en production à grande échelle de Trainium2 à Trainium4 implique que Marvell, les fournisseurs d’emballage avancé de TSMC et les fournisseurs de mémoire HBM continueront à prendre en charge des commandes de puces personnalisées d’AWS au cours des trois à cinq prochaines années.

Du courage de la capacité de calcul en coulisses de la course à l’IPO

Cette annonce renforce aussi les bases du récit d’une introduction en bourse d’Anthropic. Des reportages récents indiquent que le chiffre d’affaires annualisé d’OpenAI a dépassé 25 milliards de dollars, tandis qu’Anthropic, avec 19 milliards, poursuit ; ces reportages révèlent que l’écart entre les revenus des deux sociétés se réduit. D’après les annonces officielles, le chiffre d’affaires annualisé d’Anthropic se situe désormais à 30 milliards de dollars, et l’écart se resserre davantage.

Pour les investisseurs, l’enjeu de l’engagement d’Amazon ne réside pas dans le montant d’une seule opération, mais dans le niveau de liaison « de 100 milliards de dollars de dépenses AWS sur dix ans », qui ancre clairement pour le marché l’approvisionnement en puissance de calcul d’Anthropic et la structure à long terme des coûts. Project Glasswing, modèle à seuil d’exigence élevé Mythos, ainsi que la capacité de calcul d’entraînement ultérieure de la série Claude 4.x seront pris en charge par ces 5GW de nouvelle capacité.

Cet article « Amazon renforce l’investissement dans Anthropic de 25 milliards de dollars : 5GW de puissance de calcul, liaison AWS de 100 milliards » est apparu pour la première fois sur Chaîne News ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Alibaba Cloud Lance Qwen-Image-2.0-Pro avec une Génération Texte-Image et une Retouche Unifiées, prenant en charge le rendu de texte multilingue

Message des actualités Gate News, 26 avril — La plateforme Alibaba Cloud Bailian a lancé Qwen-Image-2.0-Pro, une version complète de la série Qwen-Image-2.0 qui combine la génération texte-image et le retouche d’images au sein d’un seul modèle. Les utilisateurs peuvent modifier directement des objets, du texte et des styles via des commandes en langage naturel

GateNewsIl y a 1h

L’API DeepSeek V4-Pro bénéficie d’une réduction de 75 % jusqu’au 5 mai, le prix de sortie passe à 0,87 $ par million de jetons

Message des actualités Gate, 26 avril — DeepSeek a annoncé une réduction de 75 % à durée limitée sur les tarifs de l’API V4-Pro, valable jusqu’au 5 mai à 15:59 UTC. Après la réduction, le prix par million de jetons est : entrée — cache hit 0,03625 $

GateNewsIl y a 3h

Anthropic met en place des garanties électorales pour Claude avant les élections législatives de mi-mandat de 2026

Anthropic a annoncé vendredi une série de mesures d’intégrité électorale conçues pour empêcher son chatbot d’IA Claude d’être utilisé à des fins de militarisation afin de diffuser de la désinformation ou de manipuler les électeurs avant les élections législatives américaines de mi-mandat de 2026 et d’autres grands scrutins dans le monde cette année. Basée à San Francisco,

CryptoFrontierIl y a 8h

DeepRoute.ai système d’aide à la conduite avancée dépasse 300 000 véhicules déployés : objectif 2026 1 000 000 de flotte de véhicules urbains NOA

DeepRoute.ai annonce avoir déployé plus de 300 000 véhicules de son système avancé d’aide à la conduite en Chine, et avoir permis d’éviter plus de 180 000 incidents potentiels au cours de l’année écoulée. L’objectif pour 2026 est d’atteindre une flotte de 1 million de véhicules pour le NOA en ville, avec un taux d’utilisation supérieur à 50 %, considéré comme un élément clé de la commercialisation à grande échelle des Robotaxi. Cette initiative montre que la conduite autonome en Chine est désormais utilisée de manière courante, tout en traçant une voie distincte de l’approche d’intégration verticale aux États-Unis, ce qui affecte le calendrier des chaînes d’approvisionnement en Asie-Pacifique.

ChainNewsAbmediaIl y a 9h

DeepSeek lance les modèles V4-Pro et V4-Flash à un coût inférieur de 98 % à celui du GPT-5.5 Pro d’OpenAI

Message de Gate News, 25 avril — DeepSeek a publié des versions préliminaires de V4-Pro et V4-Flash le 24 avril, deux modèles open-weight avec des fenêtres de contexte d’un million de tokens. V4-Pro dispose de 1,6 billion de paramètres au total, mais n’active que 49 milliards par passe d’inférence en utilisant une architecture de type Mixture-of-Experts.

GateNewsIl y a 14h

Le juge rejette les allégations de fraude dans la plainte d’Elon Musk contre OpenAI ; l’affaire progresse vers un procès avec deux allégations restantes

Message de Gate News, 24 avril — Un juge fédéral a rejeté les allégations de fraude dans la plainte d’Elon Musk contre OpenAI, Sam Altman, Greg Brockman et Microsoft, ouvrant la voie à la poursuite de l’affaire devant le tribunal sur deux allégations restantes : violation de la confiance à but caritatif et enrichissement injustifié. États-Unis.

GateNewsIl y a 18h
Commentaire
0/400
Aucun commentaire