Google vise ouvertement le réseau de centres de données ultra-gros « Vergo » axé sur l’« IA proxy »… Renforcer la capacité de gestion de la latence et des pannes

robot
Création du résumé en cours

Google a annoncé un réseau de centres de données ultra-grands modèles et une infrastructure cloud interopérable pour l’ère de l’‘Intelligence Artificielle Agentique (Agentic AI)’. Alors que l’environnement où l’IA appelle des outils externes en millisecondes devient de plus en plus courant, la compétition pour une infrastructure réduisant la latence et traitant de manière stable des calculs à grande échelle s’intensifie.

Le 24, Google a publié son tout nouveau système de réseau d’infrastructure IA, ‘Virgo Network’. Ce système vise à améliorer la vitesse de communication globale entre les clusters d’accélérateurs, ainsi qu’entre la mémoire, le calcul et les ressources de stockage à l’intérieur même des centres de données.

L’élément central est une structure de réseau ‘aplatie’. Cette méthode réduit le nombre de niveaux traversés lors du transfert de données pour diminuer les goulets d’étranglement. Selon Google, le réseau Virgo peut connecter jusqu’à 134 000 puces, y compris la 8e génération de processeurs TPU 8t utilisés pour la formation. Sa bande passante bidirectionnelle peut atteindre 47 péta-bits par seconde (Pbps). La société indique qu’elle a augmenté la bande passante par accélérateur de plus de 4 fois par rapport à la génération précédente.

Ce qui est notable dans cette annonce, c’est qu’au-delà de la simple compétition de vitesse, une importance totale est donnée à la ‘résilience’. Dans des clusters IA de très grande taille, les pannes, la latence et la baisse de vitesse de certains appareils sont presque inévitables. Google affirme qu’ils ont combiné une fonction de ‘visibilité’ pour observer finement l’état global du réseau avec un logiciel de contournement/récupération automatique. Elle inclut également l’utilisation d’un plan d’échange indépendant pour garantir que, même en cas de latence ou de panne réseau, le débit global ne fluctue pas brutalement.

Google décrit le Virgo Network comme n’étant pas une simple extension des centres de données existants, mais comme un produit d’infrastructure indépendant, conçu selon le principe de ‘traiter tout le campus comme un supercalculateur’. La société prône la surveillance de l’état du système en moins d’un milliseconde pour optimiser la gestion des congestions et des buffers en temps réel, tant au niveau matériel que logiciel. Cela est particulièrement crucial dans des environnements où l’‘Agentic AI’ doit simultanément gérer l’appel d’outils, le raisonnement et la récupération d’informations pour la génération augmentée (RAG).

Lancement simultané d’une couche de connectivité et de sécurité transcendant les frontières du cloud

En plus du réseau de centres de données, Google a également lancé une couche de connectivité cloud et de sécurité pour les charges de travail d’‘Agentic AI’. La société résume cette mise à jour en quatre piliers : ‘Calcul Élastique’, ‘Connectivité Cloud Sécurisée’, ‘Couche de Données Unifiée’ et ‘Souveraineté Numérique’.

Premièrement, ‘Calcul Élastique’ est une architecture conçue pour gérer plus efficacement la variabilité des demandes des agents IA. Google explique qu’en améliorant l’accessibilité des CPU, ils permettent une réponse plus rapide et plus économique à ces demandes. En particulier, ils proposent des ressources CPU optimisées pour des tâches telles que le raisonnement, l’orchestration d’agents et la récupération augmentée, pour compléter la insuffisance des GPU.

Pour cela, Google a appliqué des CPU C4N et M4N sur des machines virtuelles (VM) basées sur Google Compute Engine et Google Kubernetes Service. Google indique que ce système peut traiter jusqu’à 95 millions de paquets par seconde, soit jusqu’à 40 % plus vite que les principaux fournisseurs de cloud à grande échelle.

Dans le domaine de la connectivité cloud sécurisée, la ‘Passerelle d’Agent’ occupe une position centrale. Ce contrôleur surveille l’accès des agents IA et contrôle fondamentalement les protocoles comme le protocole de contexte de modèle (MCP) et le protocole entre agents (A2A). Il est précisé que cette passerelle garantit, dans un environnement multi-cloud, la visibilité et la protection des flux de données en transit entre différents réseaux.

‘L’IA vers le lieu où se trouvent les données’ plutôt que ‘déplacer les données’

La couche de données unifiée se concentre sur la capacité de l’IA à comprendre et exploiter directement les données dispersées dans plusieurs dépôts d’entreprise. Google indique que la ‘Stockage Intelligent’ injecte des métadonnées dans les objets de données, transformant ainsi les ‘données statiques’ traditionnelles en actifs de connaissance lisibles par l’IA.

Une fois cette architecture en place, elle permet d’appliquer des recherches sémantiques sur divers formats d’informations comme les tableurs, documents, PDF, images, et d’automatiser l’annotation et l’extraction d’insights. Cette approche vise à réduire la phénomène d’‘îlots’ où les données sont confinées dans des dépôts spécifiques, facilitant ainsi la recherche rapide d’informations par l’agent IA.

Un ‘Répertoire de Connaissances’ publié en graphique relie les connaissances internes de l’entreprise, aidant l’agent IA à mieux comprendre les processus métier et le contexte. Google insiste sur le fait qu’avec cette méthode, il n’est pas nécessaire de déplacer les données pour optimiser l’apprentissage et la réponse de l’IA. En d’autres termes, il ne s’agit pas de transférer les données vers un emplacement central, mais de faire fonctionner le modèle IA dans l’environnement ‘privé’ où résident les données.

Ce lancement indique que la compétition dans l’IA se déplace rapidement du seul domaine de la performance des modèles vers l’infrastructure réseau, sécurité et gestion des données qui les supportent. En particulier, avec l’introduction officielle de l’‘Agentic AI’ dans les entreprises, la faible latence, la haute résilience et la gestion multi-cloud pourraient devenir des différenciateurs clés. Cette initiative de Google est perçue comme un signal que la concurrence entre grandes entreprises technologiques pour dominer l’infrastructure IA s’intensifie.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler