Google a développé un « équivalent de Pied Piper » pour accélérer huit fois les calculs dans les réseaux neuronaux - ForkLog : cryptomonnaies, IA, singularité, avenir

robot
Création du résumé en cours

Google 2025# Google a développé un « équivalent de Pied Piper » pour accélérer huit fois le calcul dans les réseaux neuronaux

La division de recherche de Google a présenté TurboQuant — un algorithme de compression de mémoire pour l’intelligence artificielle. Les utilisateurs ont comparé cette innovation à la technologie de la startup Pied Piper dans la série « Silicon Valley ».

TurboQuant est le nouveau Pied Piper 🤣 pic.twitter.com/iMAYJs02zt

— Justin Trimble (@justintrimble) 25 mars 2026

TurboQuant réduit considérablement les besoins en ressources pour faire fonctionner de grands modèles linguistiques et des systèmes de recherche vectorielle.

L’intelligence artificielle manipule des matrices multidimensionnelles complexes, contenant des informations sur des mots ou des images. Ces données occupent beaucoup d’espace dans le cache et ralentissent la génération de réponses. Les méthodes de compression traditionnelles nécessitent de stocker des variables supplémentaires, ce qui annule souvent les bénéfices de l’optimisation.

TurboQuant résout le problème de la consommation excessive de mémoire grâce à deux mécanismes. Le premier algorithme convertit les vecteurs en coordonnées polaires et compresse la majorité des données. Le second fonctionne comme un contrôleur mathématique, utilisant un seul bit de mémoire pour éliminer les erreurs résiduelles cachées.

Le PDG de Cloudflare, Matthew Prince, a comparé cet algorithme aux avancées du modèle chinois DeepSeek, qui a déjà démontré une grande efficacité avec un minimum de matériel.

C’est le DeepSeek de Google. Il y a encore beaucoup de marge pour optimiser l’inférence de l’IA en termes de vitesse, d’utilisation de la mémoire, de consommation d’énergie et d’utilisation multi-locataire. De nombreuses équipes chez @Cloudflare travaillent sur ces aspects. #restezàlécoute https://t.co/hHoY4sLT2I

— Matthew Prince 🌥 (@eastdakota) 25 mars 2026

Les développeurs ont testé cette technologie sur des modèles ouverts Llama, Gemma et Mistral. L’algorithme a compressé le cache jusqu’à trois bits sans perte de qualité dans les réponses. La consommation de mémoire a été réduite d’au moins six fois, et la vitesse de calcul sur les accélérateurs graphiques H100 a augmenté de huit fois.

Cette innovation ne nécessite pas de formation supplémentaire des réseaux neuronaux. Selon la société, la technologie sera intégrée dans les algorithmes de recherche et ses propres produits d’IA, y compris Gemini. La présentation publique du projet aura lieu lors des conférences spécialisées ICLR et AISTATS en 2026.

Rappelons qu’au 25 mars, Google a dévoilé ses plans pour la transition vers la cryptographie post-quantique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler