Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Google vient de faire un mouvement très stratégique lors de la conférence Cloud Next à Las Vegas.
Lancé deux nouveaux processeurs TPU de huitième génération simultanément, et cela marque un tournant important dans la façon dont l'entreprise perçoit le marché de l'IA.
Pour la première fois, Google a complètement séparé les puces d'entraînement et d'inférence.
Il y a le TPU 8t axé sur l'entraînement des modèles d'IA, et le TPU 8i optimisé pour exécuter ces modèles en production.
C'est un changement tactique clair - ils reconnaissent que ces deux tâches ont des besoins très différents.
Les chiffres de performance sont intéressants.
Le TPU 8t offre 124 % d'efficacité en plus par watt comparé à la génération précédente, tandis que le TPU 8i affiche une amélioration de 117 %.
Comparé à Ironwood sorti en novembre, le TPU 8t fournit 2,8 fois plus de performance pour le même prix, et le 8i est 80 % plus efficace.
Ces gains ne sont pas triviaux.
Ce qui attire le plus l'attention sur le TPU 8t, c'est sa capacité à évoluer jusqu'à 9 600 unités dans un seul système.
Google est bien conscient qu'avec des installations de cette taille, l'énergie est devenue le limiteur critique des centres de données.
C'est pourquoi l'efficacité énergétique est devenue la priorité absolue.
Quant au TPU 8i, il adopte une approche différente.
Chaque puce contient 384 Mo de SRAM - trois fois plus que Ironwood.
Cela a beaucoup de sens pour l'inférence, où la puce doit traiter plusieurs étapes de raisonnement sans avoir à rechercher des données à l'extérieur tout le temps.
Idéal pour faire fonctionner des agents d'IA complexes.
Les deux processeurs seront sur le marché à la fin de 2026.
Sundar Pichai, PDG d'Alphabet, a clairement indiqué que l'architecture a été conçue pour "faire fonctionner des millions d'agents simultanément de manière économiquement viable".
C'est le point - il ne s'agit pas seulement d'avoir de meilleures puces, mais de le faire sans dépasser le budget.
Du côté logiciel, Google a lancé la Gemini Enterprise Agent Platform avec de nouvelles fonctionnalités.
Memory Bank et Memory Profile permettent aux agents de se souvenir des interactions passées avec les utilisateurs - résolvant un problème réel que les anciennes outils avaient.
Il y a aussi Agent Simulation pour mieux tester avant le lancement.
La plateforme Projects intègre des données de Workspace, OneDrive et des chats d'entreprise, donnant du contexte aux agents.
De plus, ils ont lancé Gemini Enterprise pour les employés ordinaires, positionné comme un "assistant IA pour chacun", sans avoir besoin d'écrire du code.
Tout cela constitue une double attaque - matériel et logiciel - contre Nvidia, OpenAI et Anthropic.
Google est bien conscient que les ingénieurs de la Silicon Valley alternent souvent entre Claude d'Anthropic et Codex d'OpenAI pour le développement de l'IA, en négligeant rarement les outils de Google.
Cela dérange clairement la direction.
L'adoption du TPU s'accélère.
Citadel Securities a déjà construit un logiciel quantitatif sur TPU de Google.
Les 17 laboratoires nationaux du Département de l'Énergie des États-Unis utilisent des outils collaboratifs basés sur TPU.
Meta a signé un accord à long terme pour utiliser le TPU de Google, et Anthropic s'est engagé à une capacité informatique à l'échelle des gigawatts.
Les analystes de DA Davidson estiment que la valeur combinée des affaires de TPU et de DeepMind de Google dépassait 900 milliards de dollars en septembre dernier.
Il est intéressant de noter que Google n'a pas directement comparé son nouveau TPU aux produits Nvidia.
Pendant ce temps, Nvidia s'apprête à lancer une nouvelle gamme intégrant la technologie de Groq, qu'ils ont acquise pour 20 milliards de dollars, spécialement conçue pour l'inférence à très faible latence.
Jensen Huang de Nvidia a déclaré que plus de 20 % des charges d'IA pourraient être mieux gérées par ce type de puce.
Google teste la mise en œuvre du TPU dans les centres de données de clients et promeut la compatibilité avec des outils tiers.
Mais les goulets d'étranglement de l'approvisionnement et le décalage entre les itérations rapides des modèles et les cycles de développement de puces qui prennent des années restent des défis réels pour l'expansion.