Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
🚨 LA CRISE DE LA RAM VIENT DE SE TERMINER ET UN ALGORITHME L'A TUÉE
En octobre 2025, OpenAI a volé pour Séoul.
Ils ont signé des accords avec Samsung et SK Hynix.
Pour 900 000 wafers de mémoire. Par mois.
C'est 40 % de toute l'offre mondiale de DRAM.
Réservé. Pour une seule entreprise.
Les kits de RAM DDR5 sont passés de $120 à $490 presque du jour au lendemain.
Les ordinateurs portables sont devenus plus chers.
Les téléphones ont été livrés avec moins de RAM.
Les constructeurs de PC payaient 4 fois ce qu'ils payaient l'année précédente.
Les analystes ont qualifié cela de la pire crise de mémoire en 20 ans.
Puis Google a publié un article de recherche.
Voici pourquoi cela importe.
Chaque chatbot IA que vous utilisez a une « mémoire de travail ».
Elle s'appelle le cache KV.
C'est ainsi que le modèle se souvient de votre conversation pendant que vous parlez.
Elle est stockée avec une précision de 16 bits.
C'est comme écrire chaque mot en lettres majuscules énormes.
C'est précis. Mais c'est massif.
Et à mesure que les fenêtres de contexte IA ont grandi jusqu'à 1 million de tokens, cette mémoire a gonflé.
Les centres de données accumulaient de la RAM juste pour suivre.
L'équipe de Google a posé une question différente.
En a-t-on vraiment besoin d'une aussi grande ?
La réponse était non.
Ils ont développé TurboQuant.
En utilisant la mathématique des coordonnées polaires et la transformation Johnson-Lindenstrauss, ils compressent cette mémoire de 16 bits à 3.
Aucun retrainement requis.
Aucune perte de précision.
6 fois moins de mémoire.
8 fois plus rapide sur Nvidia H100.
L'article est sorti le 25 mars 2026.
Les actions des fabricants de puces mémoire ont chuté en 24 heures.
Et puis quelque chose d'autre s'est produit.
OpenAI était déjà sous pression.
Les investisseurs voulaient réduire les coûts.
Une introduction en bourse potentielle était à l'horizon.
Ils ont annulé un énorme contrat de centre de données avec Oracle au Texas.
Ils ont fermé Sora.
Ils ont discrètement réduit leurs commandes de RAM auprès de Samsung et SK Hynix.
Les kits DDR5 ont chuté de $100 en quelques semaines.
La crise de la RAM a commencé à se résorber presque du jour au lendemain.
Voici la vraie leçon.
La pénurie n'était pas un problème matériel.
C'était un pari.
Un pari que l'IA serait toujours gourmande en mémoire.
Que la seule solution était d'acheter plus de puces.
TurboQuant a invalidé ce pari au niveau logiciel.
Gratuitement.
Un article de recherche a modifié l'économie d'une industrie entière.
Voici à quoi ressemble l'efficacité algorithmique en tant que force macro.
Et nous ne faisons que commencer.