Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
J'ai remarqué une tendance intéressante dans la Silicon Valley — il y a constamment de nouveaux « prophètes » qui nous parlent de l'apocalypse tout en nous vendant une salvation. Sam Altman est simplement le modèle le plus réussi de cette chaîne.
Revenons à 2016. The New Yorker a écrit un article à son sujet, alors qu'il avait 31 ans. À cette époque, il était déjà président de Y Combinator et se préparait avec des armes, de l'or, de l'iode pour se protéger des radiations nucléaires. Il avait deux valises d’évacuation et un terrain à Big Sur, d’où il pouvait rapidement s’envoler en avion. Dix ans plus tard, il est devenu celui qui crie le plus fort sur le danger de l’IA pour l’humanité — tout en accélérant ce même danger.
Voici en quoi consiste son modèle économique : présenter tout comme une guerre sainte pour la survie de l’humanité. Il l’a perfectionné chez YC, transformant un petit atelier en une immense empire. Puis il a transféré cette tactique à OpenAI. Il parle des « risques existentiels » de l’IA, les compare à une guerre nucléaire, dit au Sénat que les gens doivent avoir peur — et chaque mot devient un titre. Publicité gratuite par la peur contrôlée.
Et ensuite, il propose une solution : Worldcoin. Une sphère argentée, scannant l’iris pour distribuer de l’argent à l’ère de l’IA. Cela semble salvateur, mais la pratique a rapidement suscité des inquiétudes — plus de dix pays ont suspendu le projet à cause de questions de confidentialité. Mais pour Altman, ce n’est pas le plus important. L’essentiel est qu’il se positionne comme le seul à avoir la réponse.
Concernant la régulation — c’est un maître du retournement. En 2023, il s’est exprimé au Congrès en disant : « S’il vous plaît, régulez-nous. » Il a proposé un système de licences qui éliminerait la concurrence. Mais quand Google et Anthropic ont rattrapé la technologie, sa position a changé. Maintenant, il dit que la régulation stricte freine l’innovation. Quand il était en avance — il appelait à des règles. Quand il a perdu son avantage — il prône la liberté.
Derrière cela, il y a la transformation d’OpenAI. Fondée comme une organisation à but non lucratif avec la mission de « garantir en toute sécurité l’AGI ». En 2024, le mot « en toute sécurité » a été discrètement retiré de la mission. Les revenus ont explosé, passant de dizaines de millions en 2022 à plus de 10 milliards en 2024. La valorisation de l’entreprise est passée de 29 milliards à 100 milliards.
Souvenez-vous de novembre 2023 ? Il a été évincé du conseil d’administration pour « communication malhonnête ». Il s’est avéré qu’il cachait le contrôle d’un fonds de capital-risque, mentait sur les processus de sécurité, même sur le lancement de ChatGPT, dont le conseil a appris via Twitter. Chacune de ces violations aurait dû lui coûter sa place. Mais non. 95 % des employés ont signé une pétition, Microsoft s’est rangé de son côté, et il est revenu avec encore plus de pouvoir. Il a licencié presque tout le conseil.
Pourquoi ? Parce qu’il n’est pas un PDG ordinaire — c’est un « leader charismatique » selon Max Weber. Ses followers croient non pas en les procédures, mais en lui. Lorsqu’on le remet en question, ils le défendent. Après son retour, l’équipe de sécurité d’OpenAI a été dissoute. Le directeur scientifique, qui avait initié son éviction, est parti. En mai 2024, le responsable de la sécurité a tweeté : « La culture de sécurité a été sacrifiée au profit de produits brillants. »
Mais il n’est pas seul. Musk parle du danger de l’IA, mais Tesla est la plus grande entreprise de robotique. Zuckerberg a dépensé 90 milliards pour le métavers, puis s’est tourné vers l’AGI. Peter Thiel investit dans des entreprises sur la singularité tout en construisant des refuges en Nouvelle-Zélande. Palantir, sa société, a été « le cerveau » des opérations contre l’Iran début 2026, intégrant des données de satellites et de drones via Claude.
Chacun joue un double rôle — prévenir de l’apocalypse et la créer. Ce n’est pas une dissociation de personnalité, c’est un modèle d’affaires.
Passons à sa fortune. Il a toujours dit qu’il ne possédait pas d’actions d’OpenAI et qu’il travaillait par amour. Mais Bloomberg estime sa fortune personnelle à environ 2 milliards de dollars. Cela vient d’investissements — Stripe lui a rapporté des centaines de millions, Reddit aussi. Il a investi dans Helion, une société de fusion thermonucléaire, affirmant que l’avenir de l’IA dépend de l’énergie, puis OpenAI a signé un gros contrat d’électricité avec Helion.
Il n’a pas d’actions directes d’OpenAI, mais il a construit autour une immense empire d’investissements. Chaque de ses discours sur l’avenir de l’humanité augmente la valeur de cet empire. La fortune de Sam Altman ne croît pas de son salaire, mais de cette architecture d’intérêts.
Revenons au sac d’évacuation avec des armes, de l’or, des antibiotiques et un terrain à Big Sur. Il ne l’a jamais caché. La trousse d’évacuation est réelle, le bunker est réel, l’obsession de l’apocalypse est réelle. Mais c’est lui aussi qui accélère l’apocalypse. Ce n’est pas une contradiction — dans sa logique, l’apocalypse n’a pas besoin d’être arrêtée, il suffit de prendre une position avantageuse à l’avance.
En février 2026, il a déclaré une ligne rouge — ne pas utiliser l’IA en guerre. Et il a immédiatement signé un contrat avec le Pentagone. Ce n’est pas de l’hypocrisie, c’est une nécessité interne à son modèle. Les positions morales font partie du produit, les contrats en sont la source de profit.
Il doit à la fois être un sauveur compatissant et un prophète impitoyable de l’apocalypse. C’est la seule façon dont son histoire continue, c’est la seule façon dont son « destin » devient évident.
Le vrai danger, ce n’est pas l’IA, mais ceux qui se croient en droit de décider du destin de l’humanité.