Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Avertissement d'Ultraman : Le nouveau modèle de sécurité OpenAI GPT 5.5-Cyber sera dévoilé dans quelques jours, affrontant Claude Mythos
OpenAI prévoit de lancer un modèle dédié à la cybersécurité GPT-5.5-Cyber, destiné aux experts du domaine, en rivalité avec la stratégie de défense strictement contrôlée d’Anthropic. Ultraman avait prédit qu’en 2026, des attaques informatiques susceptibles de secouer le monde pourraient survenir.
OpenAI GPT-5.5-Cyber dévoilé dans quelques jours
Le PDG d’OpenAI, Sam Altman, a annoncé aujourd’hui (30/04) que dans les prochains jours, la nouvelle génération de modèle de cybersécurité GPT-5.5-Cyber sera lancée, accessible aux experts du secteur. Il a indiqué que l’équipe collaborera avec l’écosystème et le gouvernement pour trouver des moyens fiables d’accès afin d’assurer la sécurité des entreprises et des infrastructures.
En avril de cette année, Altman, lors d’un entretien avec Mike Allen, fondateur d’Axios, avait prédit qu’en 2026, un événement d’attaque informatique susceptible de bouleverser le monde pourrait se produire.
Le public continue de débattre pour savoir si ses propos reflètent fidèlement la menace, tandis que récemment, Anthropic a lancé le modèle Claude Mythos, capable d’identifier de manière autonome les vulnérabilités logicielles, ce qui a intensifié la controverse et suscité l’inquiétude du gouvernement américain.
OpenAI prévoit de déployer ses outils de cybersécurité à tous les niveaux gouvernementaux
Les divergences entre OpenAI et Anthropic sur la stratégie de défense reflètent un débat plus large dans le domaine de l’IA.
Selon CNN, jusqu’à récemment, le programme de confiance et d’accès sécurisé d’OpenAI en matière de cybersécurité était limité à quelques partenaires, mais il s’ouvre désormais à tous les niveaux gouvernementaux vérifiés, du fédéral au local, permettant aux entités autorisées d’utiliser des versions spéciales du modèle avec moins de restrictions.
Sasha Baker, responsable des politiques de sécurité nationale chez OpenAI, a indiqué qu’OpenAI ne se considère pas comme le seul décideur en matière de contrôle des accès et de priorités.
Divergences entre deux géants de l’IA : démocratiser ou contrôler strictement
Le modèle Mythos d’Anthropic possède la capacité d’identifier et d’exploiter des vulnérabilités logicielles. En raison des risques potentiels, la société promeut progressivement cette technologie via un programme strict de contrôle, en collaboration avec des représentants gouvernementaux.
Concernant la sécurité, Anthropic prône une approche prudente et progressive pour ralentir la course aux armements alimentée par l’IA, tandis qu’OpenAI prévoit de rendre ses modèles entièrement accessibles.
Baker a déclaré qu’il était nécessaire de démocratiser la défense informatique pour que tout le monde en bénéficie, et que réserver cette technologie aux 50 plus grandes entreprises selon Forbes n’était pas suffisant. Elle a souligné que c’était une opportunité pour toutes les entreprises de corriger les vulnérabilités avant que ces outils ne tombent entre de mauvaises mains.
Source : Getty Images/ANTHONY WALLACE/AFP Responsable des politiques de sécurité nationale chez OpenAI, Sasha Baker
OpenAI collabore activement avec les États-Unis pour élaborer un plan d’action pour l’ère de l’intelligence
Récemment, OpenAI a organisé un atelier pratique à Washington, où Baker a révélé que les participants comprenaient des représentants du Pentagone, de la Maison Blanche, du Département de la sécurité intérieure et de la DARPA, qui ont testé la sécurité de leurs nouveaux modèles, avec un retour prévu dans quelques semaines.
De plus, OpenAI déploie un plan d’action visant à coordonner la défense cybernétique entre le gouvernement et le secteur privé à l’ère de l’intelligence. La société prévoit d’introduire dans les prochains jours de nouvelles fonctionnalités de sécurité pour les comptes ChatGPT, ainsi que des outils pour aider le public à améliorer ses habitudes de sécurité en ligne.
Démon ou sauveur ? Les géants de l’IA jouent la carte de la crise apocalyptique
Cependant, de nombreuses entreprises d’IA alertent fréquemment sur les risques d’une catastrophe finale, ce qui suscite des doutes dans le monde académique.
Lors d’un entretien avec la BBC, Shannon Vallor, professeure d’éthique à l’Université d’Édimbourg, a souligné que la stratégie de peur des entreprises d’IA était efficace, en façonnant leurs produits comme des entités capables de mettre fin au monde, sans nuire à leur propre pouvoir ou à leur réputation. Cela donne l’impression que la seule entité fiable pour la protection est ces mêmes entreprises.
Elle explique que l’utopie et l’apocalypse sont deux faces d’une même pièce : « Qu’il s’agisse d’un scénario utopique ou apocalyptique, l’échelle est si grande et mythique qu’on a l’impression que la régulation, la gouvernance ou la justice ne peuvent pas vraiment agir. »
Cela pousse les gens à croire qu’ils n’ont d’autre choix que d’attendre, en se demandant si ces technologies finiront par devenir des démons mettant fin à la civilisation ou des sauveurs apportant l’utopie. Même le nom « Mythos » semble conçu pour évoquer une révérence religieuse.
Lecture complémentaire :
Une nouvelle politique pour l’ère de l’IA ! OpenAI propose 4 grandes initiatives : trois jours de repos par semaine, taxe sur les robots.