Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Claude "polluerait" la chaîne d'approvisionnement du Pentagone, selon un haut responsable
Un haut responsable du Pentagone a déclaré jeudi que les modèles d’intelligence artificielle d’Anthropic “pollueraient” la chaîne d’approvisionnement militaire.
S’exprimant sur CNBC, le directeur de la technologie du Département de la Défense, Emil Michael, a indiqué que les modèles Claude de la startup ont “une préférence politique différente” intégrée dans leur conception.
Contenu associé
Amazon’s Zoox décroche son premier contrat Uber pour des courses en robotaxi
Les actions d’Oracle s’envolent après un bénéfice supérieur aux attentes et une prévision de revenus de 90 milliards de dollars
L’agence a récemment annoncé qu’elle désignait Anthropic comme un risque pour la chaîne d’approvisionnement, une mesure que Michael a dit vouloir prendre pour empêcher les soldats de recevoir des armes ou protections inefficaces. Cette désignation marque la première fois qu’une entreprise américaine reçoit une telle étiquette, généralement réservée aux adversaires étrangers. Les contractants de la défense doivent désormais certifier qu’ils n’utilisent pas Claude pour des travaux liés au Pentagone.
Malgré la liste noire, certains grands contractants continuent d’utiliser cette technologie. Le PDG de Palantir Technologies, Alex Karp, a déclaré jeudi sur CNBC que sa société utilisait toujours Claude. Karp a noté que, bien que le gouvernement envisage de supprimer progressivement la startup, les produits de Palantir restent pour l’instant intégrés aux modèles.
Le Pentagone utilise actuellement Claude pour soutenir ses opérations militaires en Iran. Michael a indiqué que l’agence ne peut pas “démonter” cette technologie immédiatement et a élaboré un plan de transition. Il a comparé le logiciel à des systèmes profondément intégrés plutôt qu’à de simples applications de bureau.
Anthropic a poursuivi l’administration Trump, décrivant les actions du gouvernement comme “sans précédent et illégales”. Le dossier juridique de la société affirme que cette désignation cause un préjudice irréparable et menace des centaines de millions de dollars de contrats. Anthropic a été fondée en 2021 et utilise une “constitution” pour définir le comportement et les lignes éthiques de son IA.
L’ancien président Donald Trump a précédemment critiqué la société sur les réseaux sociaux, qualifiant ses employés de “fous de gauche”. Une note interne du directeur de l’information du Pentagone indique que l’utilisation de ces outils pourrait continuer au-delà d’une période de suppression prévue de six mois si la technologie est jugée essentielle à la sécurité nationale et qu’aucune alternative n’existe.
📬 Inscrivez-vous au Briefing Quotidien
Notre briefing gratuit, rapide et ludique sur l’économie mondiale, livré chaque matin en semaine.
Inscrivez-moi