Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'entreprise d'IA Anthropic cherche un expert en armements pour empêcher les utilisateurs de « mauvais usages »
La société d’intelligence artificielle Anthropic recherche un expert en armes chimiques pour prévenir les « mauvais usages »
il y a 1 jour
PartagerEnregistrer
Zoe Kleinman, rédactrice en technologie
PartagerEnregistrer
La société américaine d’intelligence artificielle (IA) Anthropic cherche à embaucher un expert en armes chimiques et explosifs à haute puissance afin de tenter de prévenir les « usages catastrophiques » de ses logiciels.
En d’autres termes, elle craint que ses outils d’IA ne donnent à quelqu’un des instructions pour fabriquer des armes chimiques ou radioactives, et souhaite qu’un expert garantisse que ses garde-fous soient suffisamment solides.
Dans l’annonce de recrutement sur LinkedIn, la société indique que les candidats doivent avoir au moins cinq ans d’expérience dans la « défense contre les armes chimiques et/ou les explosifs » ainsi que des connaissances sur les « dispositifs de dispersion radiologique » – aussi appelés bombes sale.
La société a confié à la BBC que ce poste était similaire à d’autres emplois dans des domaines sensibles qu’elle a déjà créés.
Anthropic n’est pas la seule société d’IA à adopter cette stratégie.
Un poste similaire a été publié par OpenAI, développeur de ChatGPT. Sur son site de recrutement, il propose un poste de chercheur en « risques biologiques et chimiques », avec un salaire pouvant atteindre 455 000 dollars (335 000 livres sterling), soit presque le double de ce qu’offre Anthropic.
Mais certains experts s’inquiètent des risques liés à cette approche, avertissant qu’elle donne aux outils d’IA des informations sur les armes – même si ces derniers ont été instruits de ne pas les utiliser.
« Est-il jamais sûr d’utiliser des systèmes d’IA pour gérer des informations sensibles sur les produits chimiques et explosifs, y compris les bombes sale et autres armes radiologiques ? » a déclaré la Dr Stephanie Hare, chercheuse en technologie et co-animatrice de l’émission télévisée de la BBC, AI Decoded.
« Il n’existe aucun traité international ni autre réglementation pour ce type de travail et l’utilisation de l’IA avec ces types d’armes. Tout cela se passe à l’abri des regards. »
L’industrie de l’IA a constamment averti des menaces existentielles potentielles que pose sa technologie, mais aucune tentative n’a été faite pour ralentir ses progrès.
La question devient urgente alors que le gouvernement américain appelle les sociétés d’IA tout en lançant la guerre en Iran et des opérations militaires au Venezuela.
L’annonce d’emploi d’Anthropic, société américaine d’IA, recrute un expert en armes chimiques et explosifs à haute puissance pour rejoindre son équipe de politiques
Anthropic poursuit en justice le Département de la Défense des États-Unis, qui l’a désignée comme un risque dans la chaîne d’approvisionnement lorsque la société a insisté sur le fait que ses systèmes ne doivent pas être utilisés dans des armes entièrement autonomes ou pour la surveillance de masse des Américains.
Le co-fondateur d’Anthropic, Dario Amodei, a écrit en février qu’il ne pensait pas que la technologie était encore suffisamment mature et qu’elle ne devait pas être utilisée à ces fins.
La Maison Blanche a déclaré que l’armée américaine ne serait pas régie par des entreprises technologiques.
L’étiquette de risque place la société américaine au même niveau que le géant chinois des télécommunications Huawei, qui a également été blacklisté pour des raisons de sécurité nationale différentes.
OpenAI a déclaré qu’il était d’accord avec la position d’Anthropic, mais a ensuite négocié son propre contrat avec le gouvernement américain, qui n’a pas encore commencé.
L’assistant IA d’Anthropic, appelé Claude, n’a pas encore été retiré, et il est toujours intégré dans des systèmes fournis par Palantir et déployés par les États-Unis dans le cadre de la guerre Iran-Israël.
Les grandes entreprises technologiques soutiennent Anthropic dans sa lutte contre l’administration Trump
Anthropic poursuit le gouvernement américain pour le qualifier de risque
Un leader de la sécurité de l’IA affirme que « le monde est en péril » et quitte son poste pour étudier la poésie
Inscrivez-vous à notre newsletter Tech Decoded pour suivre les principales actualités et tendances technologiques mondiales. Hors Royaume-Uni ? Inscrivez-vous ici.
Intelligence artificielle
Militaire