Claude "polluerait" la chaîne d'approvisionnement du Pentagone, selon un haut responsable

robot
Création du résumé en cours

Un haut responsable du Pentagone a déclaré jeudi que les modèles d’intelligence artificielle d’Anthropic “pollueraient” la chaîne d’approvisionnement militaire.

S’exprimant sur CNBC, le directeur de la technologie du Département de la Défense, Emil Michael, a indiqué que les modèles Claude de la startup ont “une préférence politique différente” intégrée dans leur conception.

Contenu associé

Amazon’s Zoox décroche son premier contrat Uber pour des courses en robotaxi

Les actions d’Oracle s’envolent après un bénéfice supérieur aux attentes et une prévision de revenus de 90 milliards de dollars

L’agence a récemment annoncé qu’elle désignait Anthropic comme un risque pour la chaîne d’approvisionnement, une mesure que Michael a dit vouloir prendre pour empêcher les soldats de recevoir des armes ou protections inefficaces. Cette désignation marque la première fois qu’une entreprise américaine reçoit une telle étiquette, généralement réservée aux adversaires étrangers. Les contractants de la défense doivent désormais certifier qu’ils n’utilisent pas Claude pour des travaux liés au Pentagone.

Malgré la liste noire, certains grands contractants continuent d’utiliser cette technologie. Le PDG de Palantir Technologies, Alex Karp, a déclaré jeudi sur CNBC que sa société utilisait toujours Claude. Karp a noté que, bien que le gouvernement envisage de supprimer progressivement la startup, les produits de Palantir restent pour l’instant intégrés aux modèles.

Le Pentagone utilise actuellement Claude pour soutenir ses opérations militaires en Iran. Michael a indiqué que l’agence ne peut pas “démonter” cette technologie immédiatement et a élaboré un plan de transition. Il a comparé le logiciel à des systèmes profondément intégrés plutôt qu’à de simples applications de bureau.

Anthropic a poursuivi l’administration Trump, décrivant les actions du gouvernement comme “sans précédent et illégales”. Le dossier juridique de la société affirme que cette désignation cause un préjudice irréparable et menace des centaines de millions de dollars de contrats. Anthropic a été fondée en 2021 et utilise une “constitution” pour définir le comportement et les lignes éthiques de son IA.

L’ancien président Donald Trump a précédemment critiqué la société sur les réseaux sociaux, qualifiant ses employés de “fous de gauche”. Une note interne du directeur de l’information du Pentagone indique que l’utilisation de ces outils pourrait continuer au-delà d’une période de suppression prévue de six mois si la technologie est jugée essentielle à la sécurité nationale et qu’aucune alternative n’existe.

📬 Inscrivez-vous au Briefing Quotidien

Notre briefing gratuit, rapide et ludique sur l’économie mondiale, livré chaque matin en semaine.

Inscrivez-moi

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler