Récemment, j'ai lu une analyse approfondie sur l'application de l'IA dans le domaine militaire, avec certaines observations qui méritent réflexion.



En résumé, l'armée américaine a complètement changé son mode d'opération traditionnel lors d'une action contre une haute instance d'un pays. Il ne s'agit plus de bombardements massifs classiques, mais d'une « arme définie par logiciel » composée de la plateforme de données Palantir, du système de drones Anduril et du grand modèle Claude. La logique derrière est assez effrayante.

Le rôle de Palantir ressemble à un « cerveau de champ de bataille ». Sa technologie ontologique peut transformer des images satellites, des écoutes de communication, des données des réseaux sociaux, ces informations disparates, en une carte de champ de bataille en temps réel. Les commandants ne consultent plus de nombreux rapports, mais voient un champ de bataille numérique vivant. Plus impressionnant encore, ils ont déployé des ingénieurs en opération sur le terrain directement dans l'armée, réduisant la mise à jour du système qui prenait plusieurs mois à quelques heures.

Côté communication, le conglomérat de satellites Starshield de SpaceX est devenu crucial. Lorsque l'Iran coupe le réseau terrestre pour créer un vide informationnel, ces 480 satellites cryptés maintiennent la communication via des liaisons laser inter-satellites. Un terminal portable de deux pieds de côté peut transmettre en quelques secondes des images haute résolution de plusieurs pétaoctets.

Ce qui est intéressant, c'est la division autour de l'éthique de l'IA. Claude, en raison de ses garde-fous de sécurité, a été marginalisé par le ministère de la Défense, tandis qu'OpenAI et xAI sont privilégiés car ils ne sont pas soumis à la « correction politique ». Mais ironiquement, Claude a finalement joué un rôle clé en coulisses — en traitant des millions d'appels interceptés en persan, en identifiant les fissures dans la chaîne de commandement, et en fournissant des renseignements pour les frappes. Les analystes n'ont qu'à demander : « Si nous faisons cela, où la cible est-elle le plus susceptible de s'enfuir ? », et Claude peut générer, basé sur la théorie militaire et les renseignements en temps réel, la meilleure stratégie d'interception.

Plus effrayant encore, ce sont les systèmes développés par l'armée israélienne. Lavender peut attribuer des scores à des millions de personnes, Habosolah génère 100 cibles par jour. La chose la plus terrifiante, c'est que les humains ne passent que 20 secondes à vérifier — juste pour voir si c'est un homme ou non. Il y a aussi un système appelé « Papa où ? », qui suit quand une cible rentre chez elle, car lancer une attaque à domicile est plus facile que depuis une base militaire.

Au niveau opérationnel, les drones d'Anduril et Shield AI peuvent opérer de manière autonome même en perdant GPS et communication satellite. Les drones peuvent passer d’un système d’IA à un autre en vol — comme une mise à jour d’application sur un téléphone. Les soldats portent des
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler