On le sonne pour des idées de visites lors de nos prochaines vacances, un avis sur une vilaine toux, ou encore des corrections dans nos e-mails de travail. Avec ChatGPT, l’IA générative s’est imposée dans des usages quotidiens. Mais peut-on s’en servir avant d’envoyer un missile sur l'ennemi ? C’est ce que suggère l’utilisation de Claude, l'IA de l’entreprise Anthropic, par le Pentagone, le ministère de la Défense américain, lors des récentes frappes en Iran menées conjointement avec Israël. Selon le Wall Street Journal, le commandement militaire américain a recouru à des outils d’IA générative à des fins de renseignement, de sélection des cibles et de simulations de champs de bataille. Quelques mois plus tôt, Anthropic aurait également été à la manœuvre dans l’assaut contre le régime vénézuélien et la capture du dictateur Nicolas Maduro.
L’IA générative est aujourd’hui présente dans de nombreux pans des activités militaires américaines, dont l’analyse de renseignement. Comme l'explique le contre-amiral Vincent Sébastien, directeur adjoint de l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), "l’exploitation de la donnée issue du renseignement et du champ de bataille par les IA permet de construire rapidement des plans de frappes."
Alors qu’avant, des centaines d’analystes devaient ausculter les énormes quantités d’information collectées par les services américains pour déceler des signaux faibles ou comprendre les manœuvres des adversaires, désormais les modèles d’IA générative s’en chargent. Les forces françaises s’appuient également sur cette technologie, qui diffère de l’IA dite "traditionnelle" (ou "symbolique), dominante jusqu’ici. Plus ancienne, celle-ci est souvent dévolue à une tâche, comme la reconnaissance d’une image via un capteur ou un satellite. Utile pour détecter un char ennemi, par exemple.
"L’inconvénient, c’est que cette IA n’est pas adaptée au traitement d’énormes masses de données", remarque Alain Filipowicz, chercheur associé à l'IRIS et consultant en soutien à l’innovation. Tout l’inverse de l’IA générative, plus récente et capable de croiser des milliards d’informations grâce à ses réseaux de neurones. "Si l’on prend l’exemple d’un drone alimenté par une IA générative, celui-ci peut analyser de nombreux paramètres afin de détecter s’il a face à lui un char. Il prend en compte son déplacement, sa vitesse, son éventuel camouflage, les munitions dont il dispose… ", résume Aymeric Roucher, ingénieur spécialiste de l’IA, et ancien de l’entreprise Hugging Face. Cette évolution permet aux armes d’être plus autonomes qu’avant. Et quelque part, plus utiles aussi.
De la planification aux drones
Les informations moulinées par l’IA peuvent être aussi variées que du renseignement humain, des flux financiers, des images satellites, le taux d’utilisation de kérosène dans certaines régions et le type de raffinage - qui pourrait indiquer une base aérienne cachée à un endroit - ou encore les heures d’utilisation d’électricité dans un village. Autant de facteurs hétérogènes qui, décortiqués par une IA, peuvent faire apparaître très rapidement des anomalies. Idem pour la phase de planification. "L’IA met en partition tous les paramètres : les informations récoltées, les volontés du commandement, le nombre de soldats sur place, les moyens à disposition, les avions, les missiles…, poursuit le contre-amiral Vincent Sébastien. Avec l’IA, on débouche beaucoup plus vite sur un plan de frappe."
Il est difficile de savoir avec précision quelles sont les IA utilisées par l’armée américaine et ses performances, secret défense oblige. Néanmoins, le nombre impressionnant de frappes lancées par les Etats-Unis au début de la guerre en Iran laisse peu de doute sur l’assistance d’une IA - celle de Claude ou bien de Palantir, une autre société contractuellement liée au Pentagone. Selon le chef d’état-major Dan Caine, plus de 1 000 cibles ont été visées lors du premier jour du conflit. "C’est gigantesque en termes de données croisées, d’images satellites, de besoins en matériel, souffle Arnaud Valli, responsable des affaires publiques chez Comand AI, une start-up française spécialisée dans l’IA de défense. Cela signifie qu’il faut gérer en temps réel le nombre d’avions dans le ciel, la trajectoire des missiles, le traitement des cibles avec leur historique et leur position, la coordination des frappes…" A cette échelle, la tâche est démesurément complexe pour le commun des mortels.
L’autre apport de l’IA générative se situe directement dans les armes, à commencer par les drones. D’après Hadrien Canter, le directeur général d’Alta Ares, une entreprise spécialisée dans la production de drones intégrant de l’intelligence artificielle, ces engins embarquent de nombreux capteurs optroniques qui améliorent leur précision. "L’IA fait de la prévision de trajectoire, indique-t-il, grâce aux données récoltées par les radars, et estime la position que la cible atteindra dans les 15 prochaines secondes, pour garantir que la munition atteigne la cible." Les drones produits par les États-Unis et envoyés frapper l’Iran disposent de ce genre de technologie. Certains embarquent également des GPU, pour des calculs de trajectoire encore plus précis. Une première voie vers l’autonomie, qui intéressera de nombreux fronts. "En Ukraine, beaucoup de drones ont encore besoin d’être filoguidés, c’est-à-dire commandés à l'aide d'un cordon de fibre optique très fin et très léger…", relate Aymeric Roucher. Ce qui est à la fois coûteux et sujet au brouillage ou aux interceptions.
"Une intelligence artificielle fera des erreurs"
L’IA générative suscite toujours des craintes. "Un analyste image peut faire des erreurs, une intelligence artificielle en fera aussi", souligne le contre-amiral Vincent Sébastien. Des inexactitudes peuvent surgir au moment de l'identification. "Mais il y a dans tous les cas des moyens de contrôle, poursuit-il. Lorsque l'IA détecte ce qu'elle croit être un lance-missile, un opérateur va vérifier précisément l’endroit où le système a repéré l’objet. Ce qui évite de regarder pixel par pixel chaque image satellite." Aujourd’hui, la question principale pour le commandement militaire concerne la responsabilité des combattants. "Il faut que les chefs militaires conservent le contrôle final sur les choix. La difficulté, c’est de résister à la pression du temps, et de garder son discernement par rapport aux décisions de l’IA", reconnaît le militaire. Le fameux human in the loop - l'humain dans la boucle, en particulier si les armes deviennent de plus en plus autonomes. "L’IA peut remplacer, si on n’y prête garde, certains éléments critiques de la chaîne de commandement, abonde Alain Filipowicz. A Gaza, certains dirigeants israéliens se sont plaints d’être placés au second rôle par rapport à l’IA."
Lors de cette guerre, la désignation des cibles aurait été déléguée aux IA, comme l’a révélé +972 Magazine, un média en ligne réunissant des journalistes israéliens et palestiniens, en avril 2024. L'Etat hébreu avait ainsi mis au point plusieurs logiciels, baptisés Lavender ou Where’s Daddy, dont la mission consistait à identifier et à localiser les combattants du Hamas à Gaza. La désignation en tant que cible se faisait à partir de données collectées et analysées par des algorithmes. Participer à des groupes WhatsApp avec d’autres militants du Hamas, ou changer régulièrement de téléphone ou d’adresse pouvaient être considérés comme des signes indiquant une possible appartenance au groupe terroriste. Lavender aurait ainsi permis le ciblage de 37 000 personnes à Gaza. Or, des officiers israéliens interrogés par +972 Magazine ont déclaré qu’ils n’avaient pas l’obligation de vérifier manuellement la pertinence de chaque cible détectée par Lavender, afin de gagner du temps. Le taux d’erreur du système était généralement de 10 %, un chiffre important, connu du commandement.
Guerre 3.0
Les fournisseurs d’IA ont conscience de ces limites. "Les systèmes ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui met en danger les combattants et les civils américains", a indiqué Anthropic dans une note publiée fin février, prélude à un clash avec le Pentagone qui comptait sur la firme afin d’accélérer sur l’utilisation de l’IA générative en opérations, ou à des fins de surveillance. Le débat éthique bat son plein : si une IA générative cible des civils au lieu de troupes ennemies, qui rendra des comptes à la justice ?
"Contrairement à l’IA traditionnelle, on peine toujours à comprendre le raisonnement de l’IA générative. Et on l’a remarqué, elle est aussi capable de mentir", rappelle Alain Filipowicz. Même pour de simples simulations, l’IA générative ne se révèle pas encore à la hauteur des enjeux. Si elle se montre très rapide pour analyser une situation, elle préconise souvent des escalades mortifères. Une étude du King's College de Londres en a récemment fait la démonstration. Opposant dans un conflit armé virtuel ChatGPT d'OpenAI, Claude d'Anthropic et Gemini Flash de Google, chaque grand modèle de langage (LLM) a menacé, en dernier lieu, de recourir à l'arme nucléaire.
En Iran, l’exécution du Guide suprême Ali Khamenei est la résultante d’une opération minutieuse, rendue possible par le piratage des caméras de surveillance de Téhéran et la pénétration des téléphones mobiles de ses proches, a raconté le Financial Times. Une guerre 3.0, dans laquelle s’inscrivent parfaitement les LLM. Mais la présence de Khamenei dans le bâtiment visé, et donc le déclenchement des frappes, n'a pu être établie sans la confirmation d'une source que l’on imagine très proche du régime. Une source humaine.

il y a 2 hour
1

