A partir de quel moment historique, l’intelligence artificielle a-t-elle commencé à pénétrer le secteur militaire ?
Il est difficile d’estimer une date précise d’entrée de l’IA dans le secteur militaire puisque son usage opérationnel s’est développé de manière simultanée avec le secteur civil. Au moment de la première guerre du Golfe en 1991, les principes et les possibilités de l’intelligence artificielle sont déjà connus en matière de détection de signaux faibles ou de collecte de données mais leur mise en pratique se heurte à deux facteurs. Tout d’abord, les moyens financiers et technologiques – en termes de puissance de calcul – ne sont pas encore au rendez-vous et les performances d’Internet ne sont pas encore celles que l’on connaît aujourd’hui.
Après les attentats du 11 septembre 2001 que les services de renseignement américains ont été incapables de détecter à temps, le département de la Défense, sous l’égide de la DARPA (Defense Advanced Research Projects Agency), commence à vouloir intégrer de plus en plus l’intelligence artificielle, même si cette technologie aura peu d’impacts, notamment sur le déclenchement et la conduite de la guerre en Irak en 2003. Palantir Technologies, entreprise emblématique dans la fabrication de logiciels et de programmes à but militaire, est notamment créée cette même année par Peter Thiel et Alex Karp, et va rapidement voir les portes du Pentagone s’ouvrir, et même parfois celles de notre ministère de la Défense. Ainsi, les armées du monde entier vont commencer à intégrer l’IA de manière opérationnelle, comme l’armée israélienne qui va s’en servir pour construire plusieurs programmes de collecte de données ou d’aide à la décision stratégique.
Qu’en est-il du côté français ?
C’est au début des années 2010 que la France commence à s’intéresser sérieusement à l’intelligence artificielle via la problématique de la recherche de données. Nous prenons alors conscience que l’univers numérique ou « cyberespace » s’avère autant important d’un point de vue stratégique que l’univers physique. Dans les vastes monts et vallées du « Big Data », on voyait dans l’IA, un outil qui nous permettrait de tracer des chemins de collecte de données. C’est à cette même époque que la Direction générale de l’armement (DGA) commence à lancer ces premiers programmes de recherche et développement (R&D) autour de cette question.
Quels sont les différents types d’utilisation de l’intelligence artificielle dans les systèmes de défense et quels sont ses avantages ?
On peut classer les usages de l’intelligence artificielle dans le monde militaire en trois catégories. La première consiste à rendre des capteurs de signaux divers (images, sons, vidéos, fréquences électromagnétiques…) plus « intelligents » dans le sens où ils ne transmettent plus seulement de l’information brute mais circonstanciée et interprétée pour l’humain qui la reçoit. Le capteur devient donc un signal d’alerte et procure un avantage tactique.
La seconde catégorie est liée à la détection des signaux faibles que j’identifie comme étant la plus intéressante pour les militaires au niveau stratégique. Un signal faible est quelque chose que l’œil humain ne voit pas nécessairement, soit parce qu’il est submergé par les informations, soit parce qu’il sort de sa logique d’analyse initiale. Dans le domaine du renseignement, l’intelligence artificielle pourrait permettre de prévoir plus vite et mieux les actions et comportements de l’ennemi. Par exemple, la construction d’une banale route aux abords de la frontière entre l’Ukraine et la Biélorussie peut annoncer une future offensive militaire ou la rencontre entre deux chefs de guerre au beau milieu du désert syrien pourrait être le signal de la renaissance de Daech.
Enfin, la troisième catégorie relève de l’IA générative qui peut offrir à un analyste ou un officier, un énorme gain de temps dans l’élaboration de textes divers (comptes-rendus, analyses…), ce qui lui permettra d’utiliser son temps restant à d’autres activités plus importantes.
Inversement, quels sont les principaux risques que l’utilisation de intelligence artificielle entraîne dans le secteur militaire ?
Le souci principal vient de ce que l’IA est programmée pour apporter une réponse. Or, si elle ne trouve pas de réponse, elle peut en inventer. On l’a vu avec certains exemples de ChatGPT qui citait 5 noms de Premières ministres françaises de la Cinquième République alors que nous n’en avons connu que deux. Cette anecdote pourrait faire sourire mais appliquons-la à une situation militaire où l’on demande à un modèle d’intelligence artificielle de nous trouver cinq individus dans une zone donnée en lien avec une entreprise terroriste dans la perspective d’une frappe de drones. S’il ne trouve pas suffisamment de cibles, il est tout à fait possible qu’il en invente ou qu’il désigne des individus qui n’ont aucun lien avec le groupe terroriste en question.
C’est pourquoi il est crucial que l’humain reste dans la boucle. Ces enjeux nous amènent in fine à se poser une question quasi-philosophique : quelle est la valeur d’un être humain face à une intelligence artificielle ? Contrairement à elle, l’humain peut être créatif et intuitif, et dans certains cas désobéissant. Il a la capacité et le pouvoir de dire « Je ne sais pas ».
Comment s’assurer justement que l’humain puisse garder le contrôle malgré le fait que lui-même comporte des biais cognitifs ?
Il faut considérer l’IA comme un outil, un robot comme un autre et non pas comme une fin en soi que l’on mettrait à toutes les sauces comme c’est un peu le cas aujourd’hui dans de nombreux domaines autres que militaire. Il existe dans la robotique militaire la règle des 3D, qui consiste à utiliser un robot si les tâches demandées sont dull (idiotes), dirty (sale) et dangerous (dangereuses pour l’humain..
Il est essentiel par la suite de respecter la chaîne de commandement et de s’assurer qu’elle est solide pour que les analyses d’officiers le soient. Par exemple, il a été relevé dans l’armée israélienne que des analyses émanant de l’intelligence artificielle étaient parfois préférées à celles provenant d’officiers subalternes ou mêmes supérieurs, ce qui ne manquait pas de créer de la frustration dans la chaîne d’application des ordres par la suite. Néanmoins, par définition, ces décisions sont entre les mains des gouvernants qui choisissent parfois sciemment, de créer des situations de vulnérabilité vis-à-vis de l’IA.
Il y a quelques années, j’ai travaillé sur un système de mise à feu d’artillerie en riposte automatique, en cas de signal d’envois d’artillerie ennemie capté par radar. Il fonctionnait un peu à la même manière de la « Doomsday Machine » qui déclenche une riposte massive et automatique d’armes nucléaires en cas d’attaque dans le film « Docteur Folamour », sur une échelle toutefois beaucoup plus réduite et beaucoup moins létale. C’est pour cette raison que le projet a été par la suite abandonné car il ne gardait pas suffisamment l’humain dans la boucle de décision, ce qui pouvait causer en cas d’erreur, des conséquences potentiellement catastrophiques.
Le choix de l’abandon a donc été fait mais il est à redouter qu’aujourd’hui, des responsables politiques et militaires russes, chinois, voire même américains, ne prennent pas la même décision.
Justement, nous assistons depuis quelques années à une course à l’intelligence artificielle militaire entre grandes puissances comme les États-Unis, la Chine ou la Russie. Dans cette compétition, où se situe la France dans la maîtrise de l’IA ?
Au niveau français et européen, les écosystèmes de défense qui comprennent les armées et les industriels de l’armement, cherchent à se démarquer de ce que font à l’heure actuelle les GAFAM américains et les BHATX chinois. Ces deux grandes et redoutables puissances de feu se font actuellement la guerre, notamment via la rivalité acharnée entre Open AI et Deep Seek sur le premier modèle d’intelligence artificielle qui existe, soit le Large Language Model (LLM) avec notamment ChatGPT. Modèle le plus répandu, le LLM fonctionne sur des bases de données gigantesques leur offrant la capacité de comprendre et de générer du texte ou d’autres contenus dans le plus grand nombre de situations.
Le second modèle d’intelligence artificielle est le Small Language Model (SLM) qui vise à performer dans des secteurs très localisés afin de fournir des réponses extrêmement précises mais également plus rapides et moins consommatrices de ressources. Ces modèles ne s’opposent pas mais devant l’universalisme prôné par les GAFAM, il ne faut pas oublier qu’ils peuvent servir astucieusement à un usage militaire sur lequel l’Agence ministérielle pour l’IA de défense (AMIAD) a des cartes à jouer dans ce domaine et joint actuellement ses forces à un certain nombre d’entreprises et de licornes françaises comme Mistral AI.
Quelles sont les forces et faiblesses de la base industrielle de défense française en matière d’intelligence artificielle ?
Le gros handicap français est le manque de moyens. Il est clair que face aux plus de 4 000 milliards de budget de la DARPA, la France ne peut pas rivaliser dans de nombreux domaines technologiques. Néanmoins, face à cette dichotomie, il est nécessaire et possible de mobiliser pour l’intelligence artificielle l’effet Astérix qu’on pourrait traduire par « faire beaucoup avec très peu de moyens ». Cela s’est déjà produit par le passé et nous a permis d’avoir de très bons succès d’innovations.
Par exemple, d’ici quelques années, notre marine nationale sera la première au monde à être dotée de gravimètres à atomes froids, via le système Girafe 2, développé par l’ONERA, le centre français de recherche aérospatiale. L’acquisition de cette technologie quantique a été le fruit de plus de 20 ans de recherches et d’investissements à long terme qui permet aujourd’hui de disposer d’un système de navigation qui n’a pas besoin d’ondes radios pour fonctionner ou encore de GPS et donc de facto d’un satellite. Un autre exemple pourrait également être le système de missiles surface-air dénommé MAMBA, construit par Eurosam, un groupe franco-italien d’industriels de l’armement, et qui, selon les retours du front ukrainien, serait plus efficace que le système anti-missile Patriot américain qui coûte 8 fois plus cher. L’objectif est donc de réitérer avec l’intelligence artificielle, ce que nous avons pu faire avec d’autres technologies. Le choix récent de l’Ukraine d’envisager l’acquisition de MAMBA/SAMBA en est la preuve.
Face à ces défis, l’intelligence artificielle va devenir dans les années à venir une arme déterminante pour les opérations militaires en permettant au soldat et au commandement de gagner du temps et de détecter ce qu’il lui est parfois difficile à voir en temps normal. Mais ces gains ne pourront exister de façon pérenne que si l’humain reste aux commandes en toutes circonstances, ce qui lui permettra de disposer d’une intelligence artificielle militaire suffisamment indépendante et efficace dans le contexte actuel.