Ces systèmes de ciblage autonomes s’inscrivent dans une dynamique plus large d’intégration de l’IA dans l’ensemble des corps d’armée modernes. Si l’arsenalisation de ces systèmes autonomes bouleverse les rapports de force dans les conflits armés, elle reste sujette à de nouvelles controverses éthiques et légales.
En octobre 2019, Tsahal lançait son plan baptisé Momentum, plaçant l’IA au cœur de la modernisation de ses forces armées. L’objectif affiché était de rendre l’armée israélienne plus rapide et plus létale dans ses prises de décision. Pour cela, Tsahal, en lien étroit avec les entreprises de défense et les services de renseignement, a investi massivement dans le développement de logiciels militaires intégrant l’IA, dans l’optique d’anticiper une intensification des conflits à venir.
Nombre de ces logiciels ont été utilisés après le 7 octobre 2023, sur le principal théâtre d’opérations de Tsahal, la bande de Gaza. Leurs usages sont multiples : soutien logistique, traitement massif de données de renseignement, pilotage de systèmes de défense ou de bombardement. Plusieurs de ces technologies sont spécifiquement consacrées au renseignement et à l’identification de cibles stratégiques à abattre. Certains logiciels, comme Depth of Wisdom ou Hasbora, ont une vocation cartographique, visant à identifier des sites militaires et des infrastructures hébergeant des membres du Hamas, des entrepôts de munitions ou des plateformes de lancement de roquettes. D’autres, comme Lavender, se concentrent sur l’identification de cibles humaines. D’octobre 2023 à mars 2024, Lavender aurait identifié près de 37 000 cibles, un nombre inconcevable sans le recours à des systèmes autonomes.
Si l’ensemble de ces logiciels confère à Tsahal et aux services de renseignement une supériorité incontestable, ils font l’objet de vives controverses éthiques et légales. Le rythme soutenu des frappes, induit par la masse de cibles générée, s’accompagne d’un taux d’erreur pouvant atteindre 10 %, et donc d’un risque élevé de dommages collatéraux. L’automatisation partielle de la chaîne décisionnelle remet en cause les principes du droit international humanitaire, notamment celui de distinction entre civils et combattants. Par ailleurs, l’utilisation de ces technologies fait craindre un effacement de la responsabilité humaine en cas de crime de guerre. Ces dérives rendent nécessaire la mise en place d’une régulation internationale et d’un contrôle renforcé sur l’usage d’armes autonomes.