Israël militarise l’IA : quand l’intelligence artificielle décide de qui vit ou meurt

Israël militarise l’IA : quand l’intelligence artificielle décide de qui vit ou meurt

Israël déploie l’IA militaire pour cibler les ennemis via ciblage automatisé, soulevant des risques éthiques majeurs.

L’armée israélienne utilise désormais des outils d’intelligence artificielle commerciale (Microsoft, OpenAI) pour trier les données de surveillance, identifier des cibles et recommander des frappes en temps réel. Deux systèmes, “Gospel” pour les bâtiments et “Lavender” pour les personnes suspectées, accélèrent la production des listes de cibles, parfois jusqu’à une centaine par jour. Ces technologies ont permis de considérablement augmenter le rythme des opérations, mais elles multiplient également les erreurs d’identification et exposent la population civile à des frappes injustifiées. Des organisations internationales tirent la sonnette d’alarme face à l’absence de transparence, au biais des algorithmes et à la responsabilité en cas de victimes civiles.

Israël militarise l’IA : quand l’intelligence artificielle décide de qui vit ou meurt

L’usage de l’intelligence artificielle par l’armée israélienne

Depuis fin 2023, l’armée israélienne recourt à des modèles d’IA développés par des entreprises américaines comme Microsoft et OpenAI pour analyser des masses de données de surveillance et de communications interceptées, afin d’identifier des cibles potentielles en temps réel. Deux systèmes majeurs sont opérationnels : Gospel, qui repère automatiquement des structures à bomber, et Lavender, qui dresse des listes de personnes suspectées de liens avec des groupes armés comme Hamas ou Jihad islamique.

Gospel peut générer jusqu’à 100 recommandations de cibles par jour, alors que des analystes humains en produisaient seulement une cinquantaine par an avant son usage. Lavender recense entre 30 000 et 37 000 personnes, avec un taux de précision d’environ 90 % estimé, malgré une méthode opaque. Ces systèmes accélèrent drastiquement l’identification des cibles, mais réduisent également la supervision humaine et favorisent des erreurs. Les données d’entraînement sont biaisées, et les cas de morts de civils frappés par erreur sont documentés.

Les enjeux éthiques et juridiques de l’ia militaire

L’usage de l’IA dans les attaques ciblées pose plusieurs questions :

  1. Responsabilité floue : l’algorithme recommande, un humain valide, mais en cas d’erreur, qui porte le blâme ?
  2. Dépendance aux données : l’absence de données négatives renforce les biais et peut produire des erreurs systémiques.
  3. Risque pour les civils : Human Rights Watch et l’ONU alertent sur les frappes causées par des erreurs technologiques, parfois qualifiées de violations potentielles du droit international humanitaire.

Le secrétaire général de l’ONU s’est dit profondément préoccupé, dénonçant un usage qui éloigne l’humain de la décision de tuer. Certains experts évoquent un usage assimilable à un génocide assisté par l’IA.

L’impact opérationnel de l’ia sur le rythme des frappes

L’accélération exponentielle des frappes est notable : grâce à Gospel, le rythme d’attaque est passé de quelques dizaines par an à cent par jour pour Gaza. Ce rythme dépasse clairement ce que peuvent gérer les analystes humains.

Selon une enquête AP, l’usage massif de l’IA a permis à l’armée israélienne de traiter des milliers d’heures de données quotidiennes pour sélectionner rapidement des cibles, augmentant l’efficacité des frappes tout en réduisant les délais de décision.

Mais l’efficacité technique ne garantit pas un bilan pertinent : plusieurs erreurs majeures ont provoqué des décès de civils, y compris le cas tragique de trois jeunes filles tuées à tort au Liban. L’algorithme Gospel a pu identifier des structures civiles comme cibles à tort, tandis que Lavender a classé des personnes non combattantes parmi les suspects.

Les conséquences géopolitiques et possibles dérives

L’introduction de ces systèmes produit plusieurs effets durables :

  • Modèle d’apprentissage pour d’autres États : Israël vend ou partage ces technologies avec d’autres pays partenaires, amplifiant leur diffusion.
  • Pression sur la législation internationale : de nombreuses ONG militent pour un moratoire sur l’IA létale, soulignant qu’elle fragilise la notion de distinction entre combattants et civils.
  • Érosion des normes de guerre : l’autonomie algorithmique réduit les cadres juridiques classiques, créant un précédent dangereux pour des conflits futurs.
Israël militarise l’IA : quand l’intelligence artificielle décide de qui vit ou meurt

Comparaison avec la guerre par drone en Ukraine : une autre forme d’ia au combat

En parallèle, le conflit ukrainien illustre une forme différente de militarisation technologique : les drones FPV et les kits guidés par IA légère transforment le champ de bataille. Ces drones bon marché (environ 500 €) exécutent des frappes précises en grand nombre.

En 2024, l’Ukraine aurait produit plus de 2,2 millions d’UAV, et vise jusqu’à 4,5 millions en 2025. En juin 2025, les Unmanned Systems Forces, branche dédiée créée en juin 2024, ont frappé 19 600 cibles, en détruisant plus de 5 000 engins russes (88 chars, 129 véhicules blindés…) et neutralisé ou tué 4 500 soldats russes.

Ces drones posent des défis technologiques similaires : guerre électronique, brouillage, jammers ciblés, et usage d’algorithmes simples pour maintenir l’efficacité malgré les interférences.

Vers une militarisation généralisée de l’IA

Les deux cas montrent que l’IA militaire est désormais un facteur central des conflits modernes :

  • Israël utilise des systèmes d’IA centralisés pour trier les données et recommander des frappes,
  • L’Ukraine exploite des IA embarquées simples dans des drones de masse pour frapper au niveau tactique.

Les deux modèles soulèvent des défis : erreurs algorithmiques, déresponsabilisation humaine, risques pour les civils, et biais des données.

Le défi global est d’adapter les régulations internationales à ces technologies. Un usage sans contrôle peut conduire à des dérives graves, y compris des frappes injustifiées ou des prises de décision automatisées sans supervision humaine réelle.

Une remise en cause des modes traditionnels de combat

La militarisation de l’IA transforme durablement les stratégies d’affrontement :

  • Décision accélérée : l’IA supprime les délais entre renseignement et action.
  • Échelle de frappe élargie : des centaines de cibles peuvent être traitées chaque jour.
  • Pression éthique : erreurs répétées accentuent les critiques internationales.
  • Réévaluation des doctrines militaires : les forces traditionnelles doivent réagir à la montée des systèmes autonomes.

Israël et l’Ukraine montrent deux trajectoires : l’une centralisée et dépendante du big data et de modèles avancés, l’autre distribuée dans des drones bon marché mais efficaces, utilisant des algorithmes plus simples. Ces deux approches dessinent l’avenir du conflit armé : rapide, automatisé, mais aussi dangereux s’il reste sans garde-fous.

Avion-Chasse.fr est un site d’information indépendant.

A propos de admin 1821 Articles
Avion-Chasse.fr est un site d'information indépendant dont l'équipe éditoriale est composée de journalistes aéronautiques et de pilotes professionnels.