Gaza, Ukraine... Quand la technologie exacerbe l’horreur de la guerre

Sans estimer qu’il y aurait de "bonnes guerres" ou de "bonnes armes", on peut penser que les "robots tueurs", l'IA associée aux bombardements "ciblés" etc posent un problème moral supplémentaire.

Déjà, la guerre contre l’Irak de 2003 avait conduit à une avalanche technologique, et à une déréalisation de l’impact de certains actes guerriers (bombes à fragmentation qui n'explosent pas tout de suite et dont les civils, surtout les enfants, sont majoritairement victimes ; "bombes à uranium appauvri" qui contaminent pour des années les eaux et terres ainsi bombardées). Des films hollywoodiens nous montraient aussi ces séances de tuerie à distance où un militaire, installé confortablement aux Etats-Unis, pilotait par "joystick" un missile de croisière pour tuer un terroriste supposé qu’il voyait en vidéo. Une guerre "chirurgicale" qui ne nous montrait pas les "victimes collatérales".

La guerre en Ukraine, moins documentée (voir Les deux camps de la guerre 
russo-ukrainienne utilisent des technologies nouvelles et anciennes pour faire la guerre
[en anglais], et vraisemblablement plus proche des massacres industriels de la "grande" guerre de 1914-1918, avec des tranchées et des batailles "au corps à corps"), et surtout celles menées par Israël à Gaza, en Cisjordanie, au Liban, en Syrie, nous font basculer plus avant dans l’horreur technologique de la guerre sous IA.

Comme le souligne un article de Médiapart, certaines armes autrefois considérées comme inacceptables sur le plan éthique, voire interdites par des dizaines de pays, sont désormais largement employées, souvent guidées par des algorithmes. Sans que cela semble causer d’émoi planétaire.

Ainsi des drones kamikazes, conçus pour voler au-dessus d’un champ de bataille, y repérer des cibles potentielles, puis plonger sur elles pour les détruire à l’aide d’explosifs embarqués. L’armée ukrainienne équipe ainsi des drones vendus sur Internet avec des charges explosives ; l’armée russe lance quotidiennement ses drones Shahed iraniens et leurs 40 kilos d’explosifs sur les grandes villes ukrainiennes ; les drones miniatures israéliens frappent Gaza ou la Cisjordanie

L’Europe (dans le cadre de ses programmes de recherche Horizon qui veulent équiper Frontex pour "combattre l’immigration illégale"), comme la France (qui va consacrer 5 milliards d’euros au développement de ses drones et robots d’ici à 2030), s’équipent aussi. La loi de programmation militaire adoptée par le Parlement français en août 2023 explique froidement que les drones kamikazes "apporteront performance, précision et létalité avec un rapport coût-efficacité favorable".

Pourtant, le général François Lecointre, alors chef d’état-major des armées françaises, déclarait en juin 2021 devant l’Assemblée nationale que "l’emploi de munitions rôdeuses n’est pas acceptable d’un point de vue éthique. Plus la distance avec la cible à détruire est grande, plus le questionnement éthique importe." Et la France participait encore en avril 2024 à la Conférence internationale contre les "robots-tueurs", organisée à Vienne par l’ONU.

Le 22 décembre 2023, 152 pays ont voté en faveur d'une résolution de l'Assemblée générale des Nations unies sur les dangers des systèmes d'armes autonomes (qui pourrait aboutir à un traité sous égide de l’ONU en 2026), ces killer robots qui sélectionnent et attaquent des cibles sans aucune intervention humaine. Ces robots tueurs sont dénoncés depuis plusieurs années par une campagne internationale, initiée dès 2013 mais qui a eu assez peu d’écho en France. Pour beaucoup de spécialistes, ils sont déjà massivement à l’oeuvre en Ukraine et à Gaza…

Nous l’avons largement documenté sur ce site, à partir des informations du site israélo-palestinien +972 (qui reçoit des infos de certains agents des renseignements israéliens), Israël utilise des logiciels qui s’appuient largement sur l’intelligence artificielle pour définir des "cibles à éliminer".

L’un de ces programmes, Lavender, attribue à chaque Gazaoui·e une note en fonction de sa proximité présumée avec le Hamas. En effet, les forces israéliennes surveillent et fichent depuis des années toute la population de ce territoire. Cette note sert ensuite pour proposer une cible au canonnier, pendant une vingtaine de secondes. La plupart du temps, ce dernier déclenche le tir sans réfléchir. D’autres systèmes d’IA y sont déployés (voir notre article Gaza : tuerie par IA) dont Where’s Daddy ? (Où est papa ?) pour suivre les individus ciblés jusqu'à leur entrée dans la résidence de leur famille, là où tous pourront être abattus en une seule fois...

Des systèmes similaires sont utilisés sur tous les fronts et murs, un peu partout dans le monde contre les minorités ethniques, les migrants. Par exemple en Europe sous l’égide de Frontex ou des Etats (voir notre article Face aux migrant·es, l'UE (et la France) systématisent l'IA), où des programmes de recherche sur le sujet ont été lancés dès 2016.

Un combat contre l'IA utilisée dans les guerres peut s'inscrire dans la campagne Stop killer robots. "Au début, les discussions étaient surtout prospectives", détaille le politiste Cyril Magnon-Pujo (université Lumière Lyon 2). "Puis, autour de 2019-2020, tout le monde a compris que ce n’était plus si prospectif : l’enjeu militaire était concret, ces armes se développaient plus vite que prévu".

Une campagne d’une trentaine d’années a été menée, avec succès à l'époque, par diverses ONG :

- contre les mines antipersonnelles : conçues pour se déclencher au passage d’une ou plusieurs personnes, elles restent enfouies et explosent souvent des années après la fin des conflits. Elles ont été interdites en 1997 par la convention d’Ottawa, signée par 133 États.

- contre les bombes à sous-munitions : sortes de conteneurs qui lâchent une multitude de petites bombes, avec une précision aléatoire, et qui n’explosent pas toujours sur le moment. Interdites en 2008 par la convention d’Oslo signée par 94 États.

- les deux étaient déjà intégrées dans la "Convention sur certaines armes classiques", adoptée par l’ONU dès le 10/10/1980, réactualisée régulièrement.

Ce "monde sans mines" , qui a pendant un temps semblé constituer un tabou ("on était un peu considéré comme infréquentable si on avait recours à des armes considérées comme inacceptables moralement par la communauté internationale", d’après Laure de Roucy-Rochegonde, de l’IFRI) semble désormais ignoré par les pays belligérants, mais aussi par certains signataires...

Et les bombardements aveugles et massifs de zones urbaines ont repris à Idlib, Alep, Raqqa, Donetsk, Marioupol, Gaza, Rafah, Beyrouth… L’ONG lyonnaise Handicap International, a actualisé sa pétition stop-bombing...

Car la "précision chirurgicale" promise par les nouvelles technologies de guidage (largement pilotées par IA) ne se vérifie pas sur les terrains de guerre : d'une part les kits de guidage très sophistiqués élaborés par les États-Unis ne sont en fait pas livrés à leur client israélien car jugés trop coûteux. D'autre part ce dernier tolère cyniquement un taux d'erreur d'au moins 10% ("garbage targets" ou cibles poubelles) car il fait partie de sa stratégie de dissuasion par la peur (et entre dans la volonté génocidaire de plusieurs décideurs). CNN, en décembre 2023, citait le renseignement militaire américain qui estime que 45 % des munitions utilisées à Gaza sont des "dumb bombs" (bombes stupides), qui suivent une simple trajectoire balistique et ont une marge d’erreur d’environ 100 mètres, par opposition aux "smart bombs" (bombes intelligentes), qui ont un système de guidage et un rayon de précision de 10 mètres.

"Nombre d’États aujourd’hui ne veulent plus encadrer la guerre par des conventions internationales contraignantes et obligatoires", comme ce fut le cas à la fin de la guerre froide, relève Cyril Magnon-Pujo (université Lumière Lyon 2).

Plus largement, les grands conflits sont presque toujours l’occasion de développer de nouvelles armes, qui finissent souvent par être adoptées, si ce n’est utilisées, pour de bon, quand bien même elles étaient jugées moralement problématiques lors de leur apparition : avions de chasse et chars d’assaut pendant la Première Guerre mondiale, bombe atomique pendant la Seconde…

Mais les contre-exemples existent. Les armes chimiques, largement utilisées sur les champs de bataille européens pendant la Première Guerre mondiale, ne l’ont plus été pendant la Seconde Guerre mondiale (excepté dans les camps de concentration). Et si la guerre accélère le développement d’armes, c’est aussi le moment où le monde entier les voit à l’œuvre dans leurs possibles horreurs.

Des mines antipersonnelles en ex-Yougoslavie au napalm au Vietnam, le fait de les voir en action peut pousser à plaider pour leur interdiction.

L’ONU, ce "machin" si souvent dénoncé pour son inaction (mais bien seul à documenter le génocide en cours à Gaza) peut aussi, par ses questionnements sur un sujet précis, contribuer à exercer une pression sur les Etats "de bonne foi" (voir rapport ONU sur les armes autonomes, relayé par Stop Killer Robots).

Quant aux États qui pèsent pour empêcher toute régulation, ils pourraient être contournés à force de créativité. Pour éviter les blocages russes sur les armes autonomes, plusieurs États, dont l’Autriche, ont eu une idée : "sortir" le sujet de l’arène où il est actuellement bloqué, la CCAC, pour le porter au sein de l’Assemblée générale des Nations unies, qui ne fonctionne pas au consensus mais à la majorité, et où un pays ne peut donc pas tout bloquer. Cette proposition de résolution autrichienne pourrait être examinée début novembre 2024.

"Commandez sur Amazon" : comment les géants de la technologie stockent des données massives pour la guerre d'Israël (site +972, en anglais, 4/08/2024)

Israël et La Cyber-Guerre, sur les traces de l’unité 8200 (site Lundi matin, 8/10/2024)

Colonisation en Cisjordanie : la stratégie des collines (Arte, 2024)

Gaza devant l’histoire, avec Enzo Traverso (Blog Médiapart, 31/10/2024)