Gaza : tuerie par IA

D'après l'UNICEF, au 7 mai 2024, 34 735 personnes, dont plus de 14 000 enfants enfants et au moins 9 000 femmes, seraient décédées dans la bande de Gaza. Plus de 78 000 personnes auraient été blessées, dont 12 300 enfants. Plus de 17 000 enfants sont séparés de leurs parentsDes dizaines de milliers d’autres sont porté.es disparu.es. Les femmes et les enfants représentent au moins 70 % des victimes.

82 % des infrastructures de santé, 87 % des infrastructures scolaires, les installations agricoles ou d’accès à l’eau ont été endommagées ou détruites.

Et, au delà de Gaza, d'autres zones sont touchées par cette folie meurtrière : la Cisjordanie, le Liban, la Syrie, la Jordanie, et Israël le 7 octobre.

Israël était, avant cette guerre, le parangon de la technologie électronique et numérique appliquée à la surveillance et aux techniques militaires.

Le 7 octobre a bien montré la faillite de ces dispositifs comme nous le soulignions en faisant un parrallèle avec Nice (Israël, Nice... : la chimère des approches cyber-sécuritaires), laquelle ville est justement la vitrine utilisée par les start-up techno-sécuritaires israéliennes en France. A sa suite, Briefcam équiperait 200 communes françaises et la police nationale, et permettrait le passage quasi instantané à la reconnaissance faciale...

Depuis, l'armée israélienne a déployé un arsenal technologique considérable, dont de nombreux médias ont tenté l'inventaire en terme d'armement mais aussi de contrôle des réseaux sociaux (décrit dans les articles Israël utilise des drones snipers à Gaza, la guerre par l'IA ; Palestine : arrêtez le massacre ! ; Réseaux sociaux sur Israël/Gaza : entre censure des voix palestiniennes et amplification des haines...).

Un article des médias israélo-palestiniens +972 Magazine et Local Call (en anglais ici, traduit par l'Association France Palestine ici) a précisé l'usage de l'"intelligence artificielle" dans le meurtre de masse perpétré.

Les logiciels suivants sont utilisés, aux doux noms de

Alchemist : facilite les ripostes en cas d’attaque visant le territoire israélien.

Depth of Wisdom : cartographie les sols et les sous-sols de la bande de Gaza (pour repérer les tunnels du Hamas).

Fire Factory : génère en temps réel des plans de frappe par avions et par drones, en fonction du type de cible.

Habsora ou "The Gospel" : marque les bâtiments et les structures à partir desquels, selon l’armée, les adversaires opèrent. Il permet de connaître précisément le nombre de civils susceptibles d’être tués lors d’une frappe. Il divise les cibles en 4 catégories : "tactiques" (caches d’armes, sites de lancement de roquettes ou postes d’observation) ; "souterraines" (tunnels) ; "de puissance" (tours résidentielles et bâtiments publics tels qu'universités, banques, bâtiments gouvernementaux : détruites afin de révolter la société palestinienne pour la conduire à exercer une pression sur le Hamas) ; "résidences familiales" (celles supposées abriter les familles de membres du Hamas).

Lavender (Lavande) : lui marque les individus (supposés terroristes) et les inscrit sur une liste de personnes à abattre. Lavender analyse des informations collectées sur les 2,3 millions de Gazaoui·es (écoute des communications avec accès au contenu des téléphones, aux métadonnées...). Une "note de sécurité" comprise entre 1 et 100 est ensuite attribuée à chaque Gazaoui, en fonction de la probabilité qu’il appartienne au Hamas.

Where’s Daddy ? (Où est papa ?) : est utilisé pour suivre les individus ciblés jusqu'à leur entrée dans les résidences de leur famille. Une alerte automatique est alors envoyée à l’officier de ciblage, qui désigne ensuite l’habitation pour une frappe aérienne.

Comme ces systèmes centralisent beaucoup de données pour constituer des "dossiers d’objectifs", ils utilisent toutes celles collectées par les systèmes de surveillance, notamment biométriques, déployés autour de Gaza (caméras, reconnaissance faciale, drones, satellites, capteurs souterrains et marins…). Quasiment toute la population gazaoui est fichée, depuis plusieurs années.

Ces dossiers d’objectifs comportent des cartes et des images satellite de localisation des cibles, ils précisent également les types de munitions à privilégier, ainsi que les points d’impact potentiels et les conséquences probables des frappes. Ils permettent ainsi de multiplier les frappes qui sont automatiquement suggérées.

Cela induit une "politique du chiffre", les militaires étant jugés sur la quantité de cibles qu’ils arrivent à désigner, pas sur leur "qualité", dans le but de créer un effet de choc au sein de la population gazaouie. Cela occasionne un nombre colossal de victimes, majoritairement civiles.

L'emploi de ces logiciels conduit au glissement des consignes vers un "toujours plus" meurtrier : alors qu'Habsora permet de connaître théoriquement le nombre de civils susceptibles d’être tués lors d’une frappe, les consignes ont glissé d'un "aucun dommage collatéral" pour éliminer un seul haut responsable adverse vers la centaine de morts civiles acceptées pour neutraliser un membre subalterne. Même chose pour la destruction d’immeubles entiers pour abattre une unique cible répertoriée, comme en témoigne la frappe sur le camp de réfugiés de Jabaliya, le 31 octobre 2023, qui visait un seul des dirigeants de l’attaque du 7 octobre et qui a fait 126 morts, selon le collectif Airwars. Par ailleurs, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit, en présence de toute leur famille – plutôt qu’au cours d’une activité militaire.

Ces systèmes commettent beaucoup d’"erreurs" (au moins dans 10 % de cas, avoue le concepteur de Lavender). Et il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun. De plus, la confiance placée dans la technologie est telle que le travail de vérification n’est pas effectué (d'autant qu'au mieux les opérateurs ne disposent que d'une vingtaine de secondes avant de "confirmer" la cible). 

Emission sur Le Média “Du côté de chez Sam”, avec Chris dit Politicoboy, journaliste et ingénieur, co-auteur des Illusions perdues de l’Amérique démocrate et animateur d’une newsletter sur Substack (https://politicoboy.substack.com). Au sommaire, deux sujets :
- Sommes-nous en train d’assister à un “génocide assisté par ordinateur” ? Chris explique comment les technologies les plus avancées, notamment l’intelligence artificielle, peuvent se mettre au service de la barbarie.
- Puis (à 23 min) sur Joe Biden, et ses reculades répétées vis-à-vis d’un Benjamin Netanyahou...

Un article de LVSL, "L’intelligence artificielle au cœur de la multiplication des victimes civiles à Gaza" reprend de façon synthétique les informations du site israélo-palestinien +972 Magazine.

Un documentaire autrichien sur Arte, "Robots tueurs, des armes aux mains de l'IA", fait un point sur les technologies utilisées, par Israël, mais aussi par la Russie, la Chine, les États-Unis...

Une accusation de génocide est actuellement instruite par la Cour pénale internationale (CPI). Celui-ci est défini par l’article 2 de la convention sur le génocide de 1948 : "Le génocide s’entend de l’un quelconque des actes ci-après, commis dans l’intention de détruire, en tout ou en partie, un groupe national, ethnique, racial ou religieux, comme tel :

  • meurtres de membres du groupe ;
  • atteinte grave à l’intégrité physique ou mentale de membres du groupe ;
  • soumission intentionnelle du groupe à des conditions d’existence devant entraîner sa destruction physique totale ou partielle ;
  • mesures visant à entraver les naissances au sein du groupe ;
  • transfert forcé d’enfants du groupe à un autre groupe."

Pour l’organisation américaine Genocide Watch, qui classe les processus de génocide selon dix "paliers", cette guerre aurait déjà atteint six paliers, notamment la discrimination et la déshumanisation, sensible par exemple dans les propos du ministre de la défense Yoav Gallant affirmant combattre des "animaux humains".

Francesca Albanese, rapporteuse spéciale de l’ONU, a remis un rapport le 25 mars au Conseil des droits de l’homme : pour elle, "Un ensemble de crimes de guerre sans précédent" est commis par Israël à Gaza, affirmant qu'"Il existe des motifs raisonnables de croire que le seuil indiquant que des actes de génocide" ont été commis "contre les Palestiniens à Gaza a été atteint". Elle appelle les États à mettre en œuvre un embargo sur les armes, à adopter des sanctions contre Israël afin d’imposer un cessez-le-feu et à déployer une présence internationale protectrice dans le territoire palestinien occupé.

D'autres aspects pourraient être pris en compte : le fait que l'armée israélienne ait imposé une "famine généralisée", entravé toute assistance humanitaire et accès aux médicaments (notamment d’avoir imposé "des mesures destinées à empêcher les naissances palestiniennes"). Elle est aussi accusée d'avoir organisé la coupure d’un accès suffisant à l’eau, à la nourriture, au carburant et à l’électricité, d'avoir détruit toutes les installations agricoles, la quasi totalité du système hospitalier et, systématiquement, toutes les écoles et universités, lieux de culte, bâtiments publics, commerces ...

Il se pourrait que le fait d'utiliser des technologies dans leur stratégie génocidaire soit aussi considéré comme un facteur aggravant. Les Ouïghours ont déjà fait l'objet d'études dans ce sens.

Gaza : résolution de l'ONU pour un cesser le feu immédiat, enfin !

Retour de Rafah

Israël utilise des drones snipers à Gaza, la guerre par l'IA

Appel à un cessez-le-feu physique et numérique à Gaza et pour les Palestiniens du monde entier

Réseaux sociaux sur Israël/Gaza : entre censure des voix palestiniennes et amplification des haines

Palestine : arrêtez le massacre !

"Robots-tueurs" : 164 Etats votent contre

Rester en sécurité en ligne...

Israël, Nice... : la chimère des approches cyber-sécuritaires

3 réponses sur « Gaza : tuerie par IA »