L'IA en temps de guerre : complicités technologiques et massacres

Image tirée du site d'Access Now

Des informaticien·nes et des scientifiques appellent à l'arrêt des collaborations avec Israël. Ils et elles  protestent "contre l'usage croissant de technologies issues de leur discipline à des fins meurtrières, usage tristement illustré par le recours systématique à l'intelligence artificielle pour la planification d'assassinats plus ou moins ciblés à Gaza" (voir appel ci-dessous et en ligne, signable ici).

Cela rejoint le propos de Taysir Mathlouthi, chargée de plaidoyer pour le site 7amleh (ou Centre arabe pour l'avancement des médias sociaux, groupe de défense des droits numériques et des droits de l'homme pour les Palestiniens), qui souligne que le Sommet pour l'action sur l'Intelligence Artificielle, qui se déroulera à Paris les 10 et 11 février 2025, oublie de débattre de l'usage militaire de l’intelligence artificielle alors qu'il réunit une kyrielle de dirigeants politiques (voir extraits de son texte ci-dessous).

Autre guerre en lien avec le numérique (parce que les minerais indispensables aux smartphones y sont extraits) : le collectif lyonnais Génération Lumière appelle à signer la pétition Pour que l'Europe arrête de financer la guerre en République démocratique du Congo (explications complémentaires sur le site Reporterre).

Après les attaques terroristes du Hamas du 7 octobre 2023, le gouvernement israélien a opté pour une guerre totale dont le front n’a cessé de s'étendre. Les populations en furent les premières victimes : écoles, universités, hôpitaux, médias et autres institutions civiles ont été les cibles assumées de l'armée israélienne.

Le 5 décembre 2024, Amnesty International publiait un rapport accusant les autorités israéliennes de commettre un génocide contre la population palestinienne de Gaza. 

Le 21 novembre 2024, la Cour pénale internationale (CPI) émettait contre le premier ministre Benyamin Netanyahou et son ex-ministre de la défense Yoav Gallant des mandats d'arrêt internationaux, les estimant pénalement responsables de crimes de guerre et de crimes contre l'humanité. 

En octobre 2024, l'Afrique du Sud accusait les autorités israéliennes de génocide auprès de la Cour internationale de Justice.
Si la trêve, initiée le 15 janvier, est évidemment une bonne nouvelle pour les populations civiles, elle reste très fragile. Gaza n’est plus qu’un champ de ruines et la guerre s’intensifie aujourd’hui en Cisjordanie.

Les coopérations scientifiques et industrielles ne sauraient être hors du monde. Il est de notre droit et de notre responsabilité de les questionner et éventuellement de les suspendre lorsque des crimes contre l’humanité sont suspectés.

L’action de la justice internationale et des commissions d’enquête indépendantes est indispensable pour faire toute la lumière sur les crimes commis au Proche-Orient. Dans l’attente des conclusions de ces procédures, nous appelons, comme nos collègues de mathématiques l’ont fait en décembre 2024, à suspendre les coopérations scientifiques institutionnelles avec des établissements israéliens qui ne condamnent pas explicitement le génocide à Gaza et la colonisation de la Palestine, illégale selon le droit international. 

De plus, les programmes de soutien, d’accueil et de protection des universitaires menacées à l’étranger doivent être pleinement actifs pour les universitaires de Palestine.

En tant qu'informaticiennes et informaticiens, nous appelons à protester massivement contre l'usage croissant de technologies issues de notre discipline à des fins meurtrières, usage tristement illustré par le recours systématique à l'intelligence artificielle pour la planification d'assassinats plus ou moins ciblés à Gaza.

Enfin, nous tenons à exprimer notre solidarité avec les universitaires d’Israël et de Palestine qui, à l'inverse, défendent une perspective de paix juste et durable pour tous et toutes. 

51 premiers signataires (les autres sont ici)

Samy Abbes; Université Paris CitéMarin Costes; ENS Paris-SaclayLaure Gonnord; Université Grenoble Alpes
Malik Aberkane; Université de Lorraine - UFRMIMNicolas Courty; Université Bretagne SudJulien Gossa; Université de Strasbourg
Myrto Arapinis; Edinburgh UniversityLudovic Courtès; InriaBruno Grenet; Université Grenoble Alpes
Élise Arnaud; MCF, Inria Grenoble Rhône-AlpesMary Cryan; University of EdinburghMichel Gros; Université de Rennes
Ahcene Azieze; Univ LorrainePierre-louis Curien; CNRS, IRIFAdrien Guatto; Université Paris Cité
David Baelde; IRISA, ENS RennesVincent Danos; CNRS, ENS UlmPatrick Guillou; Grenoble INP
Viviane Baladi; CNRS (retraitée)Prunelle Daudré-Treuil; Université de LorraineArmaël Guéneau; Inria, Université Paris-Saclay
Albert Benveniste; InriaGwenaël Delaval; Université Grenoble AlpesMichel Habib; Université Paris Cité
Béatrice Berard; Sorbonne UniversitéCarole Delporte; Université Paris CitéSerge Haddad; ENS Paris Saclay
Antoine Bertrand Rauzy; Norwegian Universitu of Science and Technology (NTNU)Bruno Ferres; Université Grenoble AlpesBernardo Jacobo Inclán; IRIF, Université de Paris
Nathalie Bertrand; INRIA, IRISAKarën Fort; Université de LorraineCharlie Jacomme; Inria Nancy
Mickael Bestard; CNRSPierre Fouilhoux; Université Sorbonne Paris NordGabriel Johnson; UL
Théau Blanchard; INRIA HeKaMireille Fouquet ; Université Paris Cité  Pascal Fradet; INRIA GrenobleThierry Jéron; INRIA, IRISA
Sylvain Boulmé; Université Grenoble AlpesNancy Gallagher; UCSBElham Kashefi; CNRS, Sorbonne Université
Erwan Bousse ; Nantes Université  Flavien Breuvart; Université Sorbonne Paris NordGuillaume Geoffroy; Université Paris CitéChantal Keller; Université Paris Saclay
Ilaria Castellani; INRIAJ-Marc Gervais; Uni. Franche ComtéAssaf Kfoury; Department of Computer Science, Boston University
Baptiste Chanus; Université Paris Nord
Alain Girault; Inria
Jean Krivine; CR CNRS, IRIF, Université Paris Cité ...

Une autre pétition circule, celle de 500 scientifiques qui interpellent leurs directions sur les violations du droit international en Palestine

Extraits de la contribution de Taysir Mathlouthi, Chargée de plaidoyer en droits numériques chez 7amleh.

Alors que les dirigeants mondiaux, les décideurs politiques et les innovateurs technologiques se préparent à se réunir au Sommet d’Action sur l’IA à Paris les 10 et 11 février 2025, une omission flagrante dans son programme soulève des inquiétudes : l’absence d’un dialogue significatif sur la militarisation de l’intelligence artificielle (IA).

Cette négligence est particulièrement alarmante au regard des révélations récentes sur l'implication de Microsoft et Google dans l’alimentation des opérations militaires israéliennes grâce à des technologies d’IA, avec des implications préoccupantes pour les droits humains et le droit international.

Des enquêtes menées par DropSite+972 et The Guardian révèlent que la plateforme Azure de Microsoft a été largement utilisée par des unités de renseignement israéliennes, telles que l’unité 8200, pour alimenter des systèmes de surveillance et des armes autonomes, contribuant ainsi à des violations systématiques des droits humains. De plus, des révélations récentes ont mis en lumière l'implication profonde de Google dans la fourniture d’outils d’IA avancés à l'armée israélienne dans le cadre du contrat Project Nimbus, d’une valeur de 1,2 milliard de dollars.

Lors de l’offensive sur Gaza en octobre 2023, la plateforme d’IA Vertex de Google aurait été déployée pour traiter d’énormes ensembles de données dans le cadre du « ciblage prédictif », où des algorithmes analysaient des modèles comportementaux et des métadonnées afin d’identifier des menaces potentielles.

En outre, des systèmes militaires israéliens propriétaires tels que Lavender, The Gospel et Where’s Daddy? ont joué un rôle central. Lavender, une base de données alimentée par l’IA, a identifié plus de 37 000 personnes comme cibles d’assassinat dans les premières semaines de la guerre, les opérateurs consacrant seulement 20 secondes à l'examen de chaque cas. Where’s Daddy? permettait de suivre des individus via leurs smartphones, facilitant des frappes aériennes précises qui ont souvent ciblé des familles entières. Ces outils démontrent comment l’IA est militarisée contre des populations civiles, soulevant des préoccupations urgentes en matière de responsabilité et de respect du droit humanitaire international.

Le Sommet d’Action sur l’IA à Paris, organisé sous la bannière de l’innovation éthique en IA, semble déconnecté des réalités de la militarisation de ces technologies. Les organisations de la société civile, en particulier celles des pays du Sud global, ont rencontré d’importantes difficultés pour accéder à cet événement, marginalisant encore davantage les voix qui pourraient mettre en lumière les coûts humains dévastateurs de l’IA militarisée.

Les obstacles à la participation des organisations de la société civile sont nombreux : contraintes financières, absence d’invitations, manque de transparence dans le processus d’invitation. Plusieurs organisations ont rapporté ne pas avoir été informées de l'événement ni des critères de participation, ce qui a entraîné confusion et frustration.

De plus, les coûts élevés liés à la participation au sommet (voyage, hébergement et absence de soutien pour les procédures de visa) constituent un frein majeur, notamment pour les ONG des pays du Sud global. Le manque de transparence quant aux critères d’invitation, combiné à une communication insuffisante, crée une situation où les acteurs clés travaillant directement avec les communautés touchées par l’IA militarisée sont effectivement exclus.

Cette exclusion va à l’encontre de la mission déclarée du sommet, qui prétend garantir que l’IA profite à toutes les populations. Or, les organisations de la société civile jouent un rôle crucial dans la dénonciation de la militarisation de l’IA et dans la promotion de cadres juridiques internationaux qui privilégient les droits humains. Sans leur participation, le sommet risque de renforcer une vision descendante et limitée du développement de l’IA, ignorant ses conséquences humaines.

Et la militarisation de l’IA ne se limite pas aux zones de conflit : Les outils utilisés à Gaza – drones, systèmes biométriques et capteurs basés sur l’IA – sont en grande partie développés par des entreprises technologiques occidentales et sont de plus en plus utilisés dans les pays occidentaux sous prétexte de « sécurité ».

Le New York Times souligne que la reconnaissance faciale et les systèmes de surveillance basés sur l’IA sont de plus en plus utilisés de manière disproportionnée contre des groupes vulnérables, en violation du droit à la vie privée et en accentuant les biais existants. Ces technologies favorisent souvent le profilage discriminatoire, marginalisant davantage des individus déjà en situation de précarité.

De son côté, Investigate Europe met en lumière les préoccupations croissantes concernant l'AI Act européen et son impact potentiel sur les libertés civiles et les droits humains au sein de l’UE. L’enquête révèle que certaines exceptions, poussées par plusieurs États membres de l'UE, permettraient une surveillance de masse par l’IA pour les autorités policières et frontalières, ciblant en particulier les migrants et les demandeurs d’asile.

Ces pratiques exacerbent les discriminations systémiques, notamment via des outils tels que le policing prédictif et la surveillance biométrique en temps réel dans les espaces publics. Cela soulève de sérieuses inquiétudes sur l’érosion croissante des droits fondamentaux en Europe. Alors que l’Europe cherche à rivaliser avec les investissements américains dans l’IA, il est impératif qu’elle privilégie des lignes directrices éthiques plutôt qu’une innovation technologique débridée. Ignorer ces préoccupations reviendrait à normaliser des technologies qui réduisent la supervision humaine et violent le droit humanitaire international.

Pour relever ces défis critiques, une approche globale et multipartite est essentielle. Les décideurs politiques doivent donner la priorité à l'intégration des discussions sur l'IA militarisée dans les agendas de gouvernance mondiale, en garantissant une participation significative des organisations de la société civile, en particulier celles représentant les pays du Sud global. Cela implique l’élaboration de normes internationales contraignantes empêchant les entreprises technologiques de faciliter des violations des droits humains à travers des contrats militaires.

La transparence doit devenir un principe fondamental, avec des obligations de divulgation systématique pour les entreprises impliquées dans des partenariats militaires. Par ailleurs, les futurs sommets sur l’IA devraient consacrer des espaces dédiés au dialogue critique, allant au-delà de l’innovation technologique pour examiner en profondeur les implications éthiques de l’IA dans les conflits armés.

Israël : des outils pour sa propagande (01/2025)

Gaza, Ukraine... Quand la technologie exacerbe l’horreur de la guerre (11/2024)

Gaza, Cisjordanie, Liban... Où s'arrêteront les massacres ? (09/2024)

All eyes on Palestine (08/2024)

Il faut mettre fin à la catastrophe en Palestine : cessez-le-feu immédiat ! (05/2024)

Gaza : tuerie par IA (05/2024)

Gaza, laboratoire et vitrine de la destruction par l’IA (03/2024)

Israël utilise des drones snipers à Gaza, la guerre par l'IA (12/2023)

Rester en sécurité en ligne... (11/2023)

Israël, Nice... : la chimère des approches cyber-sécuritaires (10/2023)

Une réponse sur « L'IA en temps de guerre : complicités technologiques et massacres »