Guerre contre l’Iran : l’IA sur le champ de bataille

Iran- EPA

Une guerre de plus engagée par le couple Israël-Etats Unis. Les deux, champions autoproclamés de l'IA à tous les étages l'utilisent encore massivement pour ce conflit.

Avec une thèse mensongère : l'IA leur permettrait de sélectionner de façon chirurgicale des cibles (les principaux dirigeants par exemple) avec moins de morts civiles. Or ce n'est pas ce qui s'est confirmé à Gaza ni ailleurs, au contraire ces technologies se révèlent meutrières, voire génocidaires.

Un article de Médiapart fait une analyse de l'emploi de ces technologies dans la guerre déclenchée contre l'Iran, dont nous reprenons des extraits ci-dessous, en y intégrant des liens vers d'autres articles du site relatifs à la guerre contre les gazaouis.

Claude, l’outil de la société Anthropic, a été utilisé pour bombarder l’Iran. Pourtant, l’entreprise vient d’être bannie par Donald Trump parce que son PDG s’oppose à ce que l’IA se plie à tous les désirs du pouvoir. Des préventions mises de côté par OpenAI et Elon Musk.

Au cœur de la guerre, l’ombre de l’intelligence artificielle. Quelques heures à peine après le début des frappes israélo-états-uniennes sur l’Iran, le Wall Street Journal et le site d’information Axios indiquaient que l’armée américaine a utilisé Claude, le moteur d’IA générative de l’entreprise Anthropic, pour planifier l’attaque lancée samedi 28 février. Cela montre que l'IA générative a largement dépassé le statut de gadget conversationnel.

Anthropic est la première entreprise d’IA à être associée aux opérations du département de la défense (ou "département de la guerre", comme il a été rebaptisé en septembre). Elle a déjà participé à la préparation de l’enlèvement du président vénézuélien Nicolás Maduro le 3 janvier, d'après le Wall Street Journal.

Claude serait relié aux outils de Palantir, la firme de "big data" fondée par Peter Thiel et utilisée depuis des années par les services de renseignement des États-Unis pour analyser les opérations à venir et identifier des cibles. Palantir est régulièrement créditée d’avoir permis de localiser Oussama Ben Laden, tué au Pakistan en 2011. En Iran, les outils technologiques états-uniens auraient participé au renseignement, de nouveau à l’identification de cibles, mais aussi à des simulations de scénarios d’affrontements.

Sur son réseau Truth Social, Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d’utiliser Claude, dénonçant Anthropic comme une entreprise dirigée par des "cinglés de gauche", n’ayant "aucune idée de ce qu’est le monde réel""[Les États-Unis] ne permettront jamais à une entreprise radicale de gauche et woke de dicter la manière dont notre grande armée mène et gagne les guerres".

Dans un message publié sur le réseau social X, le secrétaire à la défense, Pete Hegseth, a déclaré qu’Anthropic était désormais vue comme un "risque pour la chaîne d’approvisionnement" militaire, demandant que les fournisseurs et sous-traitants de l’armée ne travaillent plus avec elle. "Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des géants de la technologie", a-t-il lancé.

Dès janvier, en annonçant que le Pentagone travaillerait avec xAI, l’entreprise d’Elon Musk, Pete Hegseth avait assuré qu’il "n’utiliserait pas de modèles d’IA qui n’autorisent pas à faire la guerre". C’est en effet peu après l’enlèvement de Nicolás Maduro que les relations se sont tendues entre le pouvoir états-unien et Dario Amodei, le dirigeant et fondateur d’Anthropic. L’entreprise avait pourtant obtenu à l’été 2025 un contrat de 200 millions de $ (170 millions d’€) avec l’administration.

Mais après l’opération vénézuélienne, qui a conduit à plusieurs bombardements, son PDG a commencé à faire savoir de plus en plus bruyamment qu’il était mal à l’aise avec le fait que son outil soit utilisé pour "faciliter la violence", produire ou guider des armes, ou assurer une surveillance de masse, des activités interdites par les lignes de conduite officielles d’Anthropic.

Dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques plutôt que de les défendre. Dario Amodei, patron d’Anthropic

Dario Amodei a progressivement assumé la position solitaire de leader de la tech s’opposant à Donald Trump, quand tous les autres ont fait allégeance au président dès le début de son deuxième mandat. Il s’en est encore expliqué dans un communiqué, répondant à un ultimatum du Pentagone lui intimant de donner accès à l’administration à toutes les capacités de Claude, quel qu’en soit le but, du moment qu’il restait cantonné au très large champ légal défini aux États-Unis par l’expression "à toutes fins légales" ("all lawful purposes").

L’entrepreneur a fait de "la surveillance intérieure de masse" et des "armes complètement autonomes" (voir robots tueurs, contestées par la campagne internationale Stop Killer Robotsdeux lignes rouges absolues"Nous n’avons jamais eu d’objections à l’égard d’opérations militaires particulières. […] Cependant, dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques plutôt que de les défendre. Certaines utilisations dépassent tout simplement les limites de ce que la technologie actuelle peut réaliser de manière sûre et fiable", insiste le dirigeant d’Anthropic.

Ses réserves sont donc loin d’être généralisées, et n’empêchaient en rien le Pentagone de s’appuyer largement sur Claude. Mais elles ont suffi au pouvoir trumpiste pour s’être senti défié. Signe que les outils d’IA sont déjà largement imbriqués avec son modèle opérationnel, l’armée a néanmoins reconnu qu’il lui faudrait six mois pour couper les liens avec Claude.

Dans l’intervalle, les concurrents foncent. Le déploiement de xAi annoncé en janvier est désormais opérationnel. Mais surtout, Sam Altman, le PDG d’OpenAI, créateur de ChatGPT et principal concurrent d’Anthropic, a annoncé qu’il avait signé un accord avec le Pentagone. Selon lui, cet accord inclut pourtant "l’interdiction de la surveillance massive nationale" et prône une "responsabilité humaine" dans les systèmes d’armes autonomes.

Des dizaines d’employé·es de la Silicon Valley et des entreprises d’IA ont publiquement pris le parti de Dario Amodei, devenu la figure du refus des lubies trumpistes. Une grosse centaine de salarié·es de Google ont signé une pétition en sa faveur, tout comme des dizaines chez Amazon, Microsoft (actionnaire principal d'OpenAI), Google et… OpenAI, dans une lettre ouverte.

Qu’ils et elles soient à l’aise ou pas avec cette idée, les salarié·es du monde de l’IA doivent pourtant admettre que les outils qu’ils et elles développent font désormais partie du champ de bataille. Avec les risques que cela comporte.

Comme l'expliquait l’Institut français des relations internationales (Ifri) dès avril 2024, en s’appuyant sur les révélations des médias israéliens +972 et Local Call, divers logiciels d’IA ont appuyé l’armée israélienne à Gaza, notamment en présélectionnant des cibles pour les bombardements et en désignant des dizaines de milliers de personnes comme combattants ou militants du Hamas et du Jihad islamique (voir notre article sur les différentes IA mobilisées par l'armée israélienne).

L’armée israélienne revendique l'utilisation de ce type d’outils depuis 2021. Dans certains cas, le soldat œuvrant "avec" l’IA a seulement vingt secondes pour s’assurer que la cible désignée par la machine est bien légitime. Plusieurs sources affirment que l’armée israélienne a conscience que son système peut faire jusqu’à 10 % d’erreurs.

"L’IA actuelle n’est tout simplement pas fiable ; des erreurs seront inévitablement commises. Certaines coûteront des vies, d’autres en coûteront beaucoup", résume l’une des voix critiques de l’IA les plus connues des États-Unis, l’universitaire spécialiste des sciences cognitives Gary Marcus.

À ce "problème technique", le chercheur ajoute un sérieux "problème moral"Les militaires pourraient bien vouloir utiliser l’IA pour se décharger de leur responsabilité morale[…] Combien de victimes civiles sont acceptables ? Quel taux d’erreur est admissible ? L’IA peut suivre un ensemble de critères (avec plus ou moins de précision selon la qualité des algorithmes et des données), mais ce sont les humains qui fixent ces critères."

Palantir, sous l’oeil des États-Unis (HACN, 02/2026)

Retour sur le SIDO, le salon mortifère de la tech régionale (HACN, 02/2026)

Milipol 2025, une mobilisation contre le salon de la guerre internationale (HACN, 01/2026)

Au Soudan, les drones tueurs au coeur des massacres (HACN, 01/2026)

IA génocidaire : comment Israël automatise les violations des droits de l’homme et les crimes de guerre (HACN, 10/2025)

L'IA en temps de guerre : complicités technologiques et massacres (HAN, 02/2025)

Gaza : tuerie par IA (HACN, 05/2024)