IA act au parlement UE en avril : recadrage ou promotion de l'IA partout ?

Un projet de règlement européen sur l'Intelligence Artificielle a été proposé par la Commission européenne en avril 2021. Il devrait être débattu par le Parlement Européen en avril 2023.

Son but est de fixer des règles communes à l’ensemble des États membres afin d’encadrer les technologies faisant appel à l’intelligence artificielle (IA), comme la biométrie, la notation automatisée (sociale), l’analyse comportementale ou encore les algorithmes prédictifs. Comme pour le règlement général sur la protection des données (RGPD) d’avril 2016 (applicable depuis 2018), l'UE serait la première au monde à légiférer sur un domaine particulièrement sensible pour nos libertés et notre vie quotidienne, car l'IA s'infiltre partout (plus encore avec la 5G).

Depuis sa diffusion, ce projet est analysé et contesté par une série d'ONG, d'abord dans le cadre de l'EDRI (European Digital Rights, association qui regroupe différentes organisations intervenant sur les droits numériques dans toute l'Europe, dont La Quadrature du Net en France). Un premier appel de 123 organisations avait permis de porter une contestation globale et argumentée.

Le travail a été suivi dans une coalition plus restreinte, #Protect Not Surveil (où on retrouve l'EDRI, et suivie pour la France par Katia Roux, d'Amnesty International).

Une classification des IA selon leur risque pour la population

  • systèmes IA qui présentent des risques inacceptables pour lesquels ils seraient interdits, dont les systèmes de notation sociale. En relève également l’identification biométrique en temps réel dans l’espace public. Mais pas son usage a posteriori… La coalition #Protect Not Surveil revendique cette intégration, ce qui conduirait à l'interdiction des systèmes d’identification reposant sur la reconnaissance faciale, la démarche, les empreintes, etc., dans l’espace public.
  • systèmes qui présentent un risque élevé qui doivent faire l’objet d’une réglementation stricte avec des garde-fous. C’est le cas par exemple des IA utilisées dans l’éducation, dans le domaine de l’emploi, de la santé ou encore des migrations.
  • systèmes à risque dits limités, sur lesquels pèseraient des obligations essentiellement de transparence.
  • systèmes à risque minimum ou sans risque pour lesquels il n’y aurait pas de régulation.

La coalition vise à faire remonter certaines applications dans la catégorie supérieure pour obtenir leur interdiction ou une protection des citoyens plus complète. Elle veut aussi obtenir la systématisation d'études d’impact sur les droits humains et la transparence sur les algorithmes utilisés dans les services publics. Enfin, elle milite pour le renforcement des pouvoirs des citoyens, notamment les plus affectés par ces systèmes, pour qu’ils puissent introduire des recours quand ils sont impactés.

A l'inverse, le jeu des gouvernements et des industriels est de faire descendre les systèmes d'IA dans la classification de façon à ce que les exigences soient moindres ! La France particulièrement essaie de mettre en avant le droit d'exception (pour motifs de santé, de terrorisme...) qui ferait sortir ces systèmes de toute forme d'interdiction ou d'encadrement...

L’usage des IA dans le cadre de la politique migratoire de l’UE est particulièrement contestée car c'est dans ce domaine que les dérives sont les plus grandes, comme nous l'avions inventorié ici (avec les cas extrêmes des détecteurs de mensonge et des robots tueurs).

D'après Katia Roux, "pour le moment, les systèmes d’IA utilisés dans le domaine des migrations sont classés à haut risque, mais pas à risque inacceptable. Alors que, selon nous, cela devrait être le cas pour plusieurs d’entre eux, comme l’identification biométrique à distance ou encore l’usage des drones. Ces systèmes sont intrinsèquement discriminatoires et portent atteinte à la dignité humaine."

"De même, les systèmes d’analyse prédictive visant par exemple à déterminer un port de migration devraient être interdits, tout d’abord parce qu’ils sont dangereux et ensuite parce qu’ils vont à l’encontre du droit fondamental à demander l’asile."

"Le projet, en l’état, va créer un double standard en matière de droits humains qui n’est pas acceptable. Il ne peut y avoir un système de droits humains pour les citoyens européens et un autre pour les migrants."

Lien avec la loi française JO 2024 (bientôt en discussion à l'AN)

Ce texte vise à autoriser une expérimentation de surveillance algorithmique (donc relevant de l'IA) durant les Jeux olympiques de Paris de 2024. Le gouvernement assure que ce dispositif ne servira pas à identifier des personnes mais uniquement à détecter automatiquement des événements anormaux. Pour Katia Roux, "Nous remettons en cause cette affirmation. Ces systèmes collectent bien des données personnelles, comportementales. Ils peuvent donc bien permettre d’identifier une personne. Quand ces caméras isolent par exemple une manière de marcher, de se déplacer, elles repèrent un individu."

"De plus, ces systèmes de détection d’événements catégorisent des personnes pour déduire une intention. Ce sont des technologies qui n’ont jamais fait leur preuve scientifiquement. Et elles génèrent des atteintes à la vie privée, des discriminations, des biais, des erreurs qui ont été plusieurs fois prouvées par des études."

"Ce projet de loi sur les JO pourrait donc aller à l’encontre du débat sur l'IA act au Parlement européen, et la France se positionnerait en championne d’Europe de la surveillance, ce qui peut donner l’exemple à d’autres pays" [les illibéraux par exemple].

Les axes de la contestation de l' IA Act en matière de migrations selon la coalition #Protect Not Surveil

1) Interdire les pratiques nuisibles de l'IA dans le contexte de la migration

Les législateurs doivent interdire :

  • Systèmes d'analyse prédictive utilisés pour prévenir les migrations qui exacerberont la violence aux frontières et entraîneront des refoulements
  • Les évaluations de risques automatisées et les systèmes de profilage qui consacrent le racisme et les préjugés et portent atteinte à la dignité humaine et au droit à la non-discrimination
  • Les "détecteurs de mensonge" et toutes les technologies pseudo-scientifiques qui prétendent catégoriser les personnes et déduire leurs émotions sur la base de leurs données biométriques
  • L'identification biométrique à distance dans les espaces accessibles au public, y compris à la frontière et à l'intérieur et autour des centres de détention qui permettent une surveillance de masse.

2) Réglementer tous les systèmes à haut risque d'IA en migration

Les législateurs doivent veiller à ce que la loi sur l'IA réglemente tous les types de systèmes d'IA utilisés dans le cadre de la migration...
Tous les systèmes d'IA utilisés dans le cadre des migrations devraient être soumis à des mesures de surveillance et de responsabilisation...

3) Veiller à ce que la loi sur l'IA s'applique aux énormes bases de données migratoires de l'UE

L'article 83 doit être modifié pour garantir que l'IA faisant partie de bases de données informatiques européennes à grande échelle entre dans le champ d'application de la loi sur l'IA...

4) Faire de la loi sur l'IA de l'UE un instrument de protection

Il n'y aura jamais de justice sans un système de responsabilité et de transparence. La violence, les repoussoirs et les décès causés par les systèmes d'IA resteront inconnus si la loi sur l'IA ne garantit pas aux gens le droit de contester les violations qu'ils ont subies et si la surveillance publique est entravée.

Les législateurs doivent veiller à ce que la loi européenne sur l'IA permette aux personnes de demander justice, à ce qu'elle garantisse la transparence publique, à ce qu'elle prévienne les dommages causés par les systèmes d'IA dangereux et à ce qu'elle assure une surveillance lorsque les systèmes d'IA sont utilisés dans le cadre de la migration et du contrôle des frontières.

3 réponses sur « IA act au parlement UE en avril : recadrage ou promotion de l'IA partout ? »