{"id":1120,"date":"2022-05-05T16:14:59","date_gmt":"2022-05-05T14:14:59","guid":{"rendered":"https:\/\/halteaucontrolenumerique.fr\/?p=1120"},"modified":"2022-05-05T16:14:59","modified_gmt":"2022-05-05T14:14:59","slug":"le-projet-de-loi-europeenne-sur-lintelligence-artificielle-menace-nos-droits-fondamentaux","status":"publish","type":"post","link":"https:\/\/halteaucontrolenumerique.fr\/le-projet-de-loi-europeenne-sur-lintelligence-artificielle-menace-nos-droits-fondamentaux\/","title":{"rendered":"Le projet de r\u00e8glement europ\u00e9en sur l&rsquo;Intelligence Artificielle menace nos  droits fondamentaux"},"content":{"rendered":"\n<p>L&rsquo; \u00ab\u00a0<em>Intelligence artificielle<\/em>\u00a0\u00bb recouvre l&rsquo;ensemble des syst\u00e8mes automatis\u00e9s qui pr\u00e9tendent \u00eatre capables de simuler l&rsquo;intelligence humaine. Une critique scientifique de cette pr\u00e9tention s&rsquo;est d\u00e9velopp\u00e9e depuis son origine (notamment r\u00e9sum\u00e9e <a href=\"https:\/\/sciences-critiques.fr\/pourquoi-resister-a-lintelligence-artificielle\/#:~:text=Face%20aux%20critiques%20et%20aux,repr%C3%A9sente%20pr%C3%A9cis%C3%A9ment%20le%20point%20culminant.\">ici<\/a>, qui rappelle la fuite en avant d\u00e9brid\u00e9e des industriels et des Etats dans ces technologies, sur fond de concurrence mondialis\u00e9e).<\/p>\n\n\n\n<p>Ces technologies sont de fait tr\u00e8s peu r\u00e9glement\u00e9es. Si, en France, la <em>Commission Nationale Informatique et Libert\u00e9s<\/em> (CNIL) essaie d&rsquo;\u00e9laborer une doctrine (voir <a href=\"https:\/\/www.cnil.fr\/fr\/intelligence-artificielle-ia\" data-type=\"URL\" data-id=\"https:\/\/www.cnil.fr\/fr\/intelligence-artificielle-ia\">dossier<\/a>), cela ne se traduit pas par des r\u00e8gles contraignantes ni par des contr\u00f4les.<\/p>\n\n\n\n<p>D&rsquo;o\u00f9 l&rsquo;importance du travail men\u00e9 au niveau europ\u00e9en. La <em>Commission europ\u00e9enne<\/em> a propos\u00e9 en avril 2021 une <a href=\"https:\/\/eur-lex.europa.eu\/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02\/DOC_1&amp;format=PDF\">premi\u00e8re version<\/a> d&rsquo;un r\u00e8glement (1) concernant les applications de l&rsquo;intelligence artificielle.<\/p>\n\n\n\n<p>Cent vingt trois organisations ont \u00e9labor\u00e9, d&rsquo;abord en novembre 2021, puis actualis\u00e9 en avril 2022 en fonction des <a href=\"https:\/\/www.europarl.europa.eu\/doceo\/document\/CJ40-PR-731563_EN.pdf\" data-type=\"URL\" data-id=\"https:\/\/www.europarl.europa.eu\/doceo\/document\/CJ40-PR-731563_EN.pdf\">amendements parlementaires<\/a> apport\u00e9s au texte, un <a href=\"https:\/\/edri.org\/wp-content\/uploads\/2022\/05\/Civil-society-reacts-to-EP-AI-Act-draft-report_FINAL.pdf\">appel<\/a> pour obtenir des r\u00e9visions majeures car, pour elles, ce projet est loin de prot\u00e9ger les droits fondamentaux contre les m\u00e9faits de l&rsquo;IA.<\/p>\n\n\n\n<p>La position de l&rsquo;actuel gouvernement fran\u00e7ais (qui occupe la pr\u00e9sidence du Conseil de l&rsquo;UE jusqu&rsquo;au 30 juin 2022 selon la logique tournante en vigueur) est symptomatique de sa pratique nationale : aller le plus vite possible, notamment sur l\u2019aspect r\u00e9pressif, alors que certains pays (notamment Allemagne et Finlande) demandaient m\u00eame de s\u00e9parer ces dispositions r\u00e9pressives du reste du texte.<\/p>\n\n\n\n<p>Le texte a ainsi \u00e9t\u00e9 durci sur certains points : \u00e9largissement du droit d&rsquo;exception pour l&#8217;emploi de la reconnaissance biom\u00e9trique (notamment pour la localisation d\u2019un suspect \u00e0 toute infraction p\u00e9nale pouvant entra\u00eener une p\u00e9riode de d\u00e9tention d\u2019au moins cinq ans), \u00e0 la s\u00e9curit\u00e9 des infrastructures physiques, pour la reconnaissance faciale lorsque les forces de police sont autoris\u00e9es \u00e0 effectuer des contr\u00f4les d\u2019identit\u00e9.<\/p>\n\n\n\n<p>L&rsquo;appel des organisations de d\u00e9fense des droits (coordonn\u00e9es par l&rsquo;<a href=\"https:\/\/edri.org\/\" data-type=\"URL\" data-id=\"https:\/\/edri.org\/\">EDRI<\/a>, European Digital Rights, association dont est adh\u00e9rente La Quadrature du Net) pose neuf exigences :<\/p>\n\n\n\n<p>1. <strong>D\u00e9velopper une approche coh\u00e9rente, flexible et \u00e0 l&rsquo;\u00e9preuve du temps du \u00ab\u00a0risque\u00a0\u00bb des syst\u00e8mes d&rsquo;IA<\/strong>. En effet, le rythme rapide de leur d\u00e9veloppement n\u00e9cessite des changements fr\u00e9quents dans la l\u00e9gislation pour s&rsquo;adapter aux utilisations impr\u00e9vues de l&rsquo;IA. Cela n\u00e9cessite d&rsquo;am\u00e9liorer la participation des parties prenantes, y compris de la soci\u00e9t\u00e9 civile, au processus de consultation entourant ces mises \u00e0 jour. Le projet amend\u00e9 fixe l&rsquo;obligation pour la Commission d&rsquo;\u00e9valuations annuelles, voir plus fr\u00e9quentes, et l&rsquo;extension de la liste des syst\u00e8mes dits \u00ab\u00a0\u00e0 haut risque\u00a0\u00bb, notamment ceux qui interagissent avec les enfants, qui prennent des d\u00e9cisions en mati\u00e8re d&rsquo;assurance maladie ou d&rsquo;assurance vie, ceux li\u00e9s au vote et aux campagnes \u00e9lectorales&#8230; Reste \u00e0 am\u00e9liorer le dispositif de mise \u00e0 jour de la liste des pratiques interdites, notamment sur le d\u00e9veloppement des syst\u00e8mes d&rsquo;identification biom\u00e9triques, ainsi que ceux utilis\u00e9s dans la gestion des migrations, tels que l&rsquo;analyse pr\u00e9dictive, pour le suivi et la surveillance dans le contr\u00f4le des fronti\u00e8res&#8230;<\/p>\n\n\n\n<p>2. <strong>Interdiction des syst\u00e8mes d&rsquo;IA pr\u00e9sentant un risque inacceptable pour les droits fondamentaux<\/strong>. Il s&rsquo;agit i\u00e7i des syst\u00e8mes dont il est prouv\u00e9 qu&rsquo;ils pr\u00e9sentent un risque inacceptable de violation des droits fondamentaux. Notamment, cela concerne la \u00ab\u00a0police pr\u00e9dictive\u00a0\u00bb, c&rsquo;est-\u00e0-dire l&rsquo;utilisation de syst\u00e8mes d&rsquo;IA par les autorit\u00e9s charg\u00e9es de l&rsquo;application de la loi et de la justice p\u00e9nale pour faire des pr\u00e9dictions, des profils ou des \u00e9valuations des risques dans le but de pr\u00e9voir les crimes. Le texte amend\u00e9 vise \u00e0 emp\u00eacher l&rsquo;utilisation de syst\u00e8mes qui ciblent les individus, sapant la pr\u00e9somption d&rsquo;innocence et renfor\u00e7ant le profilage racial. Mais il n&rsquo;inclut pas les syst\u00e8mes de police pr\u00e9dictive \u00ab\u00a0bas\u00e9s sur le lieu\u00a0\u00bb (qui peuvent pr\u00e9dire si des crimes sont \u00ab\u00a0susceptibles d&rsquo;\u00eatre commis dans certains quartiers\u00a0\u00bb). Or cela peut renforcer les pratiques polici\u00e8res discriminatoires envers certaines communaut\u00e9s racialis\u00e9es et ouvri\u00e8res, et remet en cause la pr\u00e9somption d&rsquo;innocence sur une base collective. La loi sur l&rsquo;IA doit interdire davantage la reconnaissance des \u00e9motions, ainsi que les syst\u00e8mes biom\u00e9triques utilis\u00e9s pour suivre, cat\u00e9goriser et\/ou juger les personnes dans les espaces accessibles au public, et ceux qui utilisent des donn\u00e9es corporelles pour faire des d\u00e9ductions sur la personnalit\u00e9, le caract\u00e8re, les croyances politiques et religieuses. L&rsquo;utilisation de l&rsquo;identification biom\u00e9trique \u00e0 distance devrait \u00eatre interdite totalement (en temps r\u00e9el comme a posteriori) pour tous les acteurs (publics et priv\u00e9s) dans les espaces accessibles au public. Afin de garantir la protection des migrants et des personnes en d\u00e9placement, des interdictions doivent \u00eatre ajout\u00e9es, notamment sur les syst\u00e8mes d&rsquo;\u00e9valuation des risques et de profilage individuels bas\u00e9s sur l&rsquo;IA, ainsi que sur les syst\u00e8mes d&rsquo;analyse pr\u00e9dictive utilis\u00e9s pour interdire, restreindre et emp\u00eacher la migration.<\/p>\n\n\n\n<p>3. <strong>Renforcer la responsabilit\u00e9 des fournisseurs et des utilisateurs de syst\u00e8mes bas\u00e9s sur l&rsquo;IA<\/strong>. Le texte amend\u00e9 pr\u00e9cise d\u00e9sormais que les autorit\u00e9s publiques qui utilisent des syst\u00e8mes \u00e0 haut risque doivent s&rsquo;enregistrent dans une base de donn\u00e9es publique. De m\u00eame, il est cr\u00e9\u00e9 une obligation pour tous les utilisateurs de syst\u00e8mes \u00e0 haut risque d&rsquo;informer les personnes concern\u00e9es si ces syst\u00e8mes prennent ou aident \u00e0 prendre des d\u00e9cisions les concernant. Mais ces dispositions omettent l&rsquo;obligation d&rsquo;\u00e9valuation d&rsquo;impact sur les droits fondamentaux avant le d\u00e9ploiement, sur la mani\u00e8re dont ces syst\u00e8mes affecteront les personnes et la soci\u00e9t\u00e9, et comment les utilisateurs entendent att\u00e9nuer ces pr\u00e9judices. <\/p>\n\n\n\n<p>4. <strong>Une transparence publique coh\u00e9rente et significative<\/strong>. Une base de donn\u00e9es publique contiendrait des informations sur les syst\u00e8mes \u00e0 haut risque enregistr\u00e9s par leurs fournisseurs, \u00e9tendue par amendement aux autorit\u00e9s publiques utilisatrices. Cela permettrait la mise en place d&rsquo;un contr\u00f4le public sur l&rsquo;utilisation de l&rsquo;IA. Cependant, le projet ne pr\u00e9voit pas d&rsquo;obligation pour les entit\u00e9s priv\u00e9es d&rsquo;enregistrer leur utilisation d&rsquo;un syst\u00e8me d&rsquo;IA \u00e0 haut risque, par exemple pour le march\u00e9 du travail.<\/p>\n\n\n\n<p>5. <strong>Des droits et des recours significatifs pour les personnes touch\u00e9es par les syst\u00e8mes d&rsquo;IA<\/strong>. Ce projet de loi sur l&rsquo;IA manque d&rsquo;outils permettant aux personnes touch\u00e9es par les syst\u00e8mes d&rsquo;IA de contester les utilisations nuisibles ou discriminatoires. Des amendements visent \u00e0 garantir que les personnes puissent se plaindre aupr\u00e8s des autorit\u00e9s nationales et demander un recours si leur sant\u00e9, leur s\u00e9curit\u00e9 ou leurs droits fondamentaux ont \u00e9t\u00e9 viol\u00e9s. Par ailleurs, il y a l&rsquo;introduction d&rsquo;une obligation pour les utilisateurs de syst\u00e8mes d&rsquo;IA \u00e0 haut risque d&rsquo;informer les personnes concern\u00e9es, limit\u00e9e \u00e0 une simple notification de l&rsquo;utilisation d&rsquo;un syst\u00e8me d&rsquo;IA. Mais, au minimum, les personnes concern\u00e9es devraient \u00eatre en mesure de conna\u00eetre l&rsquo;objectif du syst\u00e8me d&rsquo;IA et les droits dont elles disposent (par exemple, le droit de se plaindre). Par exemple, les Pays-Bas ont impos\u00e9 l&rsquo;obligation d&rsquo;informations sur le fonctionnement et la logique du syst\u00e8me d&rsquo;IA. Cela devrait aussi concerner les syst\u00e8mes qui affectent les personnes mais n&rsquo;ont pas \u00e9t\u00e9 class\u00e9s comme \u00e9tant \u00e0 haut risque (par exemple, les syst\u00e8mes qui personnalisent les prix ou les services). Devrait aussi \u00eatre impos\u00e9 le droit \u00e0 l&rsquo;explication des d\u00e9cisions individuelles pour permettre la contestation de r\u00e9sultats discriminatoires ou pr\u00e9judiciables. M\u00eame si un tel droit doit \u00eatre interpr\u00e9t\u00e9 \u00e0 partir de l&rsquo;article 22 du r\u00e8glement g\u00e9n\u00e9ral sur la protection des donn\u00e9es (RGPD), il pourrait ne s&rsquo;appliquer qu&rsquo;aux d\u00e9cisions prises par les syst\u00e8mes d&rsquo;IA sans aucune intervention humaine. Par ailleurs, il manque la possibilit\u00e9 pour les organisations d&rsquo;int\u00e9r\u00eat public de d\u00e9clencher une enqu\u00eate en cas de violations des droits fondamentaux.<\/p>\n\n\n\n<p>6. <strong>Accessibilit\u00e9 tout au long du cycle de vie de l&rsquo;IA<\/strong>. La loi sur l&rsquo;IA doit inclure une obligation d&rsquo;accessibilit\u00e9 conform\u00e9ment \u00e0 la loi europ\u00e9enne (directive 2019\/882), garantie pour tous les syst\u00e8mes d&rsquo;IA et tout au long de leur d\u00e9ploiement. Cela concerne les clauses d&rsquo;information et de transparence du r\u00e8glement, la base de donn\u00e9es de l&rsquo;UE, les droits des personnes physiques \u00e0 \u00eatre notifi\u00e9es et \u00e0 demander des explications, et pour toute obligation future concernant les \u00e9valuations d&rsquo;impact sur les droits fondamentaux. Enfin, l&rsquo;accessibilit\u00e9 devrait \u00eatre garantie dans toutes les consultations et la participation des titulaires de droits et des organisations de la soci\u00e9t\u00e9 civile lors de la mise en \u0153uvre de ce r\u00e8glement.<\/p>\n\n\n\n<p>7. <strong>Durabilit\u00e9 et protection de l&rsquo;environnement lors du d\u00e9veloppement et de l&rsquo;utilisation des syst\u00e8mes d&rsquo;IA<\/strong>. Aucune obligation n&rsquo;est impos\u00e9e aux fournisseurs et\/ou aux utilisateurs d&rsquo;inclure des informations concernant l&rsquo;impact environnemental du d\u00e9veloppement ou du d\u00e9ploiement des syst\u00e8mes d&rsquo;IA. Particuli\u00e8rement devraient \u00eatre impos\u00e9es des exigences de transparence \u00e0 l&rsquo;\u00e9gard du public concernant la consommation de ressources et l&rsquo;impact des syst\u00e8mes d&rsquo;IA sur les \u00e9missions de gaz \u00e0 effet de serre.<\/p>\n\n\n\n<p>8. <strong>Des normes am\u00e9lior\u00e9es et \u00e0 l&rsquo;\u00e9preuve du temps pour les syst\u00e8mes d&rsquo;IA<\/strong>. Parce que les organisations de normalisation sont le plus souvent des organismes priv\u00e9s opaques largement domin\u00e9s par les acteurs de l&rsquo;industrie, les signataires exigent que les autorit\u00e9s charg\u00e9es de la protection des donn\u00e9es, les organisations de la soci\u00e9t\u00e9 civile, les PME et les parties prenantes environnementales, sociales et des consommateurs soient repr\u00e9sent\u00e9es et aient la possibilit\u00e9 de participer effectivement aux processus de normalisation et de d\u00e9finition des sp\u00e9cifications de l&rsquo;IA. La loi doit fixer explicitement des r\u00e8gles sur les aspects de la loi qui feront l&rsquo;objet d&rsquo;une normalisation. Les droits fondamentaux ne doivent pas \u00eatre soumis \u00e0 la normalisation. La surveillance des questions non techniques doit rester du ressort du processus l\u00e9gislatif et des autorit\u00e9s comp\u00e9tentes.<\/p>\n\n\n\n<p>9. <strong>Une IA vraiment compl\u00e8te qui fonctionne pour tout le monde<\/strong>. Par amendement, le r\u00f4le et l&rsquo;ind\u00e9pendance du Conseil de l&rsquo;UE sur l&rsquo;intelligence artificielle a \u00e9t\u00e9 renforc\u00e9, en am\u00e9liorant la participation des parties prenantes. Des obligations de rapport pour les autorit\u00e9s de surveillance nationales sur les utilisations de syst\u00e8mes d&rsquo;IA interdits, ainsi que sur les abus, ont \u00e9t\u00e9 ajout\u00e9es. Mais les syst\u00e8mes d&rsquo;IA ne sont toujours pas consid\u00e9r\u00e9s comme des \u00ab\u00a0bases de donn\u00e9es informatiques europ\u00e9ennes \u00e0 grande \u00e9chelle\u00a0\u00bb, ce qui les dispensent d&rsquo;\u00e9chapper \u00e0 la surveillance. Notamment cela va toucher les personnes migrantes.<\/p>\n\n\n\n<p>(1) il existe deux types de textes l\u00e9gislatifs au niveau de l&rsquo;UE<\/p>\n\n\n\n<ul class=\"wp-block-list\"><li>les directives qui doivent, pour \u00eatre appliqu\u00e9es au niveau national, \u00eatre int\u00e9gr\u00e9es dans une loi de l&rsquo;Etat concern\u00e9<\/li><li>les r\u00e8glements, qui s&rsquo;appliquent tels quels dans la l\u00e9gislation de chacun des 27 pays composant l&rsquo;UE.<\/li><\/ul>\n\n\n<a href=\"https:\/\/halteaucontrolenumerique.fr\/wp-content\/uploads\/2022\/05\/IA-et-ondes-V4.pdf\" class=\"pdfemb-viewer\" style=\"\" data-width=\"max\" data-height=\"max\" data-toolbar=\"top\" data-toolbar-fixed=\"on\">IA-et-ondes-V4<\/a>\n<p class=\"wp-block-pdfemb-pdf-embedder-viewer\"><\/p>\n","protected":false},"excerpt":{"rendered":"<p>L&rsquo; \u00ab\u00a0Intelligence artificielle\u00a0\u00bb recouvre l&rsquo;ensemble des syst\u00e8mes automatis\u00e9s qui pr\u00e9tendent \u00eatre capables de simuler l&rsquo;intelligence humaine. Une critique scientifique de cette pr\u00e9tention s&rsquo;est d\u00e9velopp\u00e9e depuis son origine (notamment r\u00e9sum\u00e9e ici, qui rappelle la fuite en avant d\u00e9brid\u00e9e des industriels et des Etats dans ces technologies, sur fond de concurrence mondialis\u00e9e). Ces technologies sont de fait&hellip;<\/p>\n","protected":false},"author":54,"featured_media":1125,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[6],"tags":[113,232],"class_list":["post-1120","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-surveillance","tag-ia-fr","tag-surveillance"],"_links":{"self":[{"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/posts\/1120","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/users\/54"}],"replies":[{"embeddable":true,"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/comments?post=1120"}],"version-history":[{"count":0,"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/posts\/1120\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/media\/1125"}],"wp:attachment":[{"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/media?parent=1120"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/categories?post=1120"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/halteaucontrolenumerique.fr\/wp-json\/wp\/v2\/tags?post=1120"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}