À France Travail, le contrôle algorithmique baffoue les droits des usagers

La Quadrature du net - avec d'autres, notamment Changer de cap face aux algos de la CAF - a engagé depuis plusieurs années un combat contre l'usage discriminatoire de l'intelligence artificielle par différents services publics. Nous relayons ci-dessous son étude de celle déployée à France Travail (ex Pôle Emploi).

Par ailleurs, nous relayons en dessous de cet article l'appel à signer une pétition pour contraindre France Travail à respecter les droits des usagers. En effet, ceux-ci sont de plus en plus baffoués par la numérisation rendue obligatoire des rapports des usagers avec ce service public de l'empoi.

Article de La Quadrature du net

"Score de suspicion" visant à évaluer l’honnêteté des chômeur·ses, "score d’employabilité" visant à mesurer leur "attractivité", algorithmes de détection des demandeur·ses d’emploi en situation de "perte de confiance", en "besoin de redynamisation" ou encore à "risque de dispersion"… France Travail multiplie les expérimentations de profilage algorithmique des personnes sans emploi.

Après avoir traité de l’utilisation par la CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-Pôle Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de numérisation forcée du service public de l’emploi. Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab.

Au nom de la "rationalisation" de l’action publique et d’une promesse "d’accompagnement personnalisé" et de "relation augmentée", se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social.

C’est, ici encore, au nom de la "lutte contre la fraude" que fut développé le premier algorithme de profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés "frustrants", France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à Cap Gemini, une multinationale du CAC40.

La notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un "score de suspicion" – dans le texte – visant à détecter les chômeur·ses les plus susceptibles "d’escroquerie" grâce à l’exploitation de "signaux faibles" [1]. Une fois l’ensemble des personnes sans emploi notées, un système d’"alertes" déclenche ainsi des contrôles lorsque l’algorithme détecte des situations "suspectes" (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée) [2].

Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du RGPD. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la surveillance numérique à l’œuvre, tout comme les risques de discriminations que ce système comporte.

Fort de ce premier "succès", France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme Intelligence Emploi [3]. Son ambition affichée est de mettre l’intelligence artificielle "au service de l’emploi" pour "révéler à chaque demandeur d’emploi son potentiel de recrutement".

Un des axes de travail retient notre attention : "Accélérer l’accès et le retour à l’emploi [via un] diagnostic “augmenté” pour un accompagnement plus personnalisé". Ici, l’IA doit permettre d’"augmenter la capacité de diagnostic" relative aux "traitements des aspects motivationnels" via la "détection de signaux psychologiques". En son sein, deux cas d’usage retenus sont particulièrement frappants.

Le premier est le développement d’algorithmes visant à "anticiper les éventuels décrochages", prévenir les "risques de rupture" ou encore "détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité".

Ces travaux ont trouvé, au moins en partie [4], un premier aboutissement dans l’outil du Journal de la Recherche d’Emploi (JRE) actuellement expérimenté dans plusieurs régions de France [5]. Le JRE assigne à chaque incrit·e quatre scores de "profilage psychologique" visant respectivement à évaluer la "dynamique de recherche" d’emploi, les "signes de perte de confiance", le "besoin de redynamisation" ou les "risques de dispersion".

Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord"Parcours à analyser", "Situations à examiner", "Dynamique de recherche faible" : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un "diagnostic de situation" – via l’interface numérique – afin d’"adapter l’intensité" des "actions d’accompagnement". Et là encore, ils et elles peuvent s’appuyer sur des "conseils personnalisés" générés par un dernier algorithme [6].

Contrôle, mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle "l’accompagnement sur mesure de masse".

Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la "qualité" d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son "employabilité". Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle – a été développée en 2021.

L’algorithme alloue à chaque inscrit·e un score prédisant ses "chances de retour à l’emploi". Véritable outil automatique de tri des chômeur·ses, il vise à organiser la "priorisation des actions d’accompagnement" en fonction d’un supposé degré d’autonomie de la personne sans emploi.

Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la "progression de la recherche d’emploi" via les actions entreprises pour améliorer "l’attractivité [de leur] profil". Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les "métiers en tension", dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface "XP RSA", l’outil numérique déployé dans le cadre de la récente réforme du RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt "heures d’activité" hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le flicage des plus précaires.

Côté IA, France Travail a lancé en 2024 le programme "Data IA", successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’"innovation technologiqueVivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une IA générative visant à numériser l’accompagnement et la recherche d’emploi ("Match FT") [7]. France Travail s’intéresse aussi aux "maraudes numériques" pour "remobiliser les jeunes les plus éloignés de l’emploi" et au développement d’"agences virtuelles".

La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de "fraude", de "dispersion", de "perte de confiance", suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi [8].

Alors qu'Gabriel Attal [1e ministre en sursis] avait annoncé une énième réforme de l’assurance-chômage, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des conditions de travail toujours plus dégradées.

Loin des promesses de "libérer du temps pour les conseillers" ou d’offrir un accompagnement "plus réactif et plus personnalisé" aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’exclusion des plus précaires, voire tend à une généralisation du non-recours aux droits. Il ne s’agit pas d’idéaliser le traitement "au guichet", mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge [9].

En standardisant les processus d’accompagnement, via la quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé [10].

En facilitant le contrôle généralisé, elle accentue enfin la stigmatisation des plus précaires et participe activement à leur paupérisation.

Notes

[1] L’expression "score de suspicion" est extraite de l’analyse d’impact disponible ici, celle de "signaux faibles" d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’"indices" de l’article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’"escroquerie", il est issu d’un échange de mails avec un·e responsable de France Travail.

[2] L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites "fictives" – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.

[3] Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.

[4] En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une "brique IA Mire" portant sur la détection de "situations de décrochage". Il se pourrait donc que des algorithmes plus avancés soient en développement.

[5] Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.

[6] Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.

[7] Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.

[8] Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C.Vivès, L. Sigalo Snatos, J.-M Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J-M Méon, P. Emmaule et V. Dubois disponible ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.

[9] Voir le livre L’Etat social à distance de Clara Deville.

[10] Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.