Un article de Médiapart et un (très documenté) de La Quadrature du net dénoncent l'algorithme déployé à la Caisse Nationale d'Assurance Maladie (CNAM), après ceux de la CAF, de France Travail (ex Pôle Emploi). Extraits ci-dessous.
Rappelons que, le 18 janvier 2025 à Villeurbanne, nous vous invitons à des rencontres pour lutter contre la numérisation des services publics qui, justement, traiteront du déploiement de ces algos (IA), partout discriminatoires, racistes...
Organisées par La Quadrature du net, Changer de cap et Halte au contrôle numérique, avec le soutien de la mairie de Villeurbanne *
* cette municipalité a voté, en octobre 2023, une délibération "en faveur d'un droit au non-numérique dans l'accès aux services publics municipaux"
La Quadrature du Net a eu accès à des documents et au code source d’un outil utilisé pour lutter contre la fraude. Les femmes pauvres avec enfants seraient particulièrement visées par ces contrôles. L’assurance-maladie soutient que ces algorithmes ne sont plus utilisés.
Une discrimination...
Une mère âgée de plus de 25 ans, précaire et bénéficiaire de la complémentaire santé solidaire (C2S), gratuite : voilà en substance le profil type des personnes les plus susceptibles d’être contrôlées par l’assurance-maladie.
A la suite d’une "erreur de la CNAM", La Quadrature a pu avoir accès au code source de l’algorithme utilisé pour détecter les anomalies depuis 2018, outil similaire à celui de la Caisse d’allocations familiales (CAF).
Dans les deux institutions sociales, il est constaté que ces algorithmes (IA) ciblent particulièrement - comme fraudeurs potentiels - les immigré.es ou descendants de, les handicapé.es, et donc les femmes précaires seules avec enfants, bien souvent vulnérables face à la pauvreté, selon plusieurs études.
En janvier 2020, lors d’un "comité de direction fraude" où était présenté le modèle de datamining, qui permet de brasser une grande quantité de données, les responsables de la CNAM jugeaient que ces profils sont "les plus à risques d’anomalies et de fraude". L’archétype du "fraudeur" y était décrit mot pour mot comme ceci : "Première demande dont le demandeur est une femme de plus de 25 ans avec plus d’un majeur et au moins un mineur dans le foyer."
Pour effectuer ce ciblage, le principe est simple : la Cnam "attribue une note, ou score de suspicion, à chaque foyer bénéficiant de la C2S. Par définition, ses 7,4 millions de bénéficiaires sont précaires car elle est destinée aux personnes disposant de ressources modestes pour les aider à couvrir les frais de santé restant à la charge de l’assuré·e. Le plafond annuel de ressources pour y accéder est fixé à 10 166 € pour une personne seule, en métropole et en fonction de la composition du foyer du demandeur ou de la demandeuse. En cas de léger dépassement, une participation financière peut être demandée.
Dans le détail, le logiciel utilisé à la CNAM "est basé sur une régression logistique simple comprenant cinq variables en entrée, dont le sexe, l’âge ou la composition du foyer". Aucun critère lié à la précarité économique n’est en revanche mobilisé car "ce critère est déjà présent de base dans la définition de la population analysée".
Ces contrôles peuvent notamment aboutir à des suspensions abusives de couverture santé entraînant des ruptures d’accès aux soins aux conséquences particulièrement graves, et ce, pour l’ensemble des ayants droit du foyer dont les enfants.
"Plus du tout d’actualité" ?
La Quadrature du Net a aussi obtenu celui d’un modèle plus expérimental, développé en vue d’évolutions futures. Il ajoutait aux critères venant augmenter le score de suspicion d’un·e assuré·e "le fait d’être en situation de handicap, malade" ou encore… d’être “en contact avec l’assurance-maladie”. Cependant, ce modèle n’aurait pas été généralisé, car les équipes de statisticien·nes de la CNAM ont jugé que son utilisation, nécessitant un "croisement de données non autorisé", n’était pas légale. La CNAM soutient que "ces documents internes datent de plusieurs années et ne sont plus du tout d’actualité", que "depuis quatre ans, le datamining utilisé ne comporte aucune variable relative au sexe du demandeur, ni à l’âge du demandeur". "Il n’y a pas non plus de requête sur l’âge des enfants".
Pourtant, dans les échanges avec La Quadrature du Net, faisant suite à une demande d’accès aux documents administratifs, la CNAM écrit noir sur blanc, en mai 2024, qu’elle joint "la présentation du modèle actuel de datamining, version enrichie de celui généralisé en 2019". Elle confirme aussi que le datamining est utilisé pour prédire "le risque d’anomalies" chez les bénéficiaires et que des contrôles "aléatoires" sont réalisés en parallèle.
En 2023, un peu moins de 10 000 contrôles orientés par le datamining ont été réalisés, avec un taux de 23 % d’anomalies détectées. Mais l’assurance-maladie ne dit mot des personnes dont les droits ont été suspendus à la suite de ces contrôles. Elle assure cependant qu’"aucune décision de remise en cause de la C2S n’est réalisée sur la seule base du datamining : il y a systématiquement une analyse du dossier par un agent de la CPAM et une phase contradictoire avec les assurés en cas de détection d’anomalie". Elle dit ainsi respecter les principes édictés par le rapport du Défenseur des droits "Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers", publié en novembre 2024.
La chasse aux indus
Comme le dénonce La Quadrature, ces contrôles peuvent aboutir à des "suspensions abusives de couverture santé, entraînant des ruptures d’accès aux soins", confirmées par des associations de défense des droits des assuré·es. Contrôles considérés comme "humiliants" par le sociologue Vincent Dubois dans son livre Contrôler les assistés (Raisons d’agir, avril 2021). Celui-ci précisait (dans une interview de Mediapart, que le score élevé attribué aux plus précaires était principalement lié à la complexité de leur situation. "Ce n’est pas dû à la propension de ces personnes à frauder qui serait supérieure à celle des autres, mais parce que leurs situations et les critères des prestations qu’elles perçoivent sont plus complexes, et génèrent ce qui est statistiquement identifié comme des risques."
Alex Dupré, chargé des sujets sociaux à La Quadrature du Net, explique à Mediapart que ces nouvelles révélations accréditent l’idée que ces algorithmes "n’ont qu’un seul but, celui de récupérer des indus". "Or, on sait que les indus se concentrent sur les prestations liées à la grande précarité, et parmi les personnes concernées par ces prestations, il y a des personnes qui sont particulièrement en situation de grande instabilité". De surcroît, les indus résultent souvent de la complexité des démarches et des parcours de vie des bénéficiaires.
Voilà pourquoi l’association demande l’interdiction de ces algorithmes opaques utilisés également à France Travail, l’assurance-vieillesse ou dans les mutualités sociales agricoles, "puisque pour [elle], c’est un vernis scientifique et une façon de masquer la réalité des politiques de contrôle humainement insoutenables". Quitte à aller en justice.
Début octobre, une quinzaine d’associations ont saisi le Conseil d’État pour demander le retrait de l’algorithme utilisé par la Caisse nationale des allocations familiales (CNAF) afin de noter ses allocataires et d’orienter ses contrôles.
Le problème n’est pas technique mais politique
La Quadrature du net documente la généralisation des algorithmes de notation à des fins de contrôle au sein de notre système social depuis deux ans et vient d'ouvrir un espace France contrôle.
Pour elle, les risques associés à l’essor de ces techniques se situent dans la surveillance numérique de toutes et tous, des politiques de discriminations vis à vis des plus plus précaires et de violence institutionnelle grâce à l’opacité et au vernis scientifique qu’ils offrent aux responsables des administrations sociales.
Pour La Quadrature, il n’est pas nécessaire d’accéder au code de l’ensemble de ces algorithmes pour connaître leurs conséquences sociales. Car le problème n’est pas technique mais politique.
Vendus au nom de la soi-disant "lutte contre la fraude sociale", ces algorithmes ne peuvent pas être améliorés car ils ne sont que la traduction technique d’une politique visant à harceler et réprimer les plus précaires d’entre nous.
L’hypocrisie et la violence de ces pratiques et des politiques qui les sous-tendent doivent être dénoncées et ces algorithmes abandonnés. Quant aux responsables qui les appellent de leurs vœux, les valident et les promeuvent, ils et elles doivent répondre de leur responsabilité.
L'algorithmisation des politiques sociales n'est pas propre qu'à la France : toute l'Europe (au moins) est concernée, et partout ces techniques sont combattues.