L'IA vantée allègrement sur le journal local Le Progrès n'est pas l'alpha et l'oméga de la société idyllique que nous promettent les partisans de cette technologie et elle est déjà à l'oeuvre dans le monde du travail en particulier pour la surveillance des employés.
"Les 2/3 des travailleurs Américains sont sous surveillance sur leur lieu de travail" relève le journaliste Hubert Guillaud, auteur de "Les algorithmes contre la société", rédacteur en chef du média Danslesalgorithmes.net porté par l'association Vecteur.
Il va d'ailleurs participer le 12 juin 2025 à une table ronde au cours de la rencontre Numérique en Commun[s] qui aura lieu à St-Just-St-Rambert.
Plus d'infos et inscriptions sur : https://numerique-en-communs.fr/nec-loire-2025/
Ce phénomène de surveillance automatisée n'est pas l'apanage des Etats Unis ou des entreprises dont le siège est américain, en effet il s'agit d'une pratique mondiale diffusée d'autant plus rapidement que le marché du travail est de plus en plus mondialisé.
Une surveillance souvent masquée sous les outils numériques pour l'ensemble des employés
Non seulement elle concerne tous les pays mais aussi tous les secteurs en s'appuyant sur la numérisation généralisée à laquelle Halte au contrôle numérique s'oppose en alertant sur les dangers qu'elle entraine.
« Cette surveillance est désormais aussi commune pour les cols bleus que pour les cols blancs. Bien qu’elle soit souvent invisible, masquée sous les outils numériques que tous utilisent au quotidien, elle n’est pas sans conséquences :
elle a un impact sur la santé et la sécurité des travailleurs.»
« Des caméras alimentées par l’IA qui suivent l’attention des camionneurs aux scanners portables qui surveillent la vitesse d’emballage et de tri des colis des employés des entrepôts d’Amazon, en passant par les logiciels de vidéoconférence qui surveillent les conversations des employés pendant les réunions, dans de nombreux secteurs les entreprises utilisent de plus en plus d’outils automatisés pour collecter des données sur les travailleurs, puis utilisent ces données pour prendre des décisions automatisées sur les tâches et les horaires des travailleurs, les salaires, les promotions, la discipline et même les licenciements », explique le politologue Alexander Hertel-Fernandez sur le blog du LPE Project.
Qui a un impact sur les salaires
Ce qui se joue dans le renforcement de la surveillance au travail est pourtant très fort au niveau RH et plus encore au niveau de la question salariale. Les données sont de plus en plus utilisées pour produire des indicateurs de performances souvent problématiques sur de plus en plus d’employés, comme s’en émouvait un article du Washington Post prédisant l’arrivée du licenciement algorithmique.
La surveillance a un impact direct sur l’employabilité, le recrutement et sur la rémunération.
Dans le monde des plateformes de livraison ou de transport, la rémunération n’est pas fixe. Elle est à la fois “imprévisible, variable et personnalisée” en intégrant des différenciations qui peuvent être liées à la gestion opaque des pourboires.
De plus en plus de travailleurs du transport et de la logistique sont confrontés à un salaire constamment fluctuant lié à la gestion algorithmique du travail.
“Dans le cadre de ces nouveaux régimes de rémunération, les travailleurs perçoivent des salaires différents – calculés à l’aide de formules opaques et en constante évolution reflétant l’emplacement, le comportement, la demande, l’offre et d’autres facteurs de chaque conducteur – pour un travail globalement similaire.”
Le problème de ces situations, n’est pas seulement celui d’une rémunération variable basée sur la performance, mais aussi avec une répartition du travail basée non seulement sur le comportement des travailleurs, mais également sur d’autres critères liés eux à la profitabilité que le calcul opère pour l’entreprise entre tous les critères.
Elle produit une “discrimination salariale algorithmique” qui permet aux entreprises de "personnaliser et différencier les salaires d’une manière inconnue à ceux que ce calcul impacte, en les payant pour qu’ils se comportent de la manière dont l’entreprise le souhaite, à la limite de ce qu’ils sont disposés à accepter"
Ainsi "des personnes qui effectuent le même travail, avec les mêmes compétences, pour la même entreprise, en même temps, peuvent percevoir une rémunération horaire différente", le tout via un système obscur qui ne permet ni de prédire ni de comprendre sa rémunération.
En conflit avec les lois internationales du travail
Les lois internationales du travail précisent "qu’à travail égal salaire égal, et que les entreprises ne peuvent pas introduire de règles nouvelles ou opaques pour obscurcir le calcul du salaire". Or, [les calculs algorithmiques] ruinent les logiques d’équité, notamment parce que le salarié ne peut pas connaître les critères que l’entreprise a déterminé pour évaluer son travail ou le planifier, et que le calcul rend le salaire de chaque personne différent, pour le même travail au même moment. Entre les conductrices et les conducteurs d’Uber : les femmes gagnent 7% de moins que les hommes.
De plus, la rémunération algorithmique varie en permanence jusqu'à en sembler aléatoire au travailleur alors qu’elles sont calculées automatiquement et ne devraient pas susciter de doutes en supprimant la subjectivité humaine.
Le problème réside dans l'opacité des règles de calcul
Aujourd’hui, les travailleurs n’ont aucune idée des données qui sont collectées par devers eux ni de la manière dont elles sont utilisées pour évaluer leurs performances, alors que des jugements sont souvent effectués par des systèmes automatisés tiers, dont les fonctionnements ne sont jamais explicités ».
« lorsque les travailleurs n’ont pas accès aux algorithmes utilisés par les employeurs, il est presque impossible de prouver qu’il y a eu discrimination ».
La transparence en matière de salaires et de conditions de travail est censée être la règle, mais les systèmes numériques propriétaires sapent ce principe.
Il est temps de se demander quelles données RH ne doivent pas être croisées entre elles.
La rémunération variable automatisée nécessite une réglementation supplémentaire en particulier sur les données collectées et croisées.
En effet, nous sommes en train d’autoriser des croisements de données qui ne devraient pas l’être.
A l’ère de l’IA, les entreprises ont intégré l’idée que pour améliorer leurs calculs, elles devaient disposer de toujours plus de données et que de leurs croisements sortiront des indicateurs de performance toujours plus optimaux.
Les entreprises partent du principe que toutes les données sont associables pour produire de meilleurs calculs et de meilleurs indicateurs, certains croisements ne devraient pas être rendus possibles, « trop souvent, les algorithmes reproduisent et intensifient les inégalités et les préjugés, conduisent à une demande croissante de productivité des travailleurs et utilisent les données des employés de manière à la fois opaque et abusive. »
Des techniques utilisées à tous les échelons de l'entreprise
Le rapport de Coworker sur le déploiement des « petites technologies de surveillance », ( mais omniprésentes) parle d'un essaim de solutions qui se déversent désormais sur les employés.
Le rapport The constant Boss de Data & Society introduit la notion de « patron perpétuel ».
Cory Doctorow fait le parallèle avec la gestion scientifique du travail inventée par Taylor qui a fait croire aux riches industriels qu’il pouvait augmenter la productivité des ouvriers. Les employés n’étaient pas plus efficaces, mais avaient l’air plus obéissants, ironise-t-il, à la plus grande satisfaction de leurs patrons. Les employeurs ont pourtant bien remarqué que leurs revenus ne s’amélioraient pas avec le taylorisme, sous prétexte que cette gestion scientifique n’était pas encore assez aboutie. « Il alimente leurs préjugés et leur méfiance envers leurs employés, et leur confiance mal placée en leur propre capacité à comprendre le travail de leurs employés mieux que leurs employés. »
Ce management scientifique du travail est désormais disponible sous forme d’innombrables applications, c’est ce qu’on appelle le « bossware ». « Les travailleurs indépendants sont au cœur du bossware ». Alors que le travailleur indépendant rêve de devenir son propre patron, il est en fait totalement dépendant d’un téléphone qui le surveille et le discipline en continue. Et l’IA vient renouveler cette bulle du bossware, qui continue à venir convaincre les patrons que l’IA va pouvoir faire votre travail à votre place.
Pour Alvaro Bedoya, qui s’intéresse à la protection des travailleurs, "cette gestion algorithmique du travail devrait être considérée comme illégale".
En moyenne, un employé d’un centre d’appels est soumis à au moins 5 formes de surveillance qui pèsent sur lui, le dénigrent et ne tolèrent aucune discussion : une surveillance vidéo sous IA, une surveillance vocale sous IA qui prétend mesurer leur empathie, une IA qui chronomètre leurs appels, une autre qui analyse les sentiments durant l’appel et une dernière qui évalue la réussite des employés à atteindre des objectifs arbitraires.
L’augmentation des cadences que produit le bossware conduit à des préjudices sur la santé des employés.
La gestion algorithmique du travail produit surtout des sanctions arbitraires, comme quand les opérateurs de centres d’appels qui ont un accent, sont évalués négativement par les IA qui sont chargés de détecter leur émotion.
Comment préserver le droit du travail ?
« Les travailleurs devraient avoir le droit de savoir quelles données les concernant sont collectées, par qui elles sont partagées et comment elles sont utilisées. »
Plusieurs initiatives comme "la formation en négociation sur la numérisation" ou "le guide de la gouvernance des systèmes algorithmiques au travail" du Why Not Lab, permettent aux représentants des salariés d’adresser des questions aux directions sur les systèmes utilisés.
Une clause du droit d’entrée numérique que les syndicats proposent d’introduire dans les conventions collectives, réclame que les technologies utilisées par les employeurs soient mieux documentées. Aucun des progrès obtenus par des travailleurs n’a été obtenu facilement : tous sont le résultat d’une lutte soutenue, et celle-ci doit désormais se faire jusqu’aux outils numériques !
Reste que démontrer l’arbitraire et pire encore l’absurdité des calculs reste extrêmement difficile.
Le travail d’un groupe de chercheurs et de hackers européens, Reversing Works a conduit les autorités italiennes à condamner l’application de livraison italienne Glovo/Foodinho pour atteinte à la vie privée. L’application démultipliait l’utilisation de données problématiques, surveillait les travailleurs au-delà de leurs heures de travail, utilisait un score de notation des travailleurs et envoyait d’innombrables informations confidentielles à des tiers.
Comme l’expliquait le collectif dans un communiqué, le RGPD est insuffisamment utilisé par les syndicats, notamment parce que « la vie privée est un droit individuel qui n’est pas considéré comme un outil de lutte des travailleurs », alors qu’il permet de contester nombre de pratiques déloyales.
Sans compter que bien souvent, le législateur ne permet pas aux employés de produire des données en parallèle de celles de l’employeur.
La question des données et de leur accès demeure trop souvent secondaire dans les négociations syndicales. Mais il n’y aura pas de limites à la surveillance sans consacrer un droit d’accès et de traitement pour les travailleurs et leurs représentants.