L'UNESCO tente de cadrer l'usage des neurotechnologies

Des machines redonnent la parole ou la motricité à des personnes souffrant d’atteintes cérébrales ou handicapées. Progrès louables ... mais qui posent beaucoup de questions sur les limites de ces technologies. D'autant que l'entreprise la plus visible dans ce secteur, Neuralink, appartient à Elon Musk, connu pour ses thèses hygyénistes, transhumanistes et fascisantes.

Audrey Azoulay, directrice générale de l’Unesco, évoque des "questions vertigineuses de sécurité, de propriété, d’intimité ou encore d’identité, et, finalement, de capacité d’influence sur une sphère que l’on croyait jusqu’à présent inviolable. Les risques de commercialisation, d’utilisation, voire de manipulation de nos données neuronales et de nos états mentaux existent à court terme, même si le sujet ne préoccupe pas encore l’opinion". C'est pourquoi ce texte tente de l'anticiper ... avec des limites.

La recommandation de l'Unesco (Organisation des Nations unies pour l’éducation, la science et la culture, dont les Etats-Unis se sont retirés) vise à protéger les droits de l’homme dans l’usage de procédés qui permettent d’interpréter l’activité cérébrale à des fins médicales, mais aussi en vue d’applications commerciales. Ce texte a été adopté le 12 novembre dernier, à l’unanimité des 194 États membres, et à l'issue de discussions engagées depuis 2019.

Cette déclaration est le pendant, sur le versant des droits humains, de la recommandation sur l'innovation responsable des entreprises en neurotechnologies, arrêtée par l’Organisation de coopération et de développement économiques (OCDE) en 2019 (par 39 pays), et révisée en 2024. D’autres initiatives régulatrices sont en cours en Europe, aux Etats-Unis et en Asie, sans parler de la Chine, qui est devenue en 2019 la première puissance scientifique dans ce domaine en nombre de publications.

Le neurologue Hervé Chneiweiss, de l'Inserm (voir interview dans The Conversation), président du comité à l’origine de ces recommandations, estime que "ce texte pourrait avoir un effet libérateur sur les initiatives industrielles, en offrant un cadre fiable et commun". Ce texte dit "de soft law", non contraignant, doit pour lui être traduit rapidement par des lois dans chacun des pays membres.

Pour la neuroscientifique française Nataliya Kosmina, membre du groupe d’experts internationaux, "c'est un cadre éthique mondial consacrant l’inviolabilité de l’esprit humain". Alors que l’intelligence artificielle (IA) se développe sans cadre ni limites, "nous ne pouvons pas permettre que cela se produise aussi avec la captation de nos neurodonnées [issues de notre activité cérébrale].

Tout un éventail de procédés, des plus invasifs, avec les implants intracrâniens, aux plus légers – bracelets, lunettes, bandeaux frontaux –, sont mis à contribution pour mesurer nos états mentaux, les infléchir – par exemple en cas de dépression –, voire utiliser ces stimuli neuronaux pour activer une assistance robotisée, interagir avec un ordinateur ou une console de jeux.

Outre la perspective de refaire marcher des personnes tétraplégiques, les applications les plus spectaculaires concernent les interfaces cerveau-machine, qui s’appuient sur l’IA pour littéralement lire dans les pensées. Dernier exemple en date, une étude chinoise, impliquant la société NeuroXess financée par le couple milliardaire Chen et publiée le 5 novembre dans Science Advances, décrit le décodage en temps réel de phrases lues mentalement en mandarin, à partir d’un ensemble de 394 syllabes. Le tout grâce à un implant intracrânien comportant 256 électrodes, chez un patient atteint d’épilepsie.

Pour l’Unesco, cet accès à l’intimité du cerveau humain doit s’inscrire dans un cadre éthique. En préambule, la recommandation rappelle que "c’est à l’État qu’incombent au premier chef la responsabilité et l’obligation de promouvoir et de protéger les droits de l’homme et les libertés fondamentales". Mais que "les entreprises, y compris technologiques", doivent aussi les respecter.

Si l’usage des neurotechnologies en médecine s’inscrit dans un relatif consensus éthique, les applications hors de la santé, plus problématiques, sont pointées par l’Unesco. Ainsi, dans l’éducation, "les neurotechnologies à des fins d’optimisation des performances non thérapeutiques ne devraient pas être utilisées pour les enfants en pleine santé et dotés de toutes leurs fonctions cognitives". Pour rappel, la Chine avait, après médiatisation, renoncé à des tests sur des écoliers.

Dans le monde du travail, où les neurotechnologies pourraient mesurer le niveau de vigilance, les risques de burn-out, mais aussi la productivité, "le déploiement doit se faire sur une base strictement volontaire, et les travailleurs doivent adhérer activement et en connaissance de cause".

Le texte préconise une protection des données neurales, obtenues par enregistrement direct (électrodes), mais aussi des données biométriques qui permettent d’inférer des états mentaux.

Le biologiste Alexis Génin, directeur depuis 2023 du biocluster Brain and Mind, projet gouvernemental  français ralliant chercheurs, médecins et acteurs privés autour des neurosciences, se félicite que ce texte n’hésite pas à mettre les pieds dans le plat en évoquant la collecte du mouvement des yeux ou de la dynamique de frappe au clavier, l’analyse de la voix et de la démarche ou encore la reconnaissance des expressions émotionnelles du visage.

L’Unesco a décidé que ses recommandations s’appliquent à ces données non neurales, car celles-ci permettent d’inférer des états mentaux. Alexis Génin estime ce point très important, car "ces informations peuvent être analysées par des algorithmes, notamment ceux contrôlant les réseaux sociaux utilisés massivement".

Comme tout texte de consensus, "il ne permet pas d’être totalement tranché" sur des sujets pourtant essentiels tels que l’utilisation des neurotechnologies à des fins militaires ou non médicales, regrette Alexis Génin.

Laure Tabouy déplore elle aussi "une trop grande ambiguïté de frontière entre les applications à des fins thérapeutiques et les autres", alors que nombre de ces dernières contournent la législation sur les dispositifs médicaux en invoquant la notion de "bien-être".

Plus largement, tous deux s’interrogent sur la pertinence pour l’humanité de développer des outils non thérapeutiques, au motif que c’est technologiquement possible.

En France, la prochaine étape est l’inclusion de cette thématique au menu des États généraux de la bioéthique en 2026. L’Office parlementaire d’évaluation des choix scientifiques et technologiques a, de son côté, lancé des auditions sur le sujet. Au niveau européen, Hervé Chneiweiss milite pour que "les données neurales soient enfin considérées comme privées, et, à ce titre, prises en compte dans le règlement général sur les données personnelles" (RGPD).

Plusieurs grandes questions restent en suspens. Un tel texte peut-il être appliqué dans un monde où les progrès technologiques dépassent le temps de réaction des États, mais aussi des institutions scientifiques classiques ?

Sa portée n’est-elle pas fragilisée par le retrait des Etats-Unis de l’Unesco ? Enfin, la notion de bien commun, défendue par la recommandation pour justifier ces innovations, est-elle universellement partagée ? Entre le transhumaniste Elon Musk et "la Chine qui mise sur les neurotechnologies pour asseoir son leadership mondial, augmenter intellectuellement ses élites et contrôler sa population, souligne Alexis Génin, c’est une notion toute relative".