Changement de cap

Credits: Illustration de l’album Offramp, Pat Metheny, 1982

Pour qui fréquente les réseaux sociaux, il arrive parfois d’y lire des annonces d’utilisateurs signifiant de manière tout à fait solennelle leurs départs de ces plateformes – toujours définitifs et sans appel, bien entendu. Traduction virtuelle du claquage de porte ou du raccrochage au nez, les adeptes de cette pratique entendent ainsi mettre en scène leur prise de distance avec ces réseaux, en dressant même parfois au passage des listes plus ou moins longue de griefs accumulées tout au long de leur vie numérique. Preuve suprême de reconnaissance de notre ère : des « mèmes » ont consacré ces pratiques théâtrales, en rappelant par exemple que les réseaux sociaux ne sont ni une gare, ni un aéroport et que ce n’est pas la peine d’y annoncer son départ (ni son arrivée d’ailleurs).

C’est donc conscient des travers de cette pratique que j’annonce ici, avec beaucoup d’humilité et une sincère reconnaissance à tous mes collègues, amis et relations, la fin de mes activités liées à l’étude de l’impact la transformation numérique en septembre 2021.

Entendons-nous bien sur cette démarche et mes attentes en y cédant : je n’attends évidemment ni hommages (je ne suis pas encore six pieds sous terre), ni éloges vibrants (si jamais certains étaient tentés) ; encore moins de regrets ou d’encouragements à revenir plus tard. Tout va bien pour moi ! Cette décision est la conséquence d’une belle promotion me dirigeant vers de toutes nouvelles responsabilités à caractère administratif et budgétaire au sein de l’organisation intergouvernementale où je suis employé, promotion que j’ai voulue et souhaitée. Mais ce tournant, mûrement préparé et construit, doit aussi – je dois l’admettre – aux impasses, aux questionnements substantiels et aux introspections relatives au sens de ma contribution dans les débats actuels sur la transformation numérique et l’intelligence artificielle (IA).

Voilà quelques années que je m’intéressais à théoriser ces sujets. Depuis 2018, j’ai eu la chance d’en faire une activité à temps plein, mêlant travaux sur des projets de régulations au Conseil de l’Europe, travaux de recherche au sein de l’IHEJ (Institut des Hautes Études sur la Justice) et enseignements à l’Université de Strasbourg (masters 2 cyberjustice, droit de l’économie numérique et commerce électronique). Sans compter mon investissement auprès d’Amicus Radio avec le podcast « Les Temps Électriques » et mon engagement dans des think-tanks, comme l’Institut Sapiens. La publication d’un ouvrage a été l’acmé de cette dynamique, assemblant avec minutie la plupart des analyses que j’avais produites sur le sujet et proposant mes vues sur le contenu d’un traité international sur l’IA[1]. Fruit d’un long travail de collation, de juxtaposition et de mise en perspective, je suis sorti de cet exercice avec quelques convictions claires : le besoin, tout d’abord, d’une réglementation contraignante pour encadrer le développement de l’IA ; la nécessité, ensuite, de ne jamais cesser de préciser et de clarifier les différentes notions et concepts mobilisés dans ce domaine pour nourrir des débats de qualité, afin d’éviter d’alimenter les trop nombreuses confusions et les malentendus tenaces ; enfin, un clair impératif de ralentissement pour (re)prendre le temps de s’entendre sur les objectifs et le sens du monde que nous souhaitons léguer à nos enfants, alors que le marché s’emballe pour tirer profit au plus vite de cette transformation et que des concurrences, multidimensionnelles et aux conséquences incertaines, polarisent les politiques publiques.

Je vous avoue ici avoir beaucoup de mal à me faire une idée de la portée qu’ont pu avoir ces réflexions. Il faut dire que la relation entre la production d’un discours et les effets sur les récepteurs n’est jamais aisée à décrypter. Il faut aussi constater une certaine saturation des discours d’experts dans l’espace public, et j’ai conscience d’y avoir contribué… mais tentons de rester objectifs.

D’un côté, j’ai accompagné un mouvement bien lancé en Europe de régulation des technologies numériques et de l’IA : la Commission européenne a publié en avril 2021 un projet de réglementation[2] et le Conseil de l’Europe est en train de formaliser le sien[3]. Mon « plaidoyer pour une réglementation » a donc bien traduit cette réalité.

D’un autre, j’ai conscience que quelques-uns des principes clés de mon ouvrage ne sont aujourd’hui pas audibles. Par exemple, si les conséquences de l’emploi d’algorithmes sur les individus et la société paraissent suffisamment significatives, il pourrait être imaginé de simplement limiter, voire bannir, le recours à ces technologies pour continuer à y préférer d’autres mécanismes, bien humains, encadrés par de solides garanties procédurales. Cette proportionnalité du recours aux algorithmes paraît bien entendu d’une certaine audace teintée d’inconscience des grands mécanismes du « progrès » qui seraient à l’œuvre pour nombre de spécialistes du numérique. Mais je persiste à penser que l’émergence d’un « Etat des algorithmes », se substituant à l’Etat de droit, et que les impacts environnementaux et sociétaux de la transformation de notre monde en données, traitées par un vaste et – encore – hétérogène système d’algorithmes, ne peuvent être limités qu’en se ménageant des angles morts. Le consensus s’étant dégagé ces dernières années sur le numérique tient pour acquis les bénéfices de cette transformation (qui s’opposerait à l’innovation ?) et aucun des projets de régulation en cours n’a instruit de manière approfondie ce principe de proportionnalité, certainement absurde pour la plupart des experts et décideurs publics. Il y est préféré l’accompagnement de l’accélération en cherchant essentiellement des moyens pour créer de la confiance dans l’exploitation de ces machines, par un savant mélange de mécanismes de sécurité (comme la certification – que j’ai d’ailleurs moi-même soutenu à de multiples reprises), de mécanismes non-contraignants (dont l’éthique – que j’ai souvent critiqué) et de mécanismes fondés sur les droits fondamentaux.

Alors oui, il y a certainement une forme suprême d’élégance à continuer de s’engager avec vigueur en affrontant les vents contraires du consensus ou à s’entêter à dépasser les contradictions de ce monde, dont les siennes en premier. Mais, pour citer Pierre Corcuff (citant lui-même Maurice Merleau Ponty), « être de plain-pied dans son époque, c’est être pris dans quelque chose d’encore confus, de composite, d’ambigu, qui nous colle à la peau et par rapport auquel une distance partielle peut seulement être prise, tant nos adhérences avec ses évidences demeurent prégnantes[4] ». Et je crois qu’il s’agit là de la raison la plus substantielle pour laquelle je ne me sens pas aujourd’hui suffisamment armé pour continuer de monter au front et participer à déconstruire publiquement, avec extrême rigueur, les composantes plurielles de cette transformation numérique.

Kate Crawford, avec son « Atlas of AI », parvient bien mieux à en effleurer la substance, tout en admettant ses propres limites. Sa tentative d’approche systémique, par une cartographie de l’entier processus en œuvre, de l’extraction des minerais pour élaborer le matériel informatique, à son exploitation en utilisant des quantités considérables d’énergie et à son abandon dans des décharges à ciel ouvert, est certainement la première brique essentielle et fondatrice de toute approche critique[5]. Cette vision du système que nous sommes en train de composer m’a semblé aussi saisissante qu’un spationaute saisi pour la première fois par la rotondité de la Terre.

Expliquer que les formalismes mathématiques et statistiques ne permettent pas nécessairement de contribuer à des prises décisions plus neutres et objectives dans des environnements difficilement modélisables, comme le fonctionnement de notre société, est vraisemblablement la seconde brique de cette pensée critique dont se sont brillamment emparés des auteurs comme Cathy O’Neil[6] ou Pablo Jensen[7] (pour ne citer qu’eux).

Étape que j’ai moi-même essayé de traiter avec beaucoup d’humilité dans la perspective de la transformation numérique de la justice, mais pour laquelle j’ai conscience de n’avoir pu prendre qu’une distance partielle, impropre à convaincre mes pairs. Il n’a donc pas suffi de porter dans le débat public les éléments concrets démontrant le contre-sens évident que constitue l’introduction d’algorithmes traitant statistiquement de la jurisprudence pour en inférer des prévisions de décisions de justice. Assez régulièrement, mon discours a été placé à l’une des extrémités du balancier, les innovations audacieuses d’entrepreneurs se trouvant dans l’autre, pour tenter d’en déduire une voie moyenne[8]. Si l’on peut y percevoir une forme de prudence ou de déformation de la pratique judiciaire cherchant à mettre en balance les arguments contradictoires en présence, ce sujet précis, du fait de son impact profond sur l’essence même de l’exercice juridictionnel, mérite selon moi d’entrer dans la complexité des choses pour en invalider durablement l’usage prescriptif/prédictif/quantitatif/actuariel. Alors oui, l’emploi des capacités descriptives de ces algorithmes sur de la jurisprudence, en complément d’autres protocoles scientifiques pour en éclairer le sens, mérite évidemment un investissement de la recherche (en identifiant précisément ce qui est mesuré – et pas nécessairement la décision elle-même, mais la régularité de son formalisme). Il faut toutefois se ressaisir et arrêter de réactiver, avec le vernis de l’IA, d’assez vieux fantasmes pensant que le droit peut être mathématisé. Aucune révolution fondamentale n’est intervenue dans la matière depuis les tentatives de Leibniz ou de Condorcet, et les limites des différents systèmes de logique déontique sont bien connues.

La fin de mes activités liées à l’étude de l’impact de la transformation numérique n’est toutefois pas le bout de la route. Avec modestie, je sais que les pistes que j’ai empruntées sont déjà fréquentées par d’autres : j’avoue que j’aurais dû mal à ne pas y garder un œil, espérant voir se développer largement un esprit critique constructif sur les technologies numériques. De plus, mon propre parcours professionnel a été marqué par de nombreuses alternances de sujets et de disciplines, afin de conserver un peu de vivacité d’esprit et de ne jamais me laisser enfermer dans le confort de mes propres certitudes. Peut-être étais-je arrivé au point d’en avoir trop sur l’IA.

En attendant, il ne me reste plus qu’à me retrousser les manches et m’investir dans mes nouvelles fonctions en concrétisant, là où cela sera nécessaire, le bon usage des systèmes algorithmiques, dans le contexte tout à fait opérationnel de l’ administration d’une organisation intergouvernementale. Moins que de gloser ou de spéculer, se confronter avec humilité à la rugosité du réel sera tout aussi riche d’enseignements.

J’oubliais : ne soyez pas surpris de voir s’égrainer, jusqu’à l’année prochaine, mes dernières réflexions sur la régulation de l’IA. J’ai quelques textes qui sont toujours en cours de publication – pas de « faux départ » donc.

Avec mes sincères et chaleureux remerciements pour m’avoir suivi durant ces années !


[1] Y. Meneceur, L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020

[2] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union – COM(2021) 206 final

[3] Voir le dernier état des travaux sur https://www.coe.int/cahai

[4] P. Corcuff, La grande confusion : Comment l’extrême droite gagne la bataille des idées, Textuel, 2021, p.46

[5] K. Crawford, Atlas of AI : Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021

[6] C. O’Neil, Weapons of Maths Destruction : How Big Data Increases Inequality and Threatens Democracy, Crown, 2016

[7] P. Jensen, Pourquoi la société ne se laisse pas mettre en équation, Seuil, 2018

[8] Je ne développerai pas ici, par souci de concision, les instrumentalisations ou contre interprétations des mes conclusions en la matière, des intervenants citant les nuances de mes écrits pour légitimer l’emploi de ces techniques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *