La critique de la technique : clé du développement de l’intelligence artificielle ? (Première partie)

Le mythe de la neutralité de la technique

Crédits : Pxfuel

Il est bien connu que le lien entre les sociétés humaines et le système technique composé par l’ensemble de leurs artefacts est extrêmement étroit et chaque (r)évolution majeure a contribué à modeler substantiellement notre environnement, en se déployant parfois sur plusieurs siècles[1]. Ainsi la portée de l’invention de l’imprimerie a dépassé la seule mécanisation de la reproduction d’ouvrages : la Réforme de l’Église, le siècle des Lumières, l’accès au savoir de manière générale ont été autant d’événements liés à cette invention. L’avènement des processus industriels au XIXe siècle a profondément recomposé les rapports entre individus ainsi que nos lieux de vie et nos modes de gouvernance[2]. Aujourd’hui nous en serions à notre 4e révolution industrielle avec la rencontre entre « le monde du physique, du numérique, du biologique et de l’innovation[3] ». Cette révolution nous doterait de moyens nouveaux pour tenter de franchir de nouvelles frontières, même celle, absolue et imposée par la Nature, qui fait tendre tout chose de l’ordre au désordre : l’entropie[4]

#1.1. L’effet structurant des technologies numériques

Ce lien entre les humains et leurs tout nouveaux artefacts rend plus que jamais nécessaire l’effort de décryptage de notre environnement sous un angle socio-technique, afin d’en saisir sa nouvelle composition et d’en découvrir ses modes de gouvernance et sa gouvernementalité[5]. La transformation que nous sommes actuellement en train de vivre avec la traduction en données des moindres recoins de nos vies, aux fins de leur traitement algorithmique, nous dirige vers un tout autre modèle de société qui porte peut-être en lui quelques ferments d’amélioration de la condition humaine, mais aussi son lot de désenchantement, d’emprise, voire de totalitarisme. Et ceci non pas du seul fait de la manière dont nous utiliserions ces outils, mais du fait de la structure tissée par la généralisation de mécanismes informatiques et statistiques censés être en capacité de mieux apprécier que nous, et en toutes circonstances, un nombre toujours plus important de situations, des plus anecdotiques (le choix d’un restaurant) aux plus délicates (l’évaluation des chances de réussite d’un procès). Il devient pourtant évident que nous sommes en train de constituer une terrible intrication de cages logiques, dans lesquelles nos doubles statistiques s’engoncent de plus en plus même si l’on se pense plus que jamais libres de nos choix. L’exercice du pouvoir sur les individus, cette biopolitique théorisée par Michel Foucault, se complète donc d’un mécanisme original, de plus en plus autonome, dont le fonctionnement n’a rien de démocratique et qui congédie même la chose politique[6]. Nous ne devrions donc pas nous laisser divertir par les pétitions de principe et les diverses assertions sur une prétendue neutralité de technologies, comme « l’IA », et où seuls les usages seraient susceptibles de générer des conséquences désastreuses. 

Il pourrait être évoqué à titre de comparaison un autre domaine, comme le nucléaire. Si l’on ne disserte que sur les usages civils ou militaires, l’on manque ainsi d’appréhender une question préalable : souhaite-t-on mettre en œuvre une technologie dont on ne sait aujourd’hui traiter des déchets autrement que par le confinement ou qui nécessite une très haute technicité pour être maintenue sans créer de désastres ? Ce type d’arbitrage ne peut pas résulter de ressentis, d’impressions ou de simples opinions émanant d’une industrie ayant un intérêt économique au développement de cette technologie. C’est tout aussi vrai pour « l’IA », où la plupart des textes préparant une régulation tiennent pour acquis les bénéfices de l’emploi de cette technologie dans de très nombreux secteurs, en ne s’appuyant sur aucun autre fondement scientifique que les très nombreux arguments d’autorité délivrés par des « experts », parfois empêtrés dans de sévères conflits d’intérêts[7]. La charge de cette preuve en arrive même à être étrangement renversée et ce serait aujourd’hui aux détracteurs de démontrer d’abord le juste fondement de leurs doutes, et non aux producteurs de ces services de prouver d’abord qu’ils délivrent le service attendu, sur la base de résultats rigoureux. 

Pour prendre un autre exemple, l’usage de « l’IA » en appui au processus décisionnel dans les tribunaux pose la question du sens produit par le traitement statistique massif de la jurisprudence et la place de cette information – extrêmement incertaine – dans l’échelle normative[8]. Mais les débats se perdent entre les promoteurs d’une justice plus prévisible et les détracteurs redoutant une robotisation des tâches, aboutissant aujourd’hui à une sorte de voie moyenne laissant intacts les problèmes de fond. Le développement en France d’un outil censé évaluer le montant de l’indemnisation pour la réparation du préjudice corporel atteste sans ambiguïté de cette incapacité de se doter d’une expertise de haut niveau pour évaluer, avec acuité, la viabilité d’un système avant même de se lancer dans sa conception[9]. Une importante polémique est également née de l’usage d’un algorithme « prédictif » pour attribuer des notes à des élèves du baccalauréat international, au vu de la difficulté de les évaluer en pleine crise sanitaire. Alors que les administrateurs de ce diplôme espéraient adopter ainsi « l’approche la plus juste pour l’ensemble des étudiants », l’algorithme a, en réalité, produit des résultats contestés et pour lesquels aucune explication n’a été possible[10]. La même situation s’est reproduite au Royaume-Uni, entraînant le retrait pur et simple de ces évaluations[11]. Là encore, un recours hâtif à un dispositif d’apprentissage statistique a produit sans grande surprise des discriminations inacceptables alors que d’autres solutions, pas nécessairement numériques, étaient tout à fait envisageables pour produire une évaluation. 

#1.2. Une appropriation de la science et du progrès par le marché

Il est vrai que les débats sur le numérique et « l’IA » semblent le plus souvent opposer les Modernes de notre époque à leurs Anciens, à savoir les techno-prophètes (accompagnés de leurs techno-disciples) face aux techno-sceptiques (animés par une grande variété de motivations). Les premiers passeraient, aux yeux de leurs détracteurs, pour des innovateurs inconscients et les seconds pour des rétrogrades. 

Cette dichotomie a le mérite de la simplicité et se retrouve employée dans de nombreux discours de ces dernières années, le plus souvent pour donner corps à une parole se déclarant sincère et équilibrée qui ne souhaite pas s’inscrire dans la tradition des poncifs habituels de l’un ou de l’autre de ces camps[12]. Mais cette distinction présente un inconvénient, puisqu’elle ignore une autre ligne de fracture bien plus profonde et signifiante, celle séparant les tenants d’une totale neutralité des technologies et ceux essayant, au contraire, d’en analyser l’impact social profond. Elle ignore également le réel face-à-face s’opérant entre une science à la recherche d’objectivité et celle rongée par des conflits d’intérêts profonds, animée par l’influence financière et commerciale de puissantes entreprises cherchant, moins que la croissance d’un bien commun celle de leurs bénéfices et de leur influence sur le marché. 

Il en résulte une appropriation de la science, et de l’idée même du progrès, par un projet de société qui ambitionne de transformer toute chose en marché, et où l’on ne sait plus réellement si telle ou telle invention nous est présentée avec engouement pour ses qualités intrinsèques ou pour que nous la consommions. La crise sanitaire a particulièrement révélé cette « épidémie de mauvaise science[13] », et il semble que notre époque ait perdu le temps et le sens de la controverse scientifique. Controverse tout à fait salutaire, où il devrait être plus question d’échanger des preuves solides entre pairs[14] que des croyances, des opinions préfabriquées ou des punchlines (phrases choc). La figure de l’ingénieur-entrepreneur en hoodies illustre bien la totale confusion entretenue aujourd’hui entre la démarche scientifique, qui s’était conçue jusqu’à un passé pas si lointain comme un projet d’amélioration de la société et des communs, et la démarche mercantile, dont la finalité est d’abord la recherche de profit individuel et la réalisation de soi. 

#1.3. La technique comme seul horizon de progrès ?

Dans le même temps, cette prolifération d’artefacts a progressivement constitué un tout nouveau système, allant même jusqu’à l’interconnexion d’objets (Internet of Things – IOT) et la captation quasi permanente de flux d’informations et de constantes émanant d’individus. L’impact systémique et cumulé de tous ces développements sur notre société est donc à considérer avec sérieux, « l’IA » ajoutant une nouvelle brique décisionnelle qui embarque désormais dans cet environnement notre capacité d’action (agency). 

Nous devrions pourtant être attentifs à la manière dont ces nouvelles technologies structurent déjà notre monde, même si nous nous pensons comme tout à fait conscients de leur pouvoir de transformation et libres de nos choix. Pour ne prendre que quelques exemples, l’on ne peut que constater que la forme de nos villes et de nos campagnes s’est totalement adaptée à la généralisation de l’automobile ; l’avènement des mass media, puis aujourd’hui des réseaux sociaux a profondément transformé l’accès aux savoirs et l’exercice démocratique ; les échanges commerciaux se sont mondialisés avec l’accroissement des transports aériens et maritimes, créant des spécialisations et des interdépendances historiquement originales entre les différentes régions du globe. Et là encore, il peut être relevé que le trait commun de toutes ces évolutions est le succès du modèle économique de libre-échange, qui s’est consolidé à une échelle mondiale et s’est approprié au passage un mythe : la technique serait devenue notre seul destin et notre seul horizon de progrès et de développement. 

Mais il semble que cette utopie scientiste suffise de moins en moins pour imposer dans le débat de nouvelles technologies, comme cette fameuse « IA » ou d’autres telles que les OGM (organismes génétiquement modifiés). Invariablement, les lobbyistes de ces industries et les partisans d’une croissance économique par l’innovation, dont certains se retrouvent aujourd’hui à de hauts postes de responsabilité politique, mobilisent une série de raisonnements instrumentalisant la crainte et entretenant un sentiment diffus de « retard » : si nous ne le faisons pas nous, d’autres le feront ; les cerveaux nationaux vont, à coup sûr, fuir vers des lieux plus cléments ; en règlementant, l’on offrirait un avantage compétitif à ceux n’ayant pas réglementé[15] ; en s’arrêtant en si bon chemin, nous n’aurions pas accès à la nouvelle génération de technologie qui, bien entendu, réglera tous les problèmes de la précédente. En d’autres termes, un discours nous enjoignant à nous adapter, de crainte de devenir obsolète[16].

#1.4. Les faiblesses structurelles de « l’intelligence artificielle » minimisées par les débats sur les usages

Ce constat brut du fonctionnement du capitalisme industriel à notre ère numérique et des alliances nouées avec la science et la politique explique l’intérêt de promouvoir le concept d’une totale neutralité des technologies et les difficultés pour tenir un débat réellement approfondi sur « l’IA » et ses réelles capacités. Ajoutons également l’intérêt de décideurs publics ou d’universitaires soucieux de contribuer dans ces débats et qui, souvent par manque de culture technique, se recentrent sur des thématiques relevant de leur champ d’expertise[17], et l’on obtient le consensus actuel centrant la réglementation de « l’IA » sur la seule question des usages. 

Il en résulte concrètement un renvoi de tout examen sérieux des capacités de cette technologie à des controverses d’experts, ce qui en rend le contenu totalement inaccessible aux profanes. Même s’il n’était pas précisément question « d’IA », les débats sur les applications de suivi de proximité des contacts[18](proximity tracing) ont parfaitement illustré ce mécanisme, où les discours publics ont tenu pour acquise la capacité de ces applications à délivrer a minima le service espéré et ont traité l’ensemble des critiques de fond sur l’inadaptation du Bluetooth comme un détail, alors même qu’il s’agissait là du cœur du problème[19]. Les débats se sont étrangement centrés sur des questions de protection de la vie privée et de surveillance de masse alors qu’une condition nécessaire et préalable à toute discussion n’était pas remplie : le suivi de proximité de contact basé sur le Bluetooth, même adopté en masse, génère trop de faux positifs ou de faux négatifs pour apporter un réel appui aux brigades sanitaires[20]. C’est un peu comme si un débat avait été provoqué sur les bénéfices et les dangers résultant de l’utilisation d’un marteau pour casser un œuf alors que la question semble pouvoir être assez vite évacuée en constatant que ce n’est pas l’outil adapté à cette tâche. Mais, même acculés face à cette réalité technique, nombre de décideurs publics n’ont pas rendu les armes et ont soutenu que même si une seule vie était sauvée par ces dispositifs numériques, cela mériterait les millions d’euros investis… mais parle-t-on des vies potentiellement mises en danger par un excès de confiance dans ces outils numériques ? En somme, toute une série d’arguments de pure circonstance, loin de toute rationalité et seulement culpabilisant, mobilisés à la seule fin de légitimer des choix pris dans l’urgence du moment. En alimentant les débats sur la seule question des usages de technologies, l’on contribue à faire accepter comme une réalité factuelle ce qui est loin d’en être une : non, « l’IA » n’est pas nécessairement en mesure de révolutionner en profondeur toutes les activités humaines et le traitement par des modèles statistiques de masses de données n’est pas à même de rendre tous les services espérés. Oui, en transformant le monde en données, on l’interprète et on le tord pour le faire rentrer de force dans des mécanismes algorithmiques. Oui, en considérant que les modèles produits par les « IA » sont dignes d’intérêt dans la plupart des circonstances, l’on confond la représentation de la réalité avec une certaine forme de son expression. Oui, « l’IA » et tous les types de traitements algorithmiques traduisent le monde au travers du prisme parfois déformant des mathématiques. Une lecture approfondie de la littérature académique sur le sujet montre bien que cette « IA » fait encore l’objet de bien trop de controverses, d’instabilité et de fragilités pour faire l’objet d’une diffusion de masse[21]>. Une réglementation efficace devrait donc arriver à se départir des discours dominants et ne pas considérer comme un détail ce qui constitue le cœur d’un vaste problème technique[22].


Deuxième partie : Les conséquences de décennies de gouvernance de la critique de la technique


[1] Même si certaines espèces animales parviennent bien à utiliser de manière simple des outils, l’espèce humaine s’est caractérisée par son appropriation de techniques et de combinaison de techniques ayant une influence sur sa propre évolution – voir F. Sigaut, Comment Homo devint Faber. Comment l’outil fit l’homme, CNRS éditions, 2013 cité par F. Jarrige, Techno-critiques, Du refus des machines à la contestation des technosciences, La Découverte/Poche, p. 24

[2] S’agissant de l’émergence de la statistique à des fins de gouvernance, voir O. Rey, Quand le monde s’est fait nombre, coll. Les Essais, Stock, 2016, p.95 et s.

[3] K. Schwab, La quatrième révolution industrielle, Dunod, 2017

[4]> E. Sadin, L’intelligence artificielle ou l’enjeu du siècle : anatomie d’un antihumanisme radical, L’Echappée, 2018, p.15

[5] A. Rouvroy et T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation, Réseaux 2013/1, n°177, 2013, pp163-196

[6] E. Sadin, L’intelligence artificielle ou l’enjeu du siècle : anatomie d’un antihumanisme radical, op.cit., p.79 et s.

[7] T. Metzinger, Ethics washing made in Europe, Der Tagesspiegel, 8 avril 2018

[8] Pour illustrer avec quelques exemples ce qu’entendent réaliser les promoteurs d’un traitement mathématique, probabiliste ou statistique de la jurisprudence, voir notamment L. Godefroy, F. Lebaron et J. Lévy-Vehel, Comment le numérique transforme le droit et la justice vers de nouveaux usages et un bouleversement de la prise de décision, Rapport de recherche à la Mission Droit et Justice, Juillet 2019O-M. Sulea, M. Zampieri, M. Vela, J. van Genabith, Predicting the Law Area and Decisions of French Supreme Court Cases, 2017 ou N. Aletras, D. Tsarapatsanis, D. Preotiuc-Pietro, V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a natural language processing perspective. PeerJ CompSci, 2016

[9] Y. Meneceur, DataJust face aux limites structurelles de l’intelligence artificielle, Les Temps Electriques, 19 juin 2020

[10] Hye Jung Han, An algorithm shouldn’t decide a student’s future, Politico, 13 août 2020

[11] C. Cohen, Au Royaume-Uni, un algorithme autour des notes d’étudiants crée la polémique, Le Figaro, 17 août 2020

[12] Voir notamment Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, Bruylant, 2020, p.5

[13] F. Goubet, Une épidémie de mauvaise science, Le Temps, 24 avril 2020 et H. Morin, « The Lancet » annonce le retrait de son étude sur l’hydroxychloroquine, Le Monde, 4 juin 2020

[14] Selon le philosophe Karl Popper, les sciences procèderaient de « la coopération amicalement hostile des citoyens de la communauté du savoir » cité dans K. Boucaud-Victoire, Etienne Klein : « La vérité scientifique n’appartient nullement aux scientifiques », Marianne, 28 juillet 2020

[15] Contre les idées reçues, la Chine est d’ailleurs en train de mettre en place une réglementation claire de « l’IA » : Voir les principes de gouvernance de l’IA publiés en 2019, accessible sur : https://www.loc.gov/law/foreign-news/article/china-ai-governance-principles-released/ – Consulté le 21 août 2020

[16] Ba. Stiegler, « Il faut s’adapter » : sur un nouvel impératif politique, Gallimard, coll. « NRF Essais », 2019

[17] Il ne sera pas évoqué ici certains pseudos-experts intervenant de manière indifférente sur tout sujet à la mode, victimes de l’effet « Dunning-Kruger », biais cognitif où l’ignorance donne une assez grande assurance pour parler de sujets complexes avec très peu de prudence. 

[18] Notons que certaines de ces applications comportaient des algorithmes évaluant les risques de contamination, certains s’appuyant sur des modèles issus d’apprentissage automatique – Voir notamment Y. Bengio, Dépistage pair à pair de la COVID-19 basé sur l’IA, Blog personnel de Yoshua Bengio, 25 mars 2020

[19] Voir à ce titre la publication particulièrement bien étayée : X. Bonnetain, A. Canteaut, V.Cortier, P. Gaudry, L. Hirschi, S. Kremer, S. Lacour, M. Lequesne, G. Leurent, L. Perrin, A. Schrottenloher, E. Thomé, S. Vaudenay, C. Vuillot, Le traçage anonyme, dangereux oxymore Analyse de risques à destination des non-spécialistes, 21 avril 2020, à mettre en parallèle avec les discours publics, notamment StopCovid: Cédric O refuse de reconnaître tout échec, “trop tôt pour faire le bilan”, Challenges, 30 juillet 2020

[20] Voir par exemple J-M. Manach, Covid-19 : pourquoi le « contact tracking » ne fonctionnera (probablement) pas, NextImpact, 10 avril 2020

[21] Voir par exemple S. Ben-David, P. Hrubeš, S. Moran, A. Shpilka, A. Yehudayoff, Learnability can be undecidable, Nature Machine Intelligence 1, 2019, pp.44-48 ou B. Georges, Le talon d’achille de l’intelligence artificielle, Les Échos, 15 mai 2017

[22] Voir Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une réglementation internationale et européenne, op.cit., p.43 et s.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *