La critique de la technique : clé du développement de l’intelligence artificielle ? (Introduction)

Introduction

Crédits : Pxfuel

Si l’année 2018 a été l’année de l’acmé des principes, chartes et déclarations sur l’intelligence artificielle (« IA[1] »), l’année 2020 a bien démarré pour être un tournant vers des textes plus contraignants, enfin en capacité de protéger les individus et l’entière société de diverses dérives, déjà concrètes. À peu près toutes les organisations internationales se sont mises en ordre de marche dès 2019[2], dans le cadre de leurs mandats respectifs, pour apporter leur contribution à ce qui pourrait constituer dans les années à venir une architecture globale de réglementation de « l’IA », appelée à concilier différents impératifs tels que l’innovation, la croissance économique et la protection des droits fondamentaux. Sur un plan local, nombre d’États ont adopté (ou sont sur le point d’adopter) des stratégies sur « l’IA » visant à s’assurer sur cette même scène mondiale leur leadership scientifique, technologique et moral, en y intégrant parfois un volet sur la régulation ou la réglementation[3]. La Nouvelle-Zélande affirme ainsi être le premier État à avoir adopté des standards, sous forme de charte, en matière de régulation des algorithmes[4]. Dans ce contexte de véritable course pour établir en premier des règles du jeu, un consensus s’exprime en ce qui concerne les potentiels bienfaits de cette « IA » pour l’humanité et la nécessité de créer de la confiance chez les milliards d’usagers sur la planète pour en tirer les bénéfices attendus.

Toutefois, les lobbyistes de l’industrie numérique s’activent, notamment à Bruxelles, pour tenter de différer ces ambitions au prétexte de la nécessaire relance en pleine crise économique suite à la pandémie[5]. Dans le même temps, une légère brise d’automne commence à se faire ressentir sur les différents emplois de cette technologie ; face aux promesses déçues, les investisseurs se rendent bien compte que les potentialités de nombre d’applications ont été surévaluées[6]

Dans ce contexte, il semble tout à fait surprenant que ce début de prise de conscience ne s’accompagne pas de la part des régulateurs d’un sérieux inventaire permettant de distinguer avec précision les usages fondés de ceux relevant de la pure spéculation ni d’un examen encore plus rigoureux des implications sociales et politiques de cette technologie, autrement que sous le prisme de l’innovation et du progrès[7]. La charte en Nouvelle-Zélande fait bien la promotion de la transparence des décisions algorithmiques, mais sans pour autant remettre en cause le principe même de certaines applications comme l’évaluation du risque de récidive en matière pénale[8]

Ce constat s’explique si l’on replace cette « IA » dans une dynamique bien plus large et globale de conception du progrès par la technique[9]. Dans les discours dominants, notamment relayés dans les médias généralistes, il n’est en effet procédé à aucune étude approfondie des capacités réelles de nouvelles technologies complexes afin de dépasser les discours commerciaux, tant la nouveauté est devenue synonyme de progrès dans nos représentations. Tout ce qui semble techniquement faisable paraît même devenir souhaitable[10], surtout si c’est rentable. La science, de plus, est trop souvent confondue avec croyance et de nombreux biais conduisent à donner crédit aux arguments d’autorité ou au bon sens plutôt qu’aux preuves[11]. Le pouvoir de transformation de technologies, toujours plus invasives, n’est traité que sous l’angle d’une sempiternelle balance entre des bénéfices espérés et des risques redoutés, évacuant ainsi toute une série de « questions zéro » : sommes-nous sûrs avant tout que cela fonctionne comme nous l’imaginons ? N’existe-t-il pas d’autres solutions, moins sophistiquées, simples et peu coûteuses, pour délivrer le service recherché ? Est-ce qu’il n’est finalement pas créé des problèmes plus graves que ceux que l’on essaye de résoudre ? 

L’on ne devrait donc pas totalement se satisfaire des postulats tenant pour acquis le bénéfice de cette « IA », même si elle est « centrée sur l’humain », et pour développer une « IA » de manière durable, les régulateurs devraient pouvoir prendre un pas de recul afin de conduire, par un débat contradictoire et éclairé, une réflexion sur ses exactes capacités. Il semblerait également opportun qu’ils puissent s’interroger sur les causes profondes de cette situation, qui résulte essentiellement d’une conception mercantile de la science.

Mais il faut dire que le mythe de la neutralité des technologies, et donc de « l’IA », est devenu extrêmement tenace (première partie) et que des décennies de gouvernance de la critique de la technique sont parvenues, assez substantiellement, à en réduire la portée et les effets comme dans bien d’autres domaines (deuxième partie). Ce qui s’est déjà joué avec la critique de l’informatique dans les années 1980 et de l’internet dans les années 2000 est train de se rejouer avec « l’IA », avec la même tonalité d’arguments, et il est à craindre que les atteintes aux droits de l’homme, à la démocratie et à l’État de droit finissent par se normaliser comme tribu d’un prétendu progrès (troisième partie). Les efforts de réglementation de « l’IA » risquent fort de se trouver fortement dévitalisés s’il est tenu pour acquis que seuls des dérives d’usages seront à encadrer, sans traiter les questions préalables de la qualité de la science et de la forme de société en train de se constituer avec l’emploi massif des outils numériques (quatrième partie). 


Première partie : Le mythe de la neutralité de la technique


[1] L’acronyme d’intelligence artificielle sera présenté entre guillemets par commodité éditoriale. L’ensemble des technologies recouvertes par ce terme ne constituent naturellement pas une personnalité autonome et, afin de se garder de tout anthropomorphisme, il a été choisi de résumer les termes plus appropriés « d’outils d’intelligence artificielle » ou « d’applications d’intelligence artificielle » par le seul terme « d’IA » entre guillemets.

[2] Groupe de travail de haut niveau sur la coopération numériquegroupe international d’experts sur l’intelligence artificielle de l’UNESCOréseau d’expert de l’OCDE sur l’intelligence artificiellegroupe d’experts de haut niveau sur l’intelligence artificielle de la Commission européenneComité ad hoc sur l’intelligence artificielle du Conseil de l’Europe

[3] Pour une revue des initiatives sur l’IA, incluant ces stratégies, voir le site internet du Conseil de l’Europe dédié à l’intellligence artificielle : https://www.coe.int/en/web/artificial-intelligence/national-initiatives – Consulté le 14 aout 2020

[4] C. Graham-McLay, New Zealand claims world first in setting standards for government use of algorithms, The Guardian, 27 juillet 2020

[5] J. Delcker, AI: Decoded: Cold winds are blowing around regulation, Politico, 5 juin 2020, accessible sur : https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-cold-winds-are-blowing-around-regulation-the-ethics-of-contact-tracing-doubts-over-ai-to-treat-covid-19/ – Consulté le 14 août 2020

[6] Voir le dossier Artificial intelligence and its limits dans la revue The Economist du 11 juin 2020, notamment An understanding of AI’s limitations is starting to sink in, The Economist, 11 juin 2020 et C. Mims, AI Isn’t Magical and Won’t Help You Reopen Your Business, The Washington Post, 30 mai 2020

[7] Voir les préambules et les introductions de documents produits par exemple par la Commission européenne, l’OCDE, l’UNESCO ou le Conseil de l’Europe, développés en #4.1. L’évolution de la notion de progrès et de son remplacement par le concept d’innovation ne sera pas discuté ici, bien qu’elle caractérise également la transition, à notre époque, d’un progrès social vers un progrès technique.

[8] Véritable résurgence d’une conception déterministe de la matière pénale, les constats convergent pour en révéler les biais et les dangers. Voir Y. Meneceur, L’intelligence artificielle en procès, Bruylant, 2020, p. 99 et s. ou encore récemment : T. Burgess, Police built an AI to predict violent crime. It was seriously flawed, Wired, 6 août 2020

[9] Le concept de « technique » renvoie tout d’abord à un ensemble large de moyens mis en œuvre par les humains pour satisfaire leurs besoins. La sophistication croissante de ces moyens et leur omniprésence dans notre vie quotidienne conduit toutefois à devoir considérer cette technique non plus comme un simple outillage, mais comme un système bien plus complexe, concrétisant également les rapports de force, sociaux et politiques, de notre société. C’est ainsi que sera entendu ce terme dans les présents développements. 

[10] D. Gabor, prix Nobel de physique en 1971, avait déclaré « ce qui peut être fait doit l’être, inéluctablement », caractérisant que tout ce qui était techniquement faisable par l’humain serait réalisé, même contre la morale ou l’éthique.

[11] E. Klein, Le goût du vrai, Coll. Tracts, Gallimard, 2020, pp.4-5

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *