Pourquoi nous devrions (ne pas) craindre l’IA

Bibliographie de l’ouvrage “L’intelligence artificielle en procès”

À longueur d’annonces, de débats, de conférences, d’articles, de reportages ou de livres, l’on ne cesse de nous présenter l’intelligence artificielle (IA) comme la technologie de rupture de la décennie, peut-être même du siècle. Des opportunités sans limites semblent s’ouvrir à l’humanité dans la mesure où nous serions à même de prévenir les risques dans un contexte d’usages sans cesse plus généralisés. Le « papier blanc » (white paper) sur l’IA de la Commission européenne, publié le 19 février 2020, s’approprie ce constat et pose les grandes options des lignes politiques de l’encadrement de cette technologie pour les années à venir. 

Les fantasmes s’agrègent toutefois dans les innombrables discours portant sur cette technologie et la redoutable complexité technique animant les discussions entre experts conduit à emplir l’espace public de représentations où chacun y laisse un peu de sa subjectivité et de sa vision du monde. Ayant ringardisé le terme mégadonnées (big data) et tantôt confondu avec l’informatique, le numérique ou même internet (voire les blockchains !), le terme « IA » (qui sera employé entre guillemets en substitution aux termes plus appropriés d’applications de l’intelligence artificielle)est devenu en ce début de siècle le mot-valise de référence en matière de technologies, qui emporte avec lui une assez grande variété de préoccupations.

« L’IA », un terme plastique devenu synonyme de progrès

Il faut dire que ce coup de force rhétorique de John McCarthy et Marvin Minsky, forgé en 1955/1956, continue à se déployer avec une grande vigueur du fait de sa plasticité, pour ne pas dire de son imprécision. Car plus l’on s’intéresse au sujet, plus l’on apprend à s’éloigner de ce terme… et plus l’on devient incompréhensible pour les profanes : qui se soucie en effet des différents bénéfices et des limites des réseaux de neurones profonds, des machines à vecteur de support, des réseaux bayésiens, des arbres de décisions et des systèmes experts, en dehors des techniciens de ces matières ? Nous vivrions donc une véritable ère de l’approximation, où la précision des termes et la réalité de la portée des technologies importerait moins que ce que l’on espère en faire, ne serait-ce que pour se donner le sentiment de rester adapté à son époque.

D’une manière certainement plus troublante, il est extrêmement déstabilisant de voir que le bénéfice du recours à ces ensembles de technologies, dans les aspects parfois les plus intimes de notre vie courante, n’est même plus questionné et que plus personne ne cherche à convaincre de ses vertus. « L’IA » est devenu le progrès et l’on ne questionne pas le progrès. Antoinette Rouvroy constate en ce sens un certain assèchement de la qualité du débat public et rappelle que « la gouvernementalité algorithmique, bien que soutenue parfois par des discours ressuscitant l’idée de progrès, ne se présente plus tant comme une alternative aux autres formes de gouvernement que comme leur destin inéluctable » (A. Rouvroy, “Adopt AI, Think Later – La méthode Coué au secours de l’intelligence artificielle”, 2020).

Que l’on s’estime « pour » ou « contre » (ou même au-dessus de ces débats), il faudrait donc arriver avant tout à se départir de cette sorte de sidération collective nous ayant saisis. Il paraît urgent de revitaliser les débats sur l’emploi de cette « IA » en revenant à de très simples bases pour commencer à ordonner une pensée critique, constructive et ambitieuse, à même de protéger de manière effective les individus et la société d’une certaine forme de dérives scientiste et mercantile paralysant le débat démocratique et les choix de société.

« L’IA », c’est quoi ?

À s’en tenir à la définition donnée par la Commission d’enrichissement de la langue française, l’IA est le « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines ». On se trouve donc dans le champ des sciences cognitives et à l’intersection avec l’informatique dont l’ambition générale d’automatisation de tâches peut aisément se confondre avec l’ambition précise d’imiter le fonctionnement du cerveau humain pour parvenir à cette automatisation. Pour le reformuler, « l’IA » est une forme particulière d’application de l’informatique, dont la réalité technologique a évolué en fonction des méthodes à la mode : approche descriptive et symbolique dans les années 1970-80, en écrivant des règles logiques signifiantes, et connexionniste aujourd’hui, en laissant la machine « découvrir » les corrélations entre des phénomènes traduits en données (c’est en cela que l’on dit qu’elle « apprend »).

Ce qui devrait bien plus nous intéresser donc en terme de régulation, ce sont les questions posées par des systèmes complexes d’algorithmes en général plutôt qu’une technologie précise, et ce pour une application particulière : la prise de décision sans action humaine. Il devrait, de plus, être systématiquement adjoint au périmètre de réflexion les données alimentant ces systèmes. Car, contrairement à un carburant irriguant un moteur thermique de voiture, les données ont un rôle de plus en plus structurant sur leur moteur algorithmique, notamment avec l’apprentissage automatique (machine learning). Ce qu’il y aurait alors à craindre, ce ne serait pas une autonomisation de la machine qui s’en prendrait à son concepteur comme dans un mauvais film de science-fiction, mais bien plus d’un excès de confiance dans le pouvoir de ces technologies pour prendre, en toutes circonstances, de meilleures décisions que nous.

Aller plus loin que la simple balance bénéfices / risques

Alors qu’il est le plus souvent réalisé une balance spéculative entre des bénéfices et des risques probables, l’on omet par cette démarche simpliste de s’interroger sur la capacité de ces machines à manipuler avec efficacité les concepts dont elles sont nourries. Ainsi, l’emploi en informatique de données objectives et quantifiables conduit à des résultats bien plus robustes qu’avec des données subjectives (nécessitant une interprétation pour être transformées en données) et qualitatives. Déduire du succès d’AlphaGo des potentialités révolutionnaires dans tous les champs de l’activité humaine relève ainsi d’un excès d’optimisme dont il convient de se garder. Des encadrements bien plus contraignants devraient peser sur les systèmes manipulant des concepts potentiellement hasardeux ou n’ayant pas de fondement scientifique sérieux.

La deuxième question bien souvent éludée est celle de l’importante dette intellectuelle qui est en train de se cumuler en empilant des systèmes complexes dont l’on ne parvient plus à reconstituer le raisonnement. Affirmer, comme le chercheur Yann LeCun, que l’explicabilité n’est pas importante si l’on arrive à prouver que le modèle fonctionne bien tel qu’il est censé fonctionner, encourage en réalité à l’abandon de toute prétention à construire des théories scientifiques solides pour bâtir des applications. Cela revient également à faire primer les résultats sur la connaissance et à privilégier des objectifs à court terme au détriment d’un investissement à plus long terme, seul capable de bâtir des fondements solides à même de nous aider à aller plus loin que les fragiles mécanismes de l’apprentissage automatique (machine learning).  

La troisième et dernière question qui est minimisée en se focalisant sur l’équilibre entre les bienfaits et les dangers de « l’IA » est celle, fondamentale, du type de société dans laquelle nous souhaitons réellement vivre. À entendre les discours majoritaires sur le numérique et « l’IA », ce sont aujourd’hui les données qui constituent le principal gisement d’avenir pour le développement économique. Les discours s’affirment centrés sur l’humain et préoccupés du respect des droits fondamentaux mais se fondent en réalité sur une mystique numérique (Rouvroy, 2020) où tous les problèmes paraitraient pouvoir être résolus, directement ou indirectement, par ce moyen. « L’IA » est ainsi devenue un moyen qui s’est approprié les fins et qui va contribuer, si l’on n’y prend pas garde, à encore plus fragiliser nos institutions démocratiques sur lesquelles pèse déjà un lourd discrédit. En étant promoteurs d’un environnement numérique automatisant la prise de décision pour en expurger les biais des opérateurs humains, nous contribuons en réalité à saper les fondements d’une société basée sur la délibération et la primauté du droit au profit d’un « État des algorithmes », mathématisant les rapports sociétaux.

Le trop plein d’éthique et la nécessité d’une réponse juridique

Face à ces enjeux de « l’IA », une importante et dense réponse éthique s’est constituée depuis le milieu des années 2010. En s’accordant aux décomptes de l’Agence des droits fondamentaux de l’Union européenne, plus de 260 documents, textes et chartes non contraignants auraient été produits dans le monde en décembre 2019. Fortement inspirés de la bioéthique, les principes qui en découlent paraissent se regrouper en quelques catégories désormais bien identifiées comme la transparence, la justice et l’impartialité, la bienfaisance et la non-malfaisance, l’autonomie, la responsabilité, le respect de la vie privée, la robustesse et la sécurité, etc. Sans aborder les débats portant sur la subjectivité de l’éthique, il doit être simplement constaté que cette intense production a servi l’industrie numérique à déporter le discours de la nécessaire régulation de « l’IA » dans un champ plus souple et moins contraignant. Dépourvue de sanctions, l’éthique est en effet un instrument commode d’autorégulation dont il convient bien entendu de ne pas minimiser les bienfaits, mais dont la portée reste avant tout déclaratoire. 

L’autre faiblesse de cette éthique de « l’IA » est parfaitement révélée par les méta-analyses des cadres existants (voir par exemple A. Jobin, M. Ienca, E. Vayena, The global landscape of AI ethics guidelines, Nature Machine Intelligence, 2019). Cette éthique est loin d’être univoque et nombre de principes sont polysémiques, sans aucun dispositif d’interprétation pour en assurer la cohérence (comme les tribunaux quand il s’agit d’interpréter des règles de droit). De nombreuses institutions publiques, nationales et internationales, ont publié et vont continuer vraisemblablement de publier des textes non-contraignants et ainsi contribuer à stabiliser les débats, mais l’on se retrouve encore une fois ici bien éloignés de normes contraignantes accompagnées de mécanismes rigoureux de suivi et de sanctions en cas de manquement.

C’est en cela que le mandat du Comité ad hoc sur l’IA (CAHAI) du Conseil de l’Europe s’avère original et constitue, à ce jour, la meilleure opportunité pour fonder un cadre juridique d’application de cette technologie respectueux des valeurs fondamentales de nos sociétés : les droits de l’homme, l’État de droit et la démocratie. Rappelons qu’édicter des standards juridiques en la matière relève pleinement du mandat de cette organisation internationale, qui s’est déjà illustrée dès 1981 avec la Convention 108 sur la protection des données – « grand-mère » du RGPD – ou la Convention de Budapest en matière de lutte contre la cybercriminalité en 2001. Cette expérience rend légitime le Conseil de l’Europe à intervenir, en coordination avec l’Union européenne, l’OCDE et les Nations Unies, pour poser des bases juridiques de haut niveau, transversales et non spécialisées, sur lesquelles pourront ensuite entre bâtis des textes sectoriels précis, avec un niveau de contraintes (tant ex ante qu’ex post) proportionnels à l’impact prévisible sur les individus et la société. 

Une réponse juridique contraignante est la seule à même de donner suffisamment de substance aux discours sur l’humain, à créer de la confiance… et ainsi écarter les critiques de blanchiment des technologies par l’éthique. Sans oublier d’y inclure la question de l’impact du numérique sur l’environnement, qui va également constituer l’un des enjeux majeurs de notre temps.