Publié le 2 mai 2021 sur Les Temps Électriques et le 10 mai 2021 sur le site de l’Institut Sapiens
Depuis le début des années 2010, le déploiement des algorithmes d’apprentissage automatique, dont l’apprentissage profond, a réenchanté l’emploi de l’informatique dans notre société. Ce qui est convenu d’appeler de manière commode et vague « intelligence artificielle » (« IA[1]»), automatise, avec plus ou moins de contrôle humain, un nombre croissant de tâches ou de segments de tâches pouvant relever d’un très haut niveau d’expertise. En s’accordant à l’air du temps, ce qui ne semble pas possible aujourd’hui le sera nécessairement demain et la liste des applications s’allonge, notamment dans des secteurs aussi stratégiques que l’industrie, la sécurité publique ou les armées. Dans le même temps, cette « IA » a été saisie comme une nouvelle opportunité par le marché, au point de devenir l’un des principaux instruments de croissance économique des années à venir. Son développement s’impose donc dans les politiques publiques du monde entier comme une évidence.
Pourtant, comme pour d’autres sujets hautement techniques (pensons au changement climatique ou les OGM), la tenue de débats publics objectifs, fondés scientifiquement et accessibles tant au grand public qu’aux médias généralistes, est rare. Il y a bien eu des consultations multipartites, en France, en Europe et dans le monde, cherchant à définir les attentes de la société face à une « IA » mais le sentiment général qui demeure encore est une certaine forme de méfiance dans l’opinion, à laquelle répondent des arguments d’autorité ainsi que diverses mesures pour créer de la confiance, comme des principes éthiques ou un encadrement juridique. À part des exercices comme les Déclarations de Montréal ou de Toronto, ces démarches échouent toutefois trop souvent à saisir exactement les réelles capacités de l’objet dont elles traitent, sans parler de leur peine à le définir.
« L’agora est aujourd’hui saturée d’expertises »
Difficile donc d’avoir des repères solides pour le profane. D’autant plus que l’agora est aujourd’hui saturée d’expertises, qu’il s’agisse d’encourager de manière incantatoire le développement d’une « IA » « éthique/centrée sur l’humain/for good » ou, au contraire, d’alerter sur ses potentielles et imminentes dérives, sans cesse sur le point de se réaliser. Nombre de décideurs publics s’emparent donc de « l’IA » au travers de grilles de lectures extrêmement simplificatrices visant à encourager les investisseurs, tout en évacuant les trop encombrants problèmes techniques[2].
C’est dans cet exact contexte qu’ont émergé ces dernières années un certain nombre de principes assez flous, omettant de traiter deux questions préalables et essentielles : celle de la réelle capacité technique de « l’IA » à traiter le problème qui lui est soumis et celle de l’opportunité d’y avoir recours. L’évaluation du risque de récidive des criminels en est un parfait exemple. Alors que les approches statistiques classiques sont vivement contestées dans le domaine depuis des décennies, car trop déterministes et déresponsabilisantes pour les acteurs[3], « l’IA » a apporté un vernis de nouveauté qui nécessite, pour quiconque s’en alarme, de reprendre la démonstration de zéro. Les décennies d’acquis en sciences humaines et sociales, qui nous permettraient pourtant de faire l’économie de nombreux débats, semblent malheureusement trop souvent ignorées ou reléguées au statut de simple opinion sous l’effet de la nouveauté.
« Comprendre « l’IA », en ne faisant pas l’économie de l’examen de toute sa complexité, est devenu un acte civique »
Il semble donc urgent de conduire des politiques publiques sur « l’IA » en prenant le temps et le courage d’entrer dans la complexité des choses pour ne pas transformer tous les problèmes en problèmes réductibles par cette technologie et soumettre à la contradiction du débat démocratique ce qui relève de réels choix de société et non d’un simple outillage. Si des régressions de nos droits, de notre autonomie voire même de notre condition, doivent être imposées, elles doivent alors être assumées politiquement comme telles et non les présenter en un progrès rendu possible par « l’IA », blanchis au passage par des principes éthiques ou des réglementations trop permissives.
Comprendre « l’IA », en ne faisant pas l’économie de l’examen de son profond impact sociétal, est donc devenu un acte civique essentiel de notre condition moderne. Notre société doit maintenant définir, de manière démocratique et éclairée, l’exact usage qu’elle souhaite donner à cette technologie et non la laisser s’imposer comme une évidence.
Animateur des Temps Electriques et auteur du l’ouvrage « L’intelligence artificielle en procès »
Les opinions exprimées n’engagent que son auteur et ne reflètent aucune position officielle du Conseil de l’Europe
[1] L’acronyme d’intelligence artificielle sera présenté entre guillemets par commodité éditoriale. L’ensemble des technologies recouvertes par ce terme ne constituent naturellement pas une personnalité autonome et, afin de se garder de tout anthropomorphisme, il a été choisi de résumer les termes plus appropriés « d’outils d’intelligence artificielle », « d’applications d’intelligence artificielle » ou de « systèmes d’intelligence artificielle » par le seul terme « d’IA » entre guillemets.
[2]L’on pourrait même parler d’un problème technique plus général, voir Y. Meneceur, L’intelligence artificielle en procès, Bruylant, 2020, p.43 s.
[3]Voir par exemple la synthèse des débats sur la justice actuarielle, M. Vacheret, M-M. Cousineau, L’évaluation du risque de récidive au sein du système correctionnel canadien : regards sur les limites d’un système, Déviance et société 2005/4, Vol. 29, pp.379-387