L’automne de l’intelligence artificielle

Un billet publié par Hugues Delabarre en octobre 2022 dans un groupe Facebook sur l’intelligence artificielle titrait « Pourquoi l’IA ne suscite plus l’engouement des foules ». En partant d’un constat technique (la stagnation du nombre des membres de ce groupe et la baisse du nombre de vues), il y développe des arguments méritant toute notre attention. L’auteur écarte tout d’abord l’idée que nous serions entrés dans un nouvel « hiver » de l’IA mais soutient qu’au vu des promesses démesurées des dernières années non tenues, la raison aurait repris le dessus. Il y affirme aussi que la banalisation du numérique et de l’IA, saisis par les pouvoirs publics, seraient devenus les outils idéaux d’une société de surveillance de masse et conclut par le constat que l’on aurait vendu un « futur qui n’existe pas ». Il cite les véhicules autonomes promis comme toujours prochainement matures en 2018 (n’étant toujours pas au point), le robot Tesla nécessitant une assistance bien humaine, le quantique cherchant des applications concrètes et le « métavers » surfant à son tour sur le haut de la vague de la hype.

Outre un immense coup de fatigue provoqué par la lecture de ce billet, annonçant l’obsolescence programmée de mon engagement profond de plus de 6 années dans la démystification de l’emballement autour de cette « IA », l’extrême lucidité du propos a confirmé ce qui n’était qu’une intuition diffuse.

Oui, la mode se tasse. À se demander même si la courbe de Gartner n’aurait pas réussi à modéliser assez précisément le cycle de vie de nos technologies numériques, où l’inévitable excitation résultant de l’apparition d’une nouvelle application et son tout aussi inévitable tassement face à la somme d’espoirs déçus, conduirait, en définitive, à ne retenir que les applications significatives. Un brin darwinien et déterministe a priori, mais pas si caricatural quand l’on examine les blockchains (qui ont déjà subi ce choc de la réalité) et les métavers (qui s’apprêtent à le subir).

En reprenant un peu de hauteur, cette « transition numérique » (terme qualifiant une politique publique présentant la généralisation de l’emploi des technologies numériques comme un destin inéluctable) s’impose avec une force structurante qui ne faiblit pas. Comme le fait justement remarquer l’auteur du billet Facebook, les développements continuent à un rythme soutenu : l’on pourrait citer au soutien de cette affirmation la détection des piscines non déclarées par des contribuables par l’exploitation d’images satellites, le développement par la Cour de cassation d’un outil de recherche de divergence de la jurisprudence ou encore l’intégration de solutions d’IA dans un nombre toujours plus grand de processus industriels ou de qualité pour optimiser leur fonctionnement… moins qu’un Léviathan interconnectant tous les systèmes prédictifs planétaires, l’on se retrouve en réalité face à une nuée d’algorithmes ponctuant notre quotidien, ça et là, de microdécisions contingentes, optimisant l’instant.

Mais les temps ne sont plus en effet à l’exaltation. Des strass et paillettes des années 2010, les discours s’assagissent majoritairement pour investir des utilisations moins spectaculaires, mais plutôt efficaces. Dans le domaine de la justice, quelques legaltechs spécialisées dans l’emploi de l’IA sur de la jurisprudence ont revu leur argumentation, abandonnant l’argument de la prédiction pour rejoindre le rang des entreprises axées sur la recherche, l’analyse juridique et l’aide à la rédaction. Cette tendance à la modération des discours n’a toutefois pas calmé les inquiétudes de l’opinion publique face à des systèmes algorithmiques discriminatoires et incontrôlables, qui ont pris corps à la suite de divers scandales et même des condamnations judiciaires (comme l’algorithme SyRI aux Pays-Bas qui, en matière de lutte contre les fraudes, ciblait systématiquement des populations précaires). En conséquence, les discours techno-critiques[1] sont sortis de leur sphère militante et politisée et ont fini de convaincre les régulateurs qu’ils ne pourraient pas traiter l’IA comme l’Internet. Si le législateur européen cherche maintenant à garantir la confiance des consommateurs par de nouvelles dispositions juridiquement contraignantes pour les systèmes à haut risque, c’est autant pour aligner la concurrence mondiale sur nos règles que pour établir un cadre de sécurité juridique, déjà connu dans d’autres industries (pharmaceutique, automobile).

Mais après les frimas d’un automne déjà annoncé en 2020[2], on commence maintenant à entrer incontestablement dans le coeur de cette nouvelle saison. Cet automne ne gèlera probablement pas l’usage de l’apprentissage automatique mais va nous conduire vers une (tout à fait) souhaitable maturité des usages de l’IA. Cette technologie va s’installer de manière discrète dans les interstices où elle créé réellement de la valeur et non pas s’imposer comme une solution universelle. Reste à garantir que son emploi dans la sphère publique ne tourne en effet pas à un nouvel « État des algorithmes », substituant à la délibération collective la gouvernance des nombres. Autrement dit, l’avènement d’une société où le droit verrait sa primauté disputée par le calcul et la statistique, avec des voies de recours impraticables ou inexistantes.

Mais n’anticipons pas une dystopie encore très improbable et réjouissons-nous de petites victoires. L’automne de l’IA n’est pas sa fin mais le passage à l’âge adulte des méthodes d’apprentissage automatique. Et, de manière très terre à terre, estimons-nous heureux de pouvoir échapper, sur la base de ce cycle de la hype, à faire nos courses, à déclarer nos impôts ou à sociabiliser dans le métavers… il parait qu’en plus, là-bas, les saisons n’y ont pas prise.


[1] S’agissant d’un inventaire de ces discours, V. F. Benoît, N. Celnik, Techno-luttes, enquête sur ceux qui résistent à la technologie, Seuil, Reporterre, 2022

[2] Voir le dossier Artificial intelligence and its limits dans la revue The Economist du 11 juin 2020, notamment An understanding of AI’s limitations is starting to sink in, The Economist, 11 juin 2020 et C. Mims, AI Isn’t Magical and Won’t Help You Reopen Your Business, The Washington Post, 30 mai 2020