2019, année de l’âge de raison pour l’intelligence artificielle ?

Le Comité des ministres du Conseil de l’Europe, organe exécutif de l’organisation internationale regroupant 47 États du continent européen, a adopté le 13 février 2019 une Déclaration dense, mais explicite, sur « les capacités de manipulation des processus algorithmiques »[1].

C’est la première fois qu’une organisation avec une telle autorité morale se positionne aussi explicitement sur les conséquences de la transformation numérique de notre société en soulignant « Les niveaux très subtils, subconscients et personnalisés de la persuasion algorithmique [qui] peuvent avoir des effets significatifs sur l’autonomie cognitive des citoyens et leur droit à se forger une opinion et à prendre des décisions indépendantes. »

La portée de cette Déclaration dépasse la seule question des interférences électorales telles que dénoncées par le scandale « Cambridge Analytica » et le réemploi de données personnelles pour tenter d’infléchir le cours de processus électoraux. Le Comité des Ministres « attire l’attention sur la menace grandissante qui émane des technologies numériques de pointe et qui remet en cause le droit des êtres humains à se forger une opinion et à prendre des décisions indépendamment des systèmes automatisés. »

C’est exactement ce qui était dénoncé par de nombreux auteurs (Cathy O’Neil, Soshana Zuboff, Antoinette Rouvroy, Dominique Cardon, Eric Sadin pour ne citer qu’eux) ces dernières années, sans que leurs critiques ne parviennent réellement à prendre corps dans le champ des politiques publiques. Bien au contraire, le grand renfort des plans de développement de l’intelligence artificielle (IA) un peu partout dans le monde, spécialement dans une Europe qui cherche à combler son retard par rapport à l’Amérique du Nord et à l’Asie, témoignait d’une vision assez décomplexée et dépolitisée du sujet. Pekka Ala-Pietilä, président du groupe d’expert de haut niveau de la Commission européenne, en charge de diriger la rédaction de lignes directrices éthiques de l’IA pour les 27/28 membres de l’Union européenne, s’était même déclaré il y a quelques mois hostile à la mise en œuvre d’une réglementation dans l’immédiat[2].

Cette Déclaration du Comité des ministres n’est pas la première expression d’une certaine réserve du Conseil de l’Europe, et des milieux académiques qui sont le principal vivier d’expertise de l’organisation. Le comité d’experts sur les intermédiaires internet (MSI-NET), la Commission européenne pour l’efficacité de la justice (CEPEJ), le Comité consultatif de la Convention 108 (protection des données), la Commission européenne contre le racisme et l’intolérance (ECRI), autant de secteurs qui ont déjà produits des études ou rapports alertant sur la surenchère – très artificielle – de l’industrie numérique pour promouvoir l’IA et les risques d’un développement sans conscience des limites des mathématiques et des statistiques pour représenter notre monde[3].

Un terrible constat a été d’ailleurs dressé par John Naughton en ce début d’année 2019 dans le Guardian : les journalistes n’arriveraient à prendre aucune distance critique avec les discours imposés par l’industrie numérique au sujet de l’IA et peineraient donc à réaliser un travail documenté, critique et approfondi[4]. Il cite au soutien de son affirmation les résultats d’une enquête menée par des chercheurs de l’université d’Oxford, qui ont analysé plus de 760 articles portant sur l’IA, publiés dans les 6 journaux majeurs du Royaume-Uni durant les 8 premiers mois de l’année 2018. Leurs travaux révèlent que cette couverture a été très largement dominée par les industriels eux-mêmes (nouveaux produits, annonces et initiatives prétendument liées à de l’IA) avec la complicité bien involontaire d’une certaine forme de « journalisme de masse », qui a de moins en moins de spécialistes[5]. Une couverture qui présente bien entendu très majoritairement l’IA comme une solution viable pour résoudre un grand nombre de problèmes. 

Or, il y a un véritable enjeu à sortir de la sorte de sidération collective sur ces développements technologiques, en faisant la part entre ce qui relève d’une gigantesque opération marketing de l’industrie numérique (et non d’une révolution en recherche fondamentale) des applications concrètes du traitement statistique de très grands jeux de données (big data). Bien entendu, il ne s’agit pas de sous-estimer les progrès réalisés avec l’apprentissage automatique dans des domaines extrêmement spécialisés, mais certainement pas d’ériger cette prétendue « IA », et le numérique en général, comme une solution universelle à tous nos maux[6]. C’est ce type de contre-discours qui imposerait aux entrepreneurs un vocabulaire précis et, peut-être, les conduirait à mieux assumer pour certains leur responsabilité sociétale en ne pas se hâtant pas de transformer dans la précipitation des résultats de recherche en application commerciale. Et c’est exactement ce à quoi semble vouloir s’employer le Conseil de l’Europe et peut constituer, en cette année 2019, un véritable tournant dans la promotion, parfois outrancière, de cette technologie.


[1]Decl(13/02/2019)1

[2]J. Delcker, « Europe’AI ethics chief : No rules yet, please”, Politico, 30 octobre 2018, https://www.politico.eu/article/pekka-ala-pietila-artificial-intelligence-europe-shouldnt-rush-to-regulate-ai-says-top-ethics-adviser/

[3]Voir le site internet du Conseil de l’Europe dédié à l’intelligence artificielle : http://www.coe.int/ai

[4]J. Naughton, Don’t believe the hype: the media are unwittingly selling us an AI fantasy, The Guardian, 13 janvier 2019.

[5]J. Scott Brennen, An Industry-Led Debate: How UK Media Cover Artificial Intelligence, University of Oxford, Reuters Institute for Study of Journalism, 13 décembre 2018.

[6]E. Morozov, Pour tout résoudre, cliquez ici, Fyp éditions, 2014.