La critique de la technique : clé du développement de l’intelligence artificielle ? (Deuxième partie)

Les conséquences de décennies de gouvernance de la critique de la technique

Crédits : Pxfuel

En première analyse, le consensus apparent sur les bénéfices incontestables de la technique pourrait paraître fragilisé avec la publication d’études étayées et convergentes dans de nombreux domaines, comme en ce qui concerne la menace environnementale[1]. Le succès en France, et dans d’autres pays européens, de mouvements politiques écologistes à des élections témoigne de cette prise de conscience citoyenne et du relatif affaiblissement du discours imposé par le capitalisme industriel. Il est également intéressant de relever que les plus vives critiques actuelles de la technique ne proviennent d’ailleurs pas nécessairement d’idéologues ou de politiques, mais proviennent aussi des techniciens eux-mêmes, en pleine conscience des enjeux et des limites des divers moyens à notre disposition[2]. De nombreuses publications parviennent aujourd’hui à dépasser les lieux communs en démontrant que derrière la prétendue neutralité des techniques, il y a surtout des enjeux de pouvoirs et que derrière les prophéties, il y a des artifices marketing maquillant une réalité bien plus modeste[3]. Au final ce n’est d’ailleurs pas la technique en elle-même qui est remise en cause par certains de ces auteurs, mais l’asservissement résultant d’une certaine forme de transfert du sacré à la technique[4]. Et c’est exactement cela qui se joue pour le numérique et « l’IA » qui, en derniers artefacts à la mode (et potentiellement rentables), sont instrumentalisés pour nourrir l’idée d’une révolution et d’une civilisation toujours en « progrès » continu par les sciences, alors que l’on se trouve en réalité en pleine confusion entre fins et moyens[5].

#2.1. La décrédibilisation des contre-discours sur la technique

Durant ces dernières années, les contre-discours critiques des techniques ont eu bien des difficultés à émerger, à participer au débat public et à irriguer une pensée politique cohérente, notamment sous l’influence d’acteurs privés dont la puissance en est venue à être tout à fait comparable à celle des États[6]

Il ne devient même plus concevable de remettre en cause les prétendues qualités ou l’utilité même d’une technologie potentiellement rentable. Les industries de la chimie, des médicaments ou du tabac se sont particulièrement illustrées en multipliant les controverses factices pour paralyser toute décision politique, aux moyens d’arguments simples et populaires et de l’instrumentalisation de la science[7]. Les doutes ou les contestations sont souvent raillés, comparés aux doux fantaisistes pensant que la Terre est plate, ou renvoyés à des débats d’experts incompréhensibles pour les médias généralistes et l’opinion publique. Ralentir n’est même plus une option, la stase de la réflexion éclairée étant systématiquement préférée au flux de l’action : « Move fast and break things », mantra de la Silicon Valley, révèle bien la stratégie de notre époque où la réalisation rapide de profits est préférée à la simple mesure des choses. Le sociologue Antonio Casilli affirmait même en août 2020 sur un réseau social que leur stratégie s’apparenterait plus à « tenter de casser des choses, s’excuser pour avoir tenté puis, quand tout le monde s’est calmé, les casser pour de bon ». Spécifiquement pour le numérique, la résolution de tout problème semble aujourd’hui devoir comporter un volet embarquant ce type de technologie, autant par solutionnisme que recherche de nouveaux marchés dans un contexte d’intrications profondes d’intérêts industriels et politiques[8]

Pour parachever ce tableau, il faut reconnaître que la qualité et les motivations des discours techno-critiques sont d’une extrême diversité, sans réelle épine dorsale idéologique, et qu’il est aisé, en pure rhétorique, d’en fragiliser la teneur en les amalgamant tous aux déclarations les plus extrêmes. L’on y retrouve en effet pêle-mêle tant des décroissants, dont le seul objectif est de créer du dissensus, que des terroristes anarcho-primitivistes comme « Unabomber[9] » ou de simples héritiers humanistes d’une pensée cherchant à se situer entre Jacques Ellul et Gilbert Simondon.

#2.2. Un consensus sur les bienfaits de la technique limitant la construction de trajectoires originales

La critique de la technique est donc le plus souvent ignorée, minimisée ou instrumentalisée dans les processus de décision politique et dans la plupart des travaux réglementaires. Remettre en cause le principe même du fonctionnement de certaines technologies, du fait des risques ou de leur manque de maturité, n’est le plus souvent pas entendu, d’autres intérêts, politiques, économiques et de croissance, semblant primer. Même les arguments de fond, les plus solides et les plus motivés, se retrouvent noyés dans des querelles d’experts et peinent à émerger. 

Pourtant, c’est bien cette critique de la technique qui permettrait aux décideurs publics de disposer d’une grille de lecture pertinente pour interroger et analyser avec acuité les « innovations » et, ainsi, de pouvoir concevoir des trajectoires originales pour les politiques publiques. C’est aussi cette critique de la technique qui constitue un impératif démocratique et civique pour gouverner le changement vers une société soucieuse de son empreinte sur l’environnement. Mais c’est cette critique de la technique qui a été volontairement canalisée durant les quarante dernières années pour en réduire la portée et les effets, au point d’être aujourd’hui dévitalisée et presque moribonde. De la critique radicale des années 1970, qui concernait le recours à l’énergie nucléaire ou même déjà l’informatique[10], les différentes formes contestations ont été progressivement dépolitisées au travers de réponses technocratiques. Qu’il s’agisse de divers comités d’experts, d’observatoires ou de stratégies participatives faisant émerger des consensus, tout a été entrepris pour marginaliser les oppositions les plus virulentes et désamorcer tout contenu de nature à remettre en cause l’adoption des technologies. 

Il en résulte un réel appauvrissement de la pensée, où les critiques, même étayées, en sont devenues à être considérées comme de simples « opinions » ou des « points de vue ». De manière tout à fait étonnante, il semble que notre époque accorde ainsi une crédibilité supérieure aux promoteurs d’une « IA » en capacité de traiter de manière tout aussi efficace des pixels que des décisions de justice qu’à ses détracteurs, dont le discours paraît naturellement bien moins séduisant si l’on se place dans une perspective de croissance économique par le numérique. Pourtant à se contenter de n’encourager et de ne nourrir que le discours dominant, l’on risque de réels accidents industriels, de nature à décrédibiliser durablement la technologie concernée ; cette attitude conduit aussi à se priver de nouvelles perspectives et de réelles découvertes. C’est exactement dans ce contexte de rejet de la critique que Yann LeCun a eu les plus grandes difficultés à faire émerger ses travaux sur les réseaux de neurones profonds (deep neural networks) dans les années 2000 alors que toute la communauté (ainsi que les investisseurs) se concentrait alors sur une autre forme d’apprentissage automatique (machine learning), les machines à vecteur de support (support vector machines[11]). Le chercheur en plaisante maintenant, ayant conscience de son succès : « Maintenant il faut que je fasse plus attention à ne pas dire de bêtises parce que personne n’ose plus me dire que j’ai tort »[12].

#2.3. La prolifération des discours éthiques en matière « d’intelligence artificielle »

La controverse scientifique est au cœur de la construction du savoir et des idées. En rendant reproductibles des observations, l’on donne évidemment les moyens de la critique et de la contradiction. Mais l’on rend aussi progressivement plus robuste ce qui n’est plus alors de l’ordre de l’intuition ou de l’assertion, mais de l’ordre de la démonstration. Ce travail est incontestablement en cours en ce qui concerne « l’IA », mais deux cercles, au moins, se sont constitués[13]. Aux côtés de la recherche fondamentale et appliquée, qui explore encore la profondeur des réseaux des neurones et débat des avantages respectifs de l’apprentissage auto-supervisé ou de la formalisation de la causalité, coexiste une autre bulle, bien plus spéculative, débattant des effets de cette technologie et de la nécessité d’adopter des lignes de conduite éthiques centrées sur l’humain pour en prévenir les dérives d’usages.

L’observateur extérieur, peu averti, supposera une certaine porosité entre ces mondes et espérera que les progrès (et les doutes) des uns profitent aux autres. Comme avec la plupart des technologies complexes de notre temps, la réalité nous renvoie non seulement à une assez grande étanchéité entre ces deux espaces, mais aussi à une très forte emprise d’entrepreneurs instrumentalisant l’éthique pour « blanchir » une technologie loin d’être encore aussi performante et construire un accord généralisé sur les machines, c’est-à-dire en l’excluant du champ politique et de l’espace démocratique.

Alors que les pionniers de « l’IA » comme Marvin Minsky semblaient mépriser l’éthique[14], un discours a pris corps au milieu des années 2010 dans la communauté « spéculative » de « l’IA » afin d’importer des principes de conduite d’autres secteurs, notamment de la bioéthique, censés guider l’action des acteurs « opératifs ». Le résultat de cette intense production a été assez sévèrement critiqué par une partie de la communauté académique, en raison de son absence de sanctions en cas de manquements et de sa délicate opérationnalisation[15]. Pour Rodrigo Ochigame, ancien étudiant chercheur au sein du Media Lab du MIT, le discours de « l’IA éthique » aurait même été stratégiquement aligné sur un effort de la Silicon Valley cherchant à éviter les restrictions légalement contraignantes de technologies controversées[16]. La série télévisée Silicon Valley illustrera aussi dans l’un de ses épisodes l’hypocrisie de nombre de ces démarches, un des protagonistes, repenti de ses excès d’entrepreneur, lançant une nouvelle religion baptisée « Tethics » – combinaison de « Tech » et de « Ethics[17] ». Qu’il s’agisse donc d’une éthique « pratique », à destination des développeurs, ou d’une éthique « mécanisme de gouvernance », à destination des institutions, il convient d’admettre que nombre des principes promus se révèlent ambigus, voire même contradictoires, qu’ils sont purement déclaratifs et qu’ils tiennent pour la plupart comme acquis les capacités de « l’IA » à fonctionner correctement s’il est fait preuve d’un certain nombre de précautions[18].

#2.4. La mise à distance de la question de l’opportunité du recours à la technique

L’émergence d’un management par le risque de l’usage des technologies, qui part du postulat que ce ne sont pas les technologies étudiées qui sont susceptibles de présenter des défauts, mais seulement leur emploi, a clairement conduit à une dépolitisation de la question de l’emploi massif de technologies complexes. En se concentrant sur la manière de mettre en œuvre une technologie, au lieu de rechercher – avant toute autre réflexion – si nous devrions le faire, l’on soutient de fait la stratégie d’industries soucieuses de ne pas laisser d’espace à une quelconque critique portant sur l’intérêt et les qualités intrinsèques de leurs nouveaux produits.

Ce détournement des débats publics de l’opportunité vers l’usage, accompagné de pressions pour ne mettre en œuvre que de l’autorégulation, n’est toutefois pas spécifique à « l’IA » et il est bien connu que c’est quasiment l’entière démarche scientifique qui est aujourd’hui contaminée par ces méthodes du capitalisme industriel. À titre d’illustration, il pourrait être notamment cité l’Appel de Heidelberg, rendu public la veille du premier sommet de la Terre à Rio en 1992. Réunissant près de 70 prix Nobel et d’autres scientifiques de renom, cet appel proclame leurs inquiétudes face à l’émergence d’une idéologie irrationnelle s’opposant au progrès scientifique et au développement économique et social. Peu de critiques se sont élevées sur l’instant face à ce texte dénonçant une « écologie irrationnelle », et seuls quelques intellectuels comme le philosophe Cornelius Castoriadis ont été en mesure de décrypter ce texte, en réalité orchestré par les industriels de l’amiante[19] et omettant tout à fait volontairement d’évoquer les retombées négatives des faux besoins produits par tel « exploit » scientifique ou technique[20].

Beaucoup de discours, pas nécessairement conscients ou coordonnées, participent donc aujourd’hui à écarter du champ de l’examen critique la question de l’opportunité pour ne mettre en avant qu’un certain nombre de questions centrées sur l’usage. En ayant réussi à imposer une telle narration, les acteurs industriels sont ainsi parvenus, avec le soutien des pouvoirs publics, à donner l’apparence qu’ils se préoccupent de manière sincère des conséquences sociétales de leurs actes alors qu’ils parviennent surtout à échapper à toute discussion de fond sur les prétendues qualités de certaines de leurs innovations. Il en va de même pour l’industrie numérique, puisque même si de plus en plus de personnes sont tout à fait conscientes que nous sommes passés d’un phénomène de salon a un outil de manipulation de masse[21], questionner l’opportunité du recours à ces nouvelles technologies pour résoudre un problème reste parfois assimilé à des postures extrêmes, d’ultra-gauche anti-technologique ou de pessimistes. Or, c’est précisément en questionnant leur opportunité que l’on pourrait établir des clés de lecture permettant de dépasser les discours commerciaux et de nous doter de la capacité d’en évaluer le réel bénéfice sociétal, à même de prévenir tout « solutionnisme[22] ». Questionner l’opportunité, c’est aussi crédibiliser les outils qui auront passé le filtre de cette interrogation et donner l’occasion d’une nouvelle politisation des trajectoires technologiques, consubstantielle à toute prétention démocratique.


Troisième partie : La difficile émergence d’un discours critique de l’informatique et de “l’intelligence artificielle”


[1]  Précisions en ce qui concerne « l’IA » que l’empreinte carbone résultant du calcul des modèles mathématiques avec de l’apprentissage automatique (machine learning) est considérable. En 2018, OpenAI a publié une étude montrant que les ressources de calcul nécessaires à la formation de grands modèles doublaient tous les trois à quatre mois. En juin 2019, une autre étude a révélé que le développement de modèles de traitement de langage naturel (natural language processing) à grande échelle pourrait produire une empreinte carbone exponentielle. À ce rythme, « l’IA » pourrait représenter selon certains experts jusqu’à un dixième de la consommation mondiale d’électricité d’ici 2025.

[2]  En ce qui concerne « l’IA », voir par exemple M. David, C. Sauviat, Intelligence artificielle, la nouvelle barbarie, Éd. du Rocher, 2019

[3]  Voir les travaux de l’équipe du philosophe Daniel Leufer par exemple, qui a réuni les résultats de leur travail de recherche sur le site internet aimyths.org

[4]  Prolongeant ainsi le constat posé par J. Ellul, Les nouveaux possédés, Mille et une Nuits, 2003 (1973), p.316

[5]  Voir Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, Bruylant, 2020, p.397 et s.

[6]  C. Kang, J. Nicas and D. McCabe, Amazon, Apple, Facebook and Google Prepare for Their ‘Big Tobacco Moment’, The New York Times, 28 juillet 2020

[7]  Voir Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, op.cit., p.182 et s.

[8]  Voir à titre d’exemple S. Fay, Coût et soupçon de favoritisme : l’appli StopCovid dans le collimateur d’Anticor, France Inter, 11 juin 2020

[9]  Surnom donné par la presse au mathématicien Theodore John Kaczynski, auteur d’une série d’attentats aux colis piégés entre 1976 et 1982.

[10]  La loi informatique et libertés a été adoptée en France en 1978 à la suite d’un scandale majeur portant sur le croisement de fichier, voir #3.1 dans la troisième partie : La difficile émergence d’un discours critique de l’informatique et de “l’intelligence artificielle”

[11]  Pour un récit de ces difficultés, voir D. Cardon, J-P. Cointet, A. Mazières, La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle, Réseaux, 2018/5 (n° 211), p. 21

[12]  C. Moulas, Yann LeCun: « Créer des machines qui ont autant de bon sens qu’un chat de gouttière », French Morning, 3 juin 2019

[13]  Trois vagues éthiques sont distinguées, la première venant des philosophes qui ont posé des principes, la deuxième des techniciens qui ont voulu fixer techniquement les problèmes et la troisième, en cours, qui se manifesterait par des actions concrètes limitant le pouvoir des algorithmes, tels que le jugement d’un tribunal néerlandais relatif à un système de détection de fraude. Voir à ce sujet C. Kind, The term ‘ethical AI’ is finally starting to mean something, VentureBeat, 23 août 2020

[14]  Voir R. Ochigame, The invention of ‘Ethical AI’, The Intercept, 20 décembre 2019 où l’auteur cite un de ses anciens collègues du MIT Media Lab qui relatait le fait que Marvin Minsky avait l’habitude de dire que « un éthicien est quelqu’un qui a un problème avec ce que vous avez à l’esprit ».

[15]  B. Mittelstadt, Principles Alone Cannot Guarantee Ethical AI, Nature Machine Intelligence, novembre 2019

[16] R. Ochigame, The invention of ‘Ethical AI’, The Intercept, 20 décembre 2019

[17]  Silicon Valley, saison 6 épisode 5 – Récapitulatif accessible sur : O. Henderson, Silicon Valley Recap: We Are Experiencing Tethical Difficulties, Vulture, 24 novembre 2019

[18]  De nombreuses méta-analyses ont été rédigées pour analyser la profusion des principes éthiques – Voir par exemple A. Jobin, M. Ienca, et E. Vayena, The global landscape of AI ethics guidelines, Nature Machine Intelligence 1, septembre 2019, pp.389–399

[19]  S. Foucart, L’appel d’Heidelberg, une initiative fumeuse, Le Monde, 16 juin 2012 

[20]  C. Castoriadis, L’écologie contre les marchands. Sauvons les zappeurs abrutis !, Le Nouvel Observateur, 7-13 mai 1992, p.102 cité par F. Jarrige, Techno-critiques – Du refus des machines à la contestation des technosciences, op.cit., p.333

[21]  F. Joignot, Sherryl Turkle, la psy des nouvelles technologies. Hier technophile, aujourd’hui inquiète de l’assèchement des relations humaines, Le Monde, 25 février 2019

[22]  E. Morozov, Pour tout résoudre, cliquez ici, Fyp éditions, 2014, p.18

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *