Repenser la justice sociale en contexte d’IA : défis majeurs

Texte préparé et présenté dans le cadre de la conférence internationale organisée par la Chaire Justice sociale et intelligence artificielle – Fondation Abeona / ENS / OBVIA le 31 mai 2022, à l’ENS Ulm

Présenté le 31 mai 2022 à l’ENS (Paris) – Ce texte a déjà fait l’objet d’une publication dans la revue Éthique publique, vol. 23, n° 2 (2021) [1] – Accessible sur https://doi.org/10.4000/ethiquepublique.6323

ENS Ulm, 31 mai 2022

Les trois grands défis posés par la gouvernance de l’intelligence artificielle et de la transformation numérique

La célérité avec laquelle notre société et nos modes de vie se transforment sous l’effet des technologies numériques est tout à fait inédite. L’intelligence artificielle (« IA[2] ») est certainement l’un principaux moteurs de cette transformation, au cœur d’un nombre croissant de services qui peuplent déjà notre quotidien. Ce terme « d’IA », dont le contenu a substantiellement évolué depuis sa création en 1955[3], a été réenchanté depuis le début des années 2010 et désigne désormais les divers algorithmes d’apprentissage automatique (machine learning, comme l’apprentissage profond – deep learning), dont les résultats des traitements sont apparus comme particulièrement spectaculaires non seulement pour la reconnaissance d’images ou de sons, mais aussi pour le traitement du langage naturel.

Les décideurs publics promeuvent depuis plusieurs décennies le développement de l’informatique et des technologies numériques, convaincus par les promesses d’amélioration de nos vies, ainsi que par les perspectives de profits économiques toujours plus vertigineuses qui se comptent désormais en milliards de milliards d’euros. Dans la compétition du développement de « l’IA » en particulier, la Commission européenne est intervenue en avril 2021 pour s’efforcer de canaliser l’effervescence des initiatives[4]. L’idée pour les régulateurs de l’Union est d’utiliser le droit à la fois comme instrument de stimulation et de développement du marché intérieur, au vu de la très intense activité commerciale autour de « l’IA », et comme technique d’encadrement de l’emploi de ces nouveaux outils pour prévenir les risques importants qu’ils font courir sur le respect d’un certain nombre de droits et valeurs parmi les plus fondamentaux. Le futur de la gouvernance de cette technologie s’annonce donc aujourd’hui plutôt équilibré, entre objectifs économiques, respect des droits de l’Homme et exigences éthiques, avec des organisations intergouvernementales qui paraissent s’accorder sur la nécessité de mettre en place des mécanismes de vérification des « IA » avant leur mise en service ou leur introduction sur le marché[5].

En l’état, on pourrait se satisfaire du chemin parcouru en si peu de temps, en se rappelant qu’il aura fallu des décennies dans d’autres domaines industriels, comme la pharmaceutique, pour parvenir à cette forme de maturité. Pour autant, la capacité de certains de ces nouveaux instruments juridiques à prévenir efficacement les violations des droits fondamentaux et créer une véritable « IA digne de confiance » reste discutable pour certains[6]. Mais c’est bien plus dans l’examen des préambules de ces textes de régulation que se révèle un problème de fond bien plus structurel :  les discours des organisations intergouvernementales se répondent avec un appareil critique relativement identique, créant ainsi une forme de consensus consistant à ne s’interroger que sur les risques d’atteintes aux droits et libertés des individus, mais sans ne jamais interroger la pertinence du véritable projet de société que sous-tendent ces nouvelles technologies. Ainsi, un certain nombre de grands défis paraissent avoir été notablement sous-estimés ces dernières années et au moins trois séries d’actions mériteraient de s’imposer dans l’agenda des régulateurs : déconstruire le consensus sur la neutralité des technologies numériques et de l’intelligence artificielle (1) ; objectiver les capacités des systèmes d’intelligence artificielle (2) ; évaluer la soutenabilité environnementale du modèle d’une société numérique (3).

1. Déconstruire le consensus sur la neutralité des technologies numériques et de l’intelligence artificielle

À entendre les régulateurs de « l’IA », la technologie ne serait ni bonne ni mauvaise et nous ne devrions ne nous concentrer que sur ses seuls usages. Ce discours ignore toutefois le lien extrêmement étroit entre les sociétés humaines et le système technique composé par l’ensemble de leurs artefacts : chaque découverte majeure ayant contribué à remodeler substantiellement notre environnement, tout en déployant parfois ses effets sur plusieurs siècles[7]. Ainsi la portée de l’invention de l’imprimerie a dépassé la seule mécanisation de la reproduction d’ouvrages : la Réforme de l’Église, le siècle des Lumières, l’accès au savoir de manière générale ont été autant d’événements liés à cette invention. L’avènement des processus industriels au XIXe siècle a également profondément recomposé les rapports entre individus ainsi que nos lieux de vie et nos modes de gouvernance[8]. Poursuivant cette dynamique continue de progrès, nous en serions aujourd’hui à notre 4ème révolution industrielle avec la rencontre entre « le monde du physique, du numérique, du biologique et de l’innovation[9] » dont les outils dépassent déjà la simple sophistication de moyens existants et nourrissent les espoirs des transhumanistes[10].

C’est pourquoi l’originalité du système composé par les interactions entre les humains et les technologies numériques nous impose un effort de décryptage de l’environnement en train de se composer afin d’en saisir sa composition et sa gouvernementalité[11]. La transformation que nous sommes actuellement en train de vivre avec la traduction en données des moindres recoins de nos vies, aux fins de leur traitement algorithmique, n’est pas qu’une simple optimisation de nos modes de fonctionnement. Cette transition nous dirige en réalité vers un tout nouveau modèle de société qui porte évidemment en lui un progrès technique, mais aussi son lot de désenchantement, d’emprise, voire de totalitarisme. Et ceci non pas du seul fait de la manière dont nous utiliserions ces outils, mais du fait de la structure tissée par l’enchevêtrement de mécanismes informatiques et statistiques censés avoir la capacité de mieux apprécier, en toutes circonstances, un nombre toujours plus important de situations. De manière tout à fait concrète, le fonctionnement d’une entreprise comme Amazon permet déjà de constater combien la présence de contremaîtres algorithmiques transforme, par leur nature même, les rapports de travail[12]. De manière plus générale, nombre d’auteurs nous alertent sur la terrible intrication de ce qui pourrait être qualifié de véritables cages logiques, dans lesquelles nos doubles statistiques s’engoncent de plus en plus, même si nous nous sentons toujours pleinement convaincus d’être libres de nos choix. Bien heureusement, comme nous l’avons vu avec les applications de traçage des contacts durant la crise sanitaire, les droits fondamentaux nous protègent encore de nombre de dérives. Mais l’exercice du pouvoir sur les individus, cette biopolitique théorisée par Michel Foucault, se complète aujourd’hui de discrets mécanismes de prise de décisions algorithmiques, de plus en plus autonomes, dont la création ne repose sur aucune base démocratique et qui congédierait même la chose politique[13].

Malgré ce constat, les débats sur le numérique et « l’IA » sont encore trop souvent réduits à une sempiternelle opposition entre Anciens et Modernes, conservateurs et progressistes, pour ne pas dire ringards s’éclairant à la lampe à huile contre fringants et souriants ingénieurs-entrepreneurs. Si cette dichotomie classique a le mérite de la simplicité, elle ne permet pas de mettre en relief une ligne de fracture bien plus signifiante : celle séparant les tenants d’une totale neutralité des technologies de ceux essayant, au contraire, d’en analyser l’impact social profond. Le philosophe Philip Walsh, dans un article de blog intitulé « Do Algorithms Have Politics[14]? » (Les algorithmes ont-ils une idéologie ?), reprend à ce sujet les travaux du chercheur en sciences sociales Langdon Winner qui s’était interrogé dans les années 1980 sur la technologie, en général, et à son impact sur la société[15]. Pour Winner, les technologies invitent à certains modes d’action, à certaines habitudes, voire véhiculent une véritable idéologie et nous conduisent donc à adapter nos comportements en conséquence. Partant de ce postulat, Walsh rappelle que les algorithmes ont, de plus, des caractéristiques inhérentes bien particulières, avec une certaine façon d’ordonner mathématiquement le monde et de le classer en catégories souvent parfaitement arbitraires. En s’insérant en profondeur au sein de nos représentations sociales et politiques, ils contribuent à peser significativement sur nos choix, nos actions et nos décisions, avec leur prisme déformant. Pour Walsh, il serait dès lors naïf de considérer que les difficultés posées par ces nouveaux outils ne sont que des problèmes externes (comme les biais et la qualité des données). Bien au contraire, nous devrions nous départir durablement d’une perception purement instrumentale des technologies numériques, afin de parvenir à considérer dans son ensemble le tout nouveau modèle de société résultant de la mise en œuvre massive des algorithmes.

2. Objectiver les capacités des systèmes d’intelligence artificielle

Les politiques de régulation de « l’IA » échouent donc le plus souvent, et en tout premier lieu, à se saisir de l’image du nouvel ensemble socio-technique en train de se dessiner. Mais les politiques de régulation de « l’IA » échouent également à se saisir d’autres questions tout aussi essentielles : celles des difficultés structurelles de fonctionnement qui fragilisent ces systèmes algorithmiques, que l’on ne cesse de corriger, de « patcher » et d’adapter. Nombre de décideurs publics ou de régulateurs conçoivent ces machines de manière abstraite, ordonnées et rangées dans des salles blanches de centre de données (datacenters), alors que l’on devrait plutôt retenir l’image d’un moteur à vapeur très artisanal, bricolé avec de nombreux tuyaux et des rustines.

L’accumulation de ces difficultés est telle que nous devrions, ici aussi, chercher à disposer d’une vue d’ensemble plutôt que de considérer ces problèmes isolément. C’est ainsi que l’on pourrait évaluer si ces dispositifs sont suffisamment matures pour sortir des laboratoires et opérer dans le monde réel, notamment pour des fonctions décisionnelles dans des domaines aussi sensibles que les services publics ou la santé. Pour ne citer que quelques-unes de ces difficultés identifiées depuis bien longtemps, et malgré tous les efforts de recherche d’explicabilité des modèles d’apprentissage, nous pourrions retenir les approximations de nombre de systèmes « d’IA » du fait de corrélations relevant du hasard ou étant interprétées de manière erronées comme des causalités[16]. Un modèle découvrant par exemple que les asthmatiques ont un plus faible risque que le reste de la population de développer des maladies graves des poumons ne doit pas conduire à considérer qu’ils ont développé une quelconque forme de protection contre des complications pulmonaires, mais plutôt qu’ils vont consulter plus rapidement des spécialistes du fait de leur fragilité[17]. Si ce raisonnement apparaît simple et de bon sens, comment s’assurer face à des milliers de paramètres que, dans la vaste intrication des liens découverts par une machine, ceux-ci ne relèvent pas de telles confusions ? Une autre difficulté est relative à la faculté de pouvoir tromper les systèmes de reconnaissance d’images en leur soumettant des images altérées volontairement, avec du contenu parfois indécelable à l’œil nu[18]. Cette faiblesse, qui tient au fait qu’une image est reconnue par une interprétation statistique de sa structure et non pour ce qu’elle représente réellement, demeure encore assez insoluble. Par ailleurs, il est également aujourd’hui clairement acquis dans les débats que les traitements algorithmiques présentent leurs propres biais, loin de neutraliser les biais humains[19]. Moins que de fiabiliser les décisions humaines, il semblerait donc que l’on rajouterait plutôt aux biais (des humains) de nouveaux biais (venant des machines). Concluons cette brève liste, non exhaustive, avec l’impossibilité de démontrer que les algorithmes d’apprentissage automatique « apprennent » bien ce pour quoi ils ont été entraînés[20] ou encore les performances significativement amoindries des systèmes opérant dans des environnements ouverts, comme les véhicules « autonomes » se déplaçant sur des routes peuplées d’événements statistiquement imprévisibles[21].

Ces difficultés, encore une fois, sont bien connues et sont très habituellement considérées isolément, lors d’interminables débats d’experts explorant des séries toujours plus impressionnantes de contremesures et de solutions techniques. Pourtant ces questions constituent, cumulées ensemble, le cœur d’un très sérieux problème technique qui devrait nous conduire à remettre en cause le projet même de généralisation de l’apprentissage automatique comme solution viable à des catégories toujours plus diverses d’applications, voire nous faire reconsidérer la prétention d’employer cette approche pour progresser vers une intelligence artificielle générale en sophistiquant les méthodes d’apprentissage[22]. L’on en arrive à se demander si cet entêtement ne divertie pas la recherche de toutes nouvelles pistes de travail pour réellement progresser dans le domaine. Malgré cela, les discours publics sur les capacités de « l’IA » à améliorer notre quotidien ne tarissent pas : ce qui ne semble pas possible aujourd’hui le sera nécessairement demain en empilant toujours plus de données ou en rajoutant une nouvelle rustine à l’ensemble. En guise de réflexe critique, seule est convoquée une très artificielle balance entre des bénéfices, espérés, et des risques, résultant des seuls mauvais usages de la technologie. En d’autres mots, par manque de culture technologique et lovés dans la certitude la neutralité des algorithmes, les régulateurs s’entretiennent des illusions forgées par le marketing de « l’IA » et abandonnent tout effort de mesure des problèmes techniques aux seuls techniciens.

Quel extraordinaire succès pour l’industrie informatique et numérique !

Jamais un outil n’avait réussi, en un si court laps de temps et de manière si invasive, à occuper autant d’espace dans nos vies et ses interstices. À la faveur de sa miniaturisation dans les années 1970, l’ordinateur a colonisé en quelques décennies tant nos bureaux de travail que nos salons, tout en s’interconnectant mondialement dans les années 1990/2000 avec internet. Ancrés définitivement dans nos poches et dans les moindres recoins de nos vies avec les téléphones intelligents (smartphones), il semble aujourd’hui totalement déplacé de s’interroger sur la viabilité d’algorithmes pourtant très artisanaux. Alors, comment expliquer cette difficulté à faire émerger un discours critique sur les caractéristiques intrinsèques de « l’IA », des algorithmes et du numérique en général ?

Outre le manque de culture technique des décideurs publics, déjà évoqué, il faut aussi certainement y voir une combinaison d’autres facteurs comme le développement d’une « école des usages » en sciences sociales, qui a progressivement délaissé l’examen de l’impact de l’informatique sur les structures pour se concentrer sur l’étude approfondie du comportement des individus. Même si cette orientation s’est réalisée en parfaite conscience des conséquences de la généralisation de l’informatique, elle a, dans le même temps, pleinement contribué à forger le consensus selon lequel ce n’est pas la technologie en soi qui serait à mettre en cause, mais la manière dont les pouvoirs économiques et politiques la pervertissent[23].

3. Évaluer la soutenabilité environnementale du modèle d’une société numérique

Déconstruire le consensus sur la neutralité des technologies et objectiver les capacités des systèmes « d’IA » sont donc deux préalables trop souvent ignorés dans la construction de la gouvernance de cette technologie, afin de ne pas en ralentir son développement dans un contexte de concurrence mondialisée. Il est toutefois à craindre qu’une réalité ne s’impose avec une grande brutalité à tous les blocs en compétition : cette réalité, c’est la limite des ressources de notre planète, qui sont très largement surexploitées depuis des décennies. Une fois arrivés au bout des disponibilités en terres rares, comment continuerons-nous de produire les matériels physiques supports des technologies numériques ? La pénurie de semi-conducteurs résultant du désordre provoqué par la pandémie est un signal d’alarme on ne peut plus clair sur notre actuelle dépendance et la fragilité en résultant.

Kate Crawford, professeure à l’Université de New York et chercheuse à Microsoft, a illustré dans son Atlas de l’IA (« Atlas of AI ») l’impact profond du développement de cette technologie sur notre planète et des enjeux de pouvoirs y afférant[24]. Crawford s’est tout d’abord rendue physiquement sur le lieu d’extraction du lithium, indispensable pour créer des batteries pour les terminaux mobiles ou les voitures électriques. Le constat est accablant, et nous renvoie aux conséquences de la ruée vers l’or du XIXe siècle où de vastes zones ont été rendues stériles pour enrichir des villes et des individus encore prospères aujourd’hui (déjà dans l’ouest des États-Unis). Le parallèle avec la logique de fonctionnement actuel de l’industrie numérique (extraction massive des minéraux pour construire des matériels, extraction massive de données pour faire fonctionner les algorithmes, concentration des richesses produites avec un très faible « ruissellement », indifférence aux dommages causés) nous laisse percevoir un modèle de pur et simple pillage n’étant absolument pas pérenne dans le temps[25]. Cette étude de Crawford a trouvé ses fondements en 2018 avec l’artiste Vladan Joler, en illustrant la complexité des ressources à mobiliser pour exécuter une simple commande vocale sur un assistant personnel[26]. De la conception, à l’exploitation et au recyclage des appareils, l’impact environnemental est disproportionné au regard de services parfois dérisoires, comme pour s’enquérir du temps qu’il va faire ou lancer un morceau de musique. En systématisant ce travail, Crawford nous invite à une prise de conscience tout à fait évidente : nous sommes en train d’épuiser des quantités considérables des matériaux terrestres pour servir l’espace de quelques secondes du temps géologique[27]. Crawford démontre ainsi avec une grande acuité la vision à très court terme des politiques publiques actuelles, d’autant plus flagrantes si on lie ses conclusions à celles du GIEC sur l’évolution de notre climat[28].

Notre dépendance sans cesse plus grande au numérique a donc un coût exorbitant, difficilement soutenable. Il est souvent avancé en réponse à ces interrogations ou à celles de la monstrueuse consommation énergétique, notamment des centres de données (datacenters) ou des chaines de blocs (blockchains), de nouvelles solutions techniques, censées équilibrer le bilan carbone mais dont l’efficacité à long terme reste à prouver. Épouser la seule démarche technicienne des ingénieurs-entrepreneurs ne suffit donc pas à constituer un projet de société viable et il paraît urgent d’y adjoindre une dimension politique s’interrogeant sur le type de monde dans lequel nous souhaitons vivre. Le « tout numérique » est-il absolument le modèle à atteindre ? D’autres projets ne devraient-ils pas être mis en concurrence et faire l’objet d’un débat contradictoire ? Le continent européen, si prompt à proclamer ses valeurs, ne peut-il pas contribuer à une prise de conscience par des politiques publiques ambitieuses pour l’environnement au lieu de céder à une concurrence délétère avec les autres continents ?

En conclusion : pourquoi ne pas ralentir ?

Les impacts sociétaux et environnementaux majeurs de la transformation numérique de notre société nous imposeraient donc, de manière raisonnable, de commencer à ralentir au lieu de chercher à tout prix à accélérer, tout en nous ménageant des angles morts pour préserver nos libertés. Aucun des projets de régulation en cours au sein des organisations intergouvernementales n’a instruit de manière approfondie un simple principe, celui de la proportionnalité du recours à des systèmes algorithmiques décisionnels. Pour le formuler simplement, ce principe consisterait à réserver le recours aux algorithmes à des besoins sectoriels très déterminés, avec une forte valeur ajoutée sociétale. Par défaut, le recours à d’autres mécanismes de prise de décision, bien humains, serait à préférer, encadrés par de solides garanties procédurales. La plupart des experts et décideurs publics considéreront probablement comme absurde cette proposition, alors que nos vies sont déjà abondamment transformées en données par Google, Twitter ou Facebook et que nous avons déjà cédé depuis longtemps notre vie privée contre des services terriblement commodes.

Cependant, quel est le prix de cette commodité ? Un prix énergétique, nous l’avons vu, avec une augmentation de la consommation électrique supplémentaire estimée à 25% entre 2015 et 2030[29]. Rappelons aussi que l’entrainement d’un modèle de traitement de langage naturel produit plus de 300 tonnes de CO2, ce qui correspond aux émissions de l’ensemble du cycle de vie cinq véhicules automobiles ou encore 125 allers-retours en avion entre New York et Pékin[30]. Dans un contexte de recherche de frugalité pour les dépenses énergétiques afin de limiter les conséquences du réchauffement climatique, la perspective semble difficilement soutenable. Mais il y a également un prix sociétal, avec un modèle de société transformée en données, fragilisée face à des cyberattaques ou des manques de ressources (pour construire des matériels ou les alimenter), sans parler de notre plus grande emprise à la manipulation par le biais des petits coups de coude (nudges) des divers systèmes de recommandation ou d’information[31]. Enfin, cette industrie conduit aussi au retour d’une forme de prolétariat, des « travailleurs du clic », avec une vision des rapports sociaux embarquée dans les systèmes algorithmiques eux-mêmes et forgée par une élite numérique d’entrepreneurs masculins, « workaholics » (bourreaux de travail) et libertariens[32]

Prendre le temps de mesurer la juste place des algorithmes permettrait donc sans nul doute de limiter la consommation de ressources et de préserver des zones de liberté sans emprise du numérique, favorisant les interactions humaines au sein d’espaces déconnectés. Prendre le temps de mesurer la juste place des algorithmes, ce serait aussi favoriser l’expertise sur ce que savent faire (ou non) ces systèmes, pour en tirer le meilleur et créer ainsi de réelles conditions de confiance. Mais prendre ce temps, ce serait aussi déconstruire des décennies de politiques publiques et délaisser des perspectives économiques prometteuses à très court terme ; ce serait prendre le risque de la récession dans un contexte mondial déstabilisé par la pandémie et supporter le lourd poids politique d’aller à contre-courant des vents dominants d’un projet capitaliste devenu global. Mais n’est-ce pas là déjà le prix que nous aurons inévitablement à payer, bien au-delà des politiques publiques numériques, pour faire face aux enjeux environnementaux ?


[1] Les opinions exprimées ici n’engagent que son auteur et ne reflètent aucune position officielle du Conseil de l’Europe. L’auteur tient également à remercier Nicolas Régis, magistrat, pour la contribution qu’il a apporté à la relecture de cet article.

[2] L’acronyme d’intelligence artificielle sera présenté entre guillemets par commodité éditoriale. L’ensemble des technologies recouvertes par ce terme ne constituent naturellement pas une personnalité autonome et, afin de se garder de tout anthropomorphisme, il a été choisi de résumer les termes plus appropriés « d’outils d’intelligence artificielle » ou « d’applications d’intelligence artificielle » par le seul terme « d’IA » entre guillemets.

[3] La date retenue pour la naissance du terme intelligence artificielle est habituellement fixée en 1956, lors de la tenue de la conference de Dartmouth. L’article de lancement de cette conférence mentionne toutefois déjà ce terme dès 1955 :  J. McCarthy, M. Minsky, N. Rochester, C.E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, Août 1955

[4] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM/2021/206 final – https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52021PC0206&from=FR

[5] Pour une analyse des cadres juridiques des organisations intergouvernementales, voir Y. Meneceur, Les cadres juridiques des organisations intergouvernementales pour une régulation de l’intelligence artificielle, Revue pratique de la prospective et de l’innovation, n°1, Juillet 2021, p.31

[6] Voir, en ce qui concerne la proposition de règlement de la Commission européenne : N. Smuha, E. Ahmed-Rengers, A. Harkens, W. Li, J.MacLaren, R. Piselli, K. Yeung, How the EU can achieve Legally Trustworthy AI: A Response to the European Commission’s Proposal for an Artificial Intelligence Act, SSRN, 5 août 2021

[7] Même si certaines espèces animales parviennent bien à utiliser de manière simple des outils, l’espèce humaine s’est caractérisée par son appropriation de techniques et de combinaison de techniques ayant une influence sur sa propre évolution – voir F. Sigaut, Comment Homo devint Faber. Comment l’outil fit l’homme, CNRS éditions, 2013 cité par F. Jarrige, Techno-critiques, Du refus des machines à la contestation des technosciences, La Découverte/Poche, 2016, p. 24

[8] S’agissant de l’émergence de la statistique à des fins de gouvernance, voir O. Rey, Quand le monde s’est fait nombre, coll. Les Essais, Stock, 2016, p.95 et s.

[9] K. Schwab, La quatrième révolution industrielle, Dunod, 2017

[10] Sur les discours transhumanistes, voir Y. Meneceur, L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020, p.259 et s.

[11] A. Rouvroy et T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation, Réseaux 2013/1, n°177, 2013, pp163-196

[12] Parmi les nombreux articles sur le sujet, voir par exemple M. Sainato, 14-hour days and no bathroom breaks: Amazon’s overworked delivery drivers, The Guardian, 11 mars 2021 ou M. McFarland, Amazon thrived during the pandemic. These drivers say they paid the price, CNN Business, 3 juin 2021

[13] E. Sadin, L’intelligence artificielle ou l’enjeu du siècle : anatomie d’un antihumanisme radical, L’Échappée, 2018, p.79 et s.

[14] P. Walsh, Do Algorithms Have Politics?, accessible sur : https://www.solotablet.it/lifestyle/do-algorithms-have-politics – Consulté le 9 août 2021

[15] L. Winner, Do Artifacts Have Politics?, Daedalus, Vol. 109, No. 1, Modern Technology: Problem or Opportunity?, 1980, , pp. 121-136 – Voir également les travaux du James Jerome Gibson sur les affordances, néologisme traduisant cette faculté de l’homme à adapter son comportement en fonction des opportunités d’action de son environnement.

[16] C. S. Calude, G. Longo, Le déluge des corrélations fallacieuses dans le big data, dans La toile que nous voulons – Le web néguentropique, B. Stiegler (dir.), : FYP éd., 2017, p. 156

[17] Voir la synthèse des débats de la Conférence NeurIPS 2017 : Kirthi Shankar Sivamani : The Great AI Debate : Interpretability, Medium, 19 juillet 2019

[18] V. par exemple I.J. Goodfellow, J. Shlens, C. Szegedy, Explaining and harnessing adversarial example, 20 mars 2015

[19] Sur la question des biais, voir notamment T.Hellström, V.Dignum, S.Bensch, Bias in Machine Learning — What is it Good for?, arXiv, 20 septembre 2020, accessible sur : https://arxiv.org/abs/2004.00686 – Consulté le 17 août 2021 ; Sur l’objectivité des décisions algorithmiques, voir aussi l’entretien donné par Philippe Besse, professeur de Mathématiques à l’université de Toulouse-INSA, donné au blog du laboratoire de l’autorité de protection des données française : F. Vallet, Philippe Besse : « Les décisions algorithmiques ne sont pas plus objectives que les décisions humaines », LINC, 2 juin 2020, accessible sur : https://linc.cnil.fr/fr/philippe-besse-les-decisions-algorithmiques-ne-sont-pas-plus-objectives-que-les-decisions-humaines – Consulté le 9 août 2021

[20] S. Ben-David, P. Hrubeš, S. Moran, A. Shpilka, A. Yehudayoff, Learnability can be undecidable, Nature Machine Intelligence 1, 2019, pp.44-48

[21] L’arrivée de véhicules totalement « autonomes » est présentée comme imminente depuis des années et les annonces volontaristes d’entrepreneurs comme Elon Musk sont régulièrement contredites. Pour une étude plus approfondie de cette question, voir Y. Meneceur, L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne, op.cit., p. 83 et s.

[22] Sur la confusion entre apprentissage automatique et intelligence artificielle, v. par exemple K. Pretz, Stop Calling Everything AI, Machine-Learning Pioneer Says, IEEE Spectrum, 31 mars 2021

[23] Voir à ce titre les développements de F. Jarrige, Techno-critiques, Du refus des machines à la contestation des technosciences, La Découverte/Poche, 2016 (2014)

[24] K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021

[25] K. Hao, Stop talking about AI ethics. It’s time to talk about power, MIT Technology Review, 23 avril 2021

[26] Voir le site internet https://anatomyof.ai

[27] K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, op.cit, p.31

[28] IPCC, AR6 Synthesis report, 9 août 2021, accessible sur : https://www.ipcc.ch/report/sixth-assessment-report-cycle/ – Consulté le 9 août 2021

[29] Site internet du ministère du développement durable, Numérique et consommation énergétique, 27 septembre 2019, accessible sur : https://ree.developpement-durable.gouv.fr/themes/pressions-exercees-par-les-modes-de-production-et-de-consommation/prelevements-de-ressources-naturelles/energie/article/numerique-et-consommation-energetique – Consulté le 9 août 2021

[30] K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, op.cit, p.42

[31] Voir en ce sens la Déclaration du Comité des Ministres du Conseil de l’Europe sur les capacités de manipulation des processus algorithmiques, 13 février 2019, accessible sur : https://search.coe.int/cm/pages/result_details.aspx?ObjectId=090000168092dd4c – Consulté le 9 août 2021

[32] Voir J. Wajcman, How SIlicon Valley Sets Time, citée par K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, op.cit, p.77, voir également A. Casilli, En attendant les robots – Enquête sur le travail du clic, Seuil, 2019