{"id":2116,"date":"2022-05-31T21:39:55","date_gmt":"2022-05-31T19:39:55","guid":{"rendered":"https:\/\/lestempselectriques.net\/?p=2116"},"modified":"2022-08-08T23:26:00","modified_gmt":"2022-08-08T21:26:00","slug":"repenser-la-justice-sociale-en-contexte-dia-defis-majeurs","status":"publish","type":"post","link":"https:\/\/lestempselectriques.net\/index.php\/2022\/05\/31\/repenser-la-justice-sociale-en-contexte-dia-defis-majeurs\/","title":{"rendered":"Repenser la justice sociale en contexte d&rsquo;IA : d\u00e9fis majeurs"},"content":{"rendered":"\n<p class=\"has-small-font-size\"><em>Texte pr\u00e9par\u00e9 et pr\u00e9sent\u00e9 dans le cadre de la conf\u00e9rence internationale organis\u00e9e par la Chaire Justice sociale et intelligence artificielle &#8211; Fondation Abeona \/ ENS \/ OBVIA&nbsp;le 31 mai 2022, \u00e0 l&rsquo;ENS Ulm<\/em><\/p>\n\n\n\n<p>Pr\u00e9sent\u00e9 le 31 mai 2022 \u00e0 l&rsquo;ENS (Paris) &#8211; Ce texte a d\u00e9j\u00e0 fait l&rsquo;objet d&rsquo;une publication dans la revue \u00c9thique publique, vol. 23, n\u00b0 2&nbsp;(2021) <a href=\"https:\/\/lestempselectriques.net\/wp-admin\/post.php?post=2116&amp;action=edit#_ftn1\">[1]<\/a> &#8211; Accessible sur <a rel=\"noreferrer noopener\" href=\"https:\/\/doi.org\/10.4000\/ethiquepublique.6323\" target=\"_blank\">https:\/\/doi.org\/10.4000\/ethiquepublique.6323<\/a><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large is-resized\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/lestempselectriques.net\/wp-content\/uploads\/2022\/05\/FUF2zf9WUAMy2Vz-1024x794.jpg\" alt=\"\" class=\"wp-image-2117\" width=\"512\" height=\"397\" srcset=\"https:\/\/lestempselectriques.net\/wp-content\/uploads\/2022\/05\/FUF2zf9WUAMy2Vz-1024x794.jpg 1024w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2022\/05\/FUF2zf9WUAMy2Vz-300x233.jpg 300w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2022\/05\/FUF2zf9WUAMy2Vz-768x596.jpg 768w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2022\/05\/FUF2zf9WUAMy2Vz-1536x1191.jpg 1536w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2022\/05\/FUF2zf9WUAMy2Vz.jpg 2048w\" sizes=\"auto, (max-width: 512px) 100vw, 512px\" \/><figcaption>ENS Ulm, 31 mai 2022<\/figcaption><\/figure>\n<\/div>\n\n\n<p class=\"has-text-align-center\"><strong>Les trois grands d\u00e9fis pos\u00e9s par la gouvernance de l\u2019intelligence artificielle et de la transformation num\u00e9rique<\/strong><\/p>\n\n\n\n<p>La c\u00e9l\u00e9rit\u00e9 avec laquelle notre soci\u00e9t\u00e9 et nos modes de vie se transforment sous l\u2019effet des technologies num\u00e9riques est tout \u00e0 fait in\u00e9dite. L\u2019intelligence artificielle (\u00ab&nbsp;IA<a id=\"_ftnref2\" href=\"#_ftn2\">[2]<\/a>&nbsp;\u00bb) est certainement l\u2019un principaux moteurs de cette transformation, au c\u0153ur d\u2019un nombre croissant de services qui peuplent d\u00e9j\u00e0 notre quotidien. Ce terme \u00ab&nbsp;d\u2019IA&nbsp;\u00bb, dont le contenu a substantiellement \u00e9volu\u00e9 depuis sa cr\u00e9ation en 1955<a id=\"_ftnref3\" href=\"#_ftn3\">[3]<\/a>, a \u00e9t\u00e9 r\u00e9enchant\u00e9 depuis le d\u00e9but des ann\u00e9es 2010 et d\u00e9signe d\u00e9sormais les divers algorithmes d\u2019apprentissage automatique (<em>machine learning<\/em>, comme l\u2019apprentissage profond \u2013 <em>deep learning<\/em>), dont les r\u00e9sultats des traitements sont apparus comme particuli\u00e8rement spectaculaires non seulement pour la reconnaissance d\u2019images ou de sons, mais aussi pour le traitement du langage naturel.<\/p>\n\n\n\n<!--more-->\n\n\n\n<p>Les d\u00e9cideurs publics promeuvent depuis plusieurs d\u00e9cennies le d\u00e9veloppement de l\u2019informatique et des technologies num\u00e9riques, convaincus par les promesses d\u2019am\u00e9lioration de nos vies, ainsi que par les perspectives de profits \u00e9conomiques toujours plus vertigineuses qui se comptent d\u00e9sormais en milliards de milliards d\u2019euros. Dans la comp\u00e9tition du d\u00e9veloppement de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb en particulier, la Commission europ\u00e9enne est intervenue en avril 2021 pour s\u2019efforcer de canaliser l\u2019effervescence des initiatives<a href=\"#_ftn4\" id=\"_ftnref4\">[4]<\/a>. L\u2019id\u00e9e pour les r\u00e9gulateurs de l\u2019Union est d\u2019utiliser le droit \u00e0 la fois comme instrument de stimulation et de d\u00e9veloppement du march\u00e9 int\u00e9rieur, au vu de la tr\u00e8s intense activit\u00e9 commerciale autour de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb, et comme technique d\u2019encadrement de l\u2019emploi de ces nouveaux outils pour pr\u00e9venir les risques importants qu\u2019ils font courir sur le respect d\u2019un certain nombre de droits et valeurs parmi les plus fondamentaux. Le futur de la gouvernance de cette technologie s\u2019annonce donc aujourd\u2019hui plut\u00f4t \u00e9quilibr\u00e9, entre objectifs \u00e9conomiques, respect des droits de l\u2019Homme et exigences \u00e9thiques, avec des organisations intergouvernementales qui paraissent s\u2019accorder sur la n\u00e9cessit\u00e9 de mettre en place des m\u00e9canismes de v\u00e9rification des \u00ab&nbsp;IA&nbsp;\u00bb avant leur mise en service ou leur introduction sur le march\u00e9<a href=\"#_ftn5\" id=\"_ftnref5\">[5]<\/a>.<\/p>\n\n\n\n<p>En l\u2019\u00e9tat, on pourrait se satisfaire du chemin parcouru en si peu de temps, en se rappelant qu\u2019il aura fallu des d\u00e9cennies dans d\u2019autres domaines industriels, comme la pharmaceutique, pour parvenir \u00e0 cette forme de maturit\u00e9. Pour autant, la capacit\u00e9 de certains de ces nouveaux instruments juridiques \u00e0 pr\u00e9venir efficacement les violations des droits fondamentaux et cr\u00e9er une v\u00e9ritable \u00ab&nbsp;IA digne de confiance&nbsp;\u00bb reste discutable pour certains<a href=\"#_ftn6\" id=\"_ftnref6\">[6]<\/a>. Mais c\u2019est bien plus dans l\u2019examen des pr\u00e9ambules de ces textes de r\u00e9gulation que se r\u00e9v\u00e8le un probl\u00e8me&nbsp;de fond bien plus structurel : &nbsp;les discours des organisations intergouvernementales se r\u00e9pondent avec un appareil critique relativement identique, cr\u00e9ant ainsi une forme de consensus consistant \u00e0 ne s\u2019interroger que sur les risques d\u2019atteintes aux droits et libert\u00e9s des individus, mais sans ne jamais interroger la pertinence du v\u00e9ritable projet de soci\u00e9t\u00e9 que sous-tendent ces nouvelles technologies. Ainsi, un certain nombre de grands d\u00e9fis paraissent avoir \u00e9t\u00e9 notablement sous-estim\u00e9s ces derni\u00e8res ann\u00e9es et au moins trois s\u00e9ries d\u2019actions m\u00e9riteraient de s\u2019imposer dans l\u2019agenda des r\u00e9gulateurs : d\u00e9construire le consensus sur la neutralit\u00e9 des technologies num\u00e9riques et de l\u2019intelligence artificielle (1)&nbsp;; objectiver les capacit\u00e9s des syst\u00e8mes d\u2019intelligence artificielle (2)&nbsp;; \u00e9valuer la soutenabilit\u00e9 environnementale du mod\u00e8le d\u2019une soci\u00e9t\u00e9 num\u00e9rique (3).<\/p>\n\n\n\n<p><strong>1. D\u00e9construire le consensus sur la neutralit\u00e9 des technologies num\u00e9riques et de l\u2019intelligence artificielle<\/strong><\/p>\n\n\n\n<p>\u00c0 entendre les r\u00e9gulateurs de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb, la technologie ne serait ni bonne ni mauvaise et nous ne devrions ne nous concentrer que sur ses seuls usages. Ce discours ignore toutefois le lien extr\u00eamement \u00e9troit entre les soci\u00e9t\u00e9s humaines et le syst\u00e8me technique compos\u00e9 par l\u2019ensemble de leurs artefacts&nbsp;: chaque d\u00e9couverte majeure ayant contribu\u00e9 \u00e0 remodeler substantiellement notre environnement, tout en d\u00e9ployant parfois ses effets sur plusieurs si\u00e8cles<a href=\"#_ftn7\" id=\"_ftnref7\">[7]<\/a>. Ainsi la port\u00e9e de l\u2019invention de l\u2019imprimerie a d\u00e9pass\u00e9 la seule m\u00e9canisation de la reproduction d\u2019ouvrages : la R\u00e9forme de l\u2019\u00c9glise, le si\u00e8cle des Lumi\u00e8res, l\u2019acc\u00e8s au savoir de mani\u00e8re g\u00e9n\u00e9rale ont \u00e9t\u00e9 autant d\u2019\u00e9v\u00e9nements li\u00e9s \u00e0 cette invention. L\u2019av\u00e8nement des processus industriels au XIXe si\u00e8cle a \u00e9galement profond\u00e9ment recompos\u00e9 les rapports entre individus ainsi que nos lieux de vie et nos modes de gouvernance<a href=\"#_ftn8\" id=\"_ftnref8\">[8]<\/a>. Poursuivant cette dynamique continue de progr\u00e8s, nous en serions aujourd\u2019hui \u00e0 notre 4<sup>\u00e8me<\/sup> r\u00e9volution industrielle avec la rencontre entre \u00ab le monde du physique, du num\u00e9rique, du biologique et de l\u2019innovation<a href=\"#_ftn9\" id=\"_ftnref9\">[9]<\/a> \u00bb dont les outils d\u00e9passent d\u00e9j\u00e0 la simple sophistication de moyens existants et nourrissent les espoirs des transhumanistes<a href=\"#_ftn10\" id=\"_ftnref10\">[10]<\/a>.<\/p>\n\n\n\n<p>C\u2019est pourquoi l\u2019originalit\u00e9 du syst\u00e8me compos\u00e9 par les interactions entre les humains et les technologies num\u00e9riques nous impose un effort de d\u00e9cryptage de l\u2019environnement en train de se composer afin d\u2019en saisir sa composition et sa gouvernementalit\u00e9<a href=\"#_ftn11\" id=\"_ftnref11\">[11]<\/a>. La transformation que nous sommes actuellement en train de vivre avec la traduction en donn\u00e9es des moindres recoins de nos vies, aux fins de leur traitement algorithmique, n\u2019est pas qu\u2019une simple optimisation de nos modes de fonctionnement. Cette transition nous dirige en r\u00e9alit\u00e9 vers un tout nouveau mod\u00e8le de soci\u00e9t\u00e9 qui porte \u00e9videmment en lui un progr\u00e8s technique, mais aussi son lot de d\u00e9senchantement, d\u2019emprise, voire de totalitarisme. Et ceci non pas du seul fait de la mani\u00e8re dont nous utiliserions ces outils, mais du fait de la structure tiss\u00e9e par l\u2019enchev\u00eatrement de m\u00e9canismes informatiques et statistiques cens\u00e9s avoir la capacit\u00e9 de mieux appr\u00e9cier, en toutes circonstances, un nombre toujours plus important de situations. De mani\u00e8re tout \u00e0 fait concr\u00e8te, le fonctionnement d\u2019une entreprise comme Amazon permet d\u00e9j\u00e0 de constater combien la pr\u00e9sence de contrema\u00eetres algorithmiques transforme, par leur nature m\u00eame, les rapports de travail<a href=\"#_ftn12\" id=\"_ftnref12\">[12]<\/a>. De mani\u00e8re plus g\u00e9n\u00e9rale, nombre d\u2019auteurs nous alertent sur la terrible intrication de ce qui pourrait \u00eatre qualifi\u00e9 de v\u00e9ritables <em>cages logiques<\/em>, dans lesquelles nos doubles statistiques s\u2019engoncent de plus en plus, m\u00eame si nous nous sentons toujours pleinement convaincus d\u2019\u00eatre libres de nos choix. Bien heureusement, comme nous l\u2019avons vu avec les applications de tra\u00e7age des contacts durant la crise sanitaire, les droits fondamentaux nous prot\u00e8gent encore de nombre de d\u00e9rives. Mais l\u2019exercice du pouvoir sur les individus, cette biopolitique th\u00e9oris\u00e9e par Michel Foucault, se compl\u00e8te aujourd\u2019hui de discrets m\u00e9canismes de prise de d\u00e9cisions algorithmiques, de plus en plus autonomes, dont la cr\u00e9ation ne repose sur aucune base d\u00e9mocratique et qui cong\u00e9dierait m\u00eame la chose politique<a href=\"#_ftn13\" id=\"_ftnref13\">[13]<\/a>.<\/p>\n\n\n\n<p>Malgr\u00e9 ce constat, les d\u00e9bats sur le num\u00e9rique et \u00ab l\u2019IA \u00bb sont encore trop souvent r\u00e9duits \u00e0 une sempiternelle opposition entre Anciens et Modernes, conservateurs et progressistes, pour ne pas dire ringards s\u2019\u00e9clairant \u00e0 la lampe \u00e0 huile contre fringants et souriants ing\u00e9nieurs-entrepreneurs. Si cette dichotomie classique a le m\u00e9rite de la simplicit\u00e9, elle ne permet pas de mettre en relief une ligne de fracture bien plus signifiante&nbsp;: celle s\u00e9parant les tenants d\u2019une totale neutralit\u00e9 des technologies de ceux essayant, au contraire, d\u2019en analyser l\u2019impact social profond. Le philosophe Philip Walsh, dans un article de blog intitul\u00e9 \u00ab&nbsp;<em>Do Algorithms Have Politics<\/em><a href=\"#_ftn14\" id=\"_ftnref14\">[14]<\/a>?&nbsp;\u00bb (Les algorithmes ont-ils une id\u00e9ologie&nbsp;?), reprend \u00e0 ce sujet les travaux du chercheur en sciences sociales Langdon Winner qui s\u2019\u00e9tait interrog\u00e9 dans les ann\u00e9es 1980 sur la technologie, en g\u00e9n\u00e9ral, et \u00e0 son impact sur la soci\u00e9t\u00e9<a href=\"#_ftn15\" id=\"_ftnref15\">[15]<\/a>. Pour Winner, les technologies invitent \u00e0 certains modes d\u2019action, \u00e0 certaines habitudes, voire v\u00e9hiculent une v\u00e9ritable id\u00e9ologie et nous conduisent donc \u00e0 adapter nos comportements en cons\u00e9quence. Partant de ce postulat, Walsh rappelle que les algorithmes ont, de plus, des caract\u00e9ristiques inh\u00e9rentes bien particuli\u00e8res, avec une certaine fa\u00e7on d\u2019ordonner math\u00e9matiquement le monde et de le classer en cat\u00e9gories souvent parfaitement arbitraires. En s\u2019ins\u00e9rant en profondeur au sein de nos repr\u00e9sentations sociales et politiques, ils contribuent \u00e0 peser significativement sur nos choix, nos actions et nos d\u00e9cisions, avec leur prisme d\u00e9formant. Pour Walsh, il serait d\u00e8s lors na\u00eff de consid\u00e9rer que les difficult\u00e9s pos\u00e9es par ces nouveaux outils ne sont que des probl\u00e8mes externes (comme les biais et la qualit\u00e9 des donn\u00e9es). Bien au contraire, nous devrions nous d\u00e9partir durablement d\u2019une perception purement instrumentale des technologies num\u00e9riques, afin de parvenir \u00e0 consid\u00e9rer dans son ensemble le tout nouveau mod\u00e8le de soci\u00e9t\u00e9 r\u00e9sultant de la mise en \u0153uvre massive des algorithmes.<\/p>\n\n\n\n<p><strong>2. Objectiver les capacit\u00e9s des syst\u00e8mes d\u2019intelligence artificielle<\/strong><\/p>\n\n\n\n<p>Les politiques de r\u00e9gulation de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb \u00e9chouent donc le plus souvent, et en tout premier lieu, \u00e0 se saisir de l\u2019image du nouvel ensemble socio-technique en train de se dessiner. Mais les politiques de r\u00e9gulation de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb \u00e9chouent \u00e9galement \u00e0 se saisir d\u2019autres questions tout aussi essentielles&nbsp;: celles des difficult\u00e9s structurelles de fonctionnement qui fragilisent ces syst\u00e8mes algorithmiques, que l\u2019on ne cesse de corriger, de \u00ab&nbsp;patcher&nbsp;\u00bb et d\u2019adapter. Nombre de d\u00e9cideurs publics ou de r\u00e9gulateurs con\u00e7oivent ces machines de mani\u00e8re abstraite, ordonn\u00e9es et rang\u00e9es dans des salles blanches de centre de donn\u00e9es (<em>datacenters<\/em>), alors que l\u2019on devrait plut\u00f4t retenir l\u2019image d\u2019un moteur \u00e0 vapeur tr\u00e8s artisanal, bricol\u00e9 avec de nombreux tuyaux et des rustines.<\/p>\n\n\n\n<p>L\u2019accumulation de ces difficult\u00e9s est telle que nous devrions, ici aussi, chercher \u00e0 disposer d\u2019une vue d\u2019ensemble plut\u00f4t que de consid\u00e9rer ces probl\u00e8mes isol\u00e9ment. C\u2019est ainsi que l\u2019on pourrait \u00e9valuer si ces dispositifs sont suffisamment matures pour sortir des laboratoires et op\u00e9rer dans le monde r\u00e9el, notamment pour des fonctions d\u00e9cisionnelles dans des domaines aussi sensibles que les services publics ou la sant\u00e9. Pour ne citer que quelques-unes de ces difficult\u00e9s identifi\u00e9es depuis bien longtemps, et malgr\u00e9 tous les efforts de recherche d\u2019explicabilit\u00e9 des mod\u00e8les d\u2019apprentissage, nous pourrions retenir les approximations de nombre de syst\u00e8mes \u00ab&nbsp;d\u2019IA&nbsp;\u00bb du fait de corr\u00e9lations relevant du hasard ou \u00e9tant interpr\u00e9t\u00e9es de mani\u00e8re erron\u00e9es comme des causalit\u00e9s<a href=\"#_ftn16\" id=\"_ftnref16\">[16]<\/a>. Un mod\u00e8le d\u00e9couvrant par exemple que les asthmatiques ont un plus faible risque que le reste de la population de d\u00e9velopper des maladies graves des poumons ne doit pas conduire \u00e0 consid\u00e9rer qu\u2019ils ont d\u00e9velopp\u00e9 une quelconque forme de protection contre des complications pulmonaires, mais plut\u00f4t qu\u2019ils vont consulter plus rapidement des sp\u00e9cialistes du fait de leur fragilit\u00e9<a href=\"#_ftn17\" id=\"_ftnref17\">[17]<\/a>. Si ce raisonnement appara\u00eet simple et de bon sens, comment s\u2019assurer face \u00e0 des milliers de param\u00e8tres que, dans la vaste intrication des liens d\u00e9couverts par une machine, ceux-ci ne rel\u00e8vent pas de telles confusions&nbsp;? Une autre difficult\u00e9 est relative \u00e0 la facult\u00e9 de pouvoir tromper les syst\u00e8mes de reconnaissance d\u2019images en leur soumettant des images alt\u00e9r\u00e9es volontairement, avec du contenu parfois ind\u00e9celable \u00e0 l\u2019\u0153il nu<a href=\"#_ftn18\" id=\"_ftnref18\">[18]<\/a>. Cette faiblesse, qui tient au fait qu\u2019une image est reconnue par une interpr\u00e9tation statistique de sa structure et non pour ce qu\u2019elle repr\u00e9sente r\u00e9ellement, demeure encore assez insoluble. Par ailleurs, il est \u00e9galement aujourd\u2019hui clairement acquis dans les d\u00e9bats que les traitements algorithmiques pr\u00e9sentent leurs propres biais, loin de neutraliser les biais humains<a href=\"#_ftn19\" id=\"_ftnref19\">[19]<\/a>. Moins que de fiabiliser les d\u00e9cisions humaines, il semblerait donc que l\u2019on rajouterait plut\u00f4t aux biais (des humains) de nouveaux biais (venant des machines). Concluons cette br\u00e8ve liste, non exhaustive, avec l\u2019impossibilit\u00e9 de d\u00e9montrer que les algorithmes d\u2019apprentissage automatique \u00ab&nbsp;apprennent&nbsp;\u00bb bien ce pour quoi ils ont \u00e9t\u00e9 entra\u00een\u00e9s<a href=\"#_ftn20\" id=\"_ftnref20\">[20]<\/a> ou encore les performances significativement amoindries des syst\u00e8mes op\u00e9rant dans des environnements ouverts, comme les v\u00e9hicules \u00ab&nbsp;autonomes&nbsp;\u00bb se d\u00e9pla\u00e7ant sur des routes peupl\u00e9es d\u2019\u00e9v\u00e9nements statistiquement impr\u00e9visibles<a href=\"#_ftn21\" id=\"_ftnref21\">[21]<\/a>.<\/p>\n\n\n\n<p>Ces difficult\u00e9s, encore une fois, sont bien connues et sont tr\u00e8s habituellement consid\u00e9r\u00e9es isol\u00e9ment, lors d\u2019interminables d\u00e9bats d\u2019experts explorant des s\u00e9ries toujours plus impressionnantes de contremesures et de solutions techniques. Pourtant ces questions constituent, cumul\u00e9es ensemble, le c\u0153ur d\u2019un tr\u00e8s s\u00e9rieux <em>probl\u00e8me technique<\/em> qui devrait nous conduire \u00e0 remettre en cause le projet m\u00eame de g\u00e9n\u00e9ralisation de l\u2019apprentissage automatique comme solution viable \u00e0 des cat\u00e9gories toujours plus diverses d\u2019applications, voire nous faire reconsid\u00e9rer la pr\u00e9tention d\u2019employer cette approche pour progresser vers une <em>intelligence artificielle<\/em> <em>g\u00e9n\u00e9rale<\/em> en sophistiquant les m\u00e9thodes d\u2019apprentissage<a href=\"#_ftn22\" id=\"_ftnref22\"><em><strong>[22]<\/strong><\/em><\/a>. L\u2019on en arrive \u00e0 se demander si cet ent\u00eatement ne divertie pas la recherche de toutes nouvelles pistes de travail pour r\u00e9ellement progresser dans le domaine. Malgr\u00e9 cela, les discours publics sur les capacit\u00e9s de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb \u00e0 am\u00e9liorer notre quotidien ne tarissent pas&nbsp;: ce qui ne semble pas possible aujourd\u2019hui le sera n\u00e9cessairement demain en empilant toujours plus de donn\u00e9es ou en rajoutant une nouvelle rustine \u00e0 l\u2019ensemble. En guise de r\u00e9flexe critique, seule est convoqu\u00e9e une tr\u00e8s artificielle balance entre des b\u00e9n\u00e9fices, esp\u00e9r\u00e9s, et des risques, r\u00e9sultant des seuls mauvais usages de la technologie. En d\u2019autres mots, par manque de culture technologique et lov\u00e9s dans la certitude la neutralit\u00e9 des algorithmes, les r\u00e9gulateurs s\u2019entretiennent des illusions forg\u00e9es par le marketing de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb et abandonnent tout effort de mesure des probl\u00e8mes techniques aux seuls techniciens.<\/p>\n\n\n\n<p>Quel extraordinaire succ\u00e8s pour l\u2019industrie informatique et num\u00e9rique&nbsp;!<\/p>\n\n\n\n<p>Jamais un outil n\u2019avait r\u00e9ussi, en un si court laps de temps et de mani\u00e8re si invasive, \u00e0 occuper autant d\u2019espace dans nos vies et ses interstices. \u00c0 la faveur de sa miniaturisation dans les ann\u00e9es 1970, l\u2019ordinateur a colonis\u00e9 en quelques d\u00e9cennies tant nos bureaux de travail que nos salons, tout en s\u2019interconnectant mondialement dans les ann\u00e9es 1990\/2000 avec internet. Ancr\u00e9s d\u00e9finitivement dans nos poches et dans les moindres recoins de nos vies avec les t\u00e9l\u00e9phones intelligents (<em>smartphones<\/em>), il semble aujourd\u2019hui totalement d\u00e9plac\u00e9 de s\u2019interroger sur la viabilit\u00e9 d\u2019algorithmes pourtant tr\u00e8s artisanaux. Alors, comment expliquer cette difficult\u00e9 \u00e0 faire \u00e9merger un discours critique sur les caract\u00e9ristiques intrins\u00e8ques de \u00ab&nbsp;l\u2019IA&nbsp;\u00bb, des algorithmes et du num\u00e9rique&nbsp;en g\u00e9n\u00e9ral ?<\/p>\n\n\n\n<p>Outre le manque de culture technique des d\u00e9cideurs publics, d\u00e9j\u00e0 \u00e9voqu\u00e9, il faut aussi certainement y voir une combinaison d\u2019autres facteurs comme le d\u00e9veloppement d\u2019une \u00ab&nbsp;\u00e9cole des usages&nbsp;\u00bb en sciences sociales, qui a progressivement d\u00e9laiss\u00e9 l\u2019examen de l\u2019impact de l\u2019informatique sur les structures pour se concentrer sur l\u2019\u00e9tude approfondie du comportement des individus. M\u00eame si cette orientation s\u2019est r\u00e9alis\u00e9e en parfaite conscience des cons\u00e9quences de la g\u00e9n\u00e9ralisation de l\u2019informatique, elle a, dans le m\u00eame temps, pleinement contribu\u00e9 \u00e0 forger le consensus selon lequel ce n\u2019est pas la technologie en soi qui serait \u00e0 mettre en cause, mais la mani\u00e8re dont les pouvoirs \u00e9conomiques et politiques la pervertissent<a href=\"#_ftn23\" id=\"_ftnref23\">[23]<\/a>.<\/p>\n\n\n\n<p><strong>3. \u00c9valuer la soutenabilit\u00e9 environnementale du mod\u00e8le d\u2019une soci\u00e9t\u00e9 num\u00e9rique<\/strong><\/p>\n\n\n\n<p>D\u00e9construire le consensus sur la neutralit\u00e9 des technologies et objectiver les capacit\u00e9s des syst\u00e8mes \u00ab&nbsp;d\u2019IA&nbsp;\u00bb sont donc deux pr\u00e9alables trop souvent ignor\u00e9s dans la construction de la gouvernance de cette technologie, afin de ne pas en ralentir son d\u00e9veloppement dans un contexte de concurrence mondialis\u00e9e. Il est toutefois \u00e0 craindre qu\u2019une r\u00e9alit\u00e9 ne s\u2019impose avec une grande brutalit\u00e9 \u00e0 tous les blocs en comp\u00e9tition&nbsp;: cette r\u00e9alit\u00e9, c\u2019est la limite des ressources de notre plan\u00e8te, qui sont tr\u00e8s largement surexploit\u00e9es depuis des d\u00e9cennies. Une fois arriv\u00e9s au bout des disponibilit\u00e9s en terres rares, comment continuerons-nous de produire les mat\u00e9riels physiques supports des technologies num\u00e9riques&nbsp;? La p\u00e9nurie de semi-conducteurs r\u00e9sultant du d\u00e9sordre provoqu\u00e9 par la pand\u00e9mie est un signal d\u2019alarme on ne peut plus clair sur notre actuelle d\u00e9pendance et la fragilit\u00e9 en r\u00e9sultant.<\/p>\n\n\n\n<p>Kate Crawford, professeure \u00e0 l&rsquo;Universit\u00e9 de New York et chercheuse \u00e0 Microsoft, a illustr\u00e9 dans son Atlas de l\u2019IA (\u00ab&nbsp;Atlas of AI&nbsp;\u00bb) l\u2019impact profond du d\u00e9veloppement de cette technologie sur notre plan\u00e8te et des enjeux de pouvoirs y aff\u00e9rant<a href=\"#_ftn24\" id=\"_ftnref24\">[24]<\/a>. Crawford s\u2019est tout d\u2019abord rendue physiquement sur le lieu d\u2019extraction du lithium, indispensable pour cr\u00e9er des batteries pour les terminaux mobiles ou les voitures \u00e9lectriques. Le constat est accablant, et nous renvoie aux cons\u00e9quences de la ru\u00e9e vers l\u2019or du XIXe si\u00e8cle o\u00f9 de vastes zones ont \u00e9t\u00e9 rendues st\u00e9riles pour enrichir des villes et des individus encore prosp\u00e8res aujourd\u2019hui (d\u00e9j\u00e0 dans l\u2019ouest des \u00c9tats-Unis). Le parall\u00e8le avec la logique de fonctionnement actuel de l\u2019industrie num\u00e9rique (extraction massive des min\u00e9raux pour construire des mat\u00e9riels, extraction massive de donn\u00e9es pour faire fonctionner les algorithmes, concentration des richesses produites avec un tr\u00e8s faible \u00ab&nbsp;ruissellement&nbsp;\u00bb, indiff\u00e9rence aux dommages caus\u00e9s) nous laisse percevoir un mod\u00e8le de pur et simple pillage n\u2019\u00e9tant absolument pas p\u00e9renne dans le temps<a href=\"#_ftn25\" id=\"_ftnref25\">[25]<\/a>. Cette \u00e9tude de Crawford a trouv\u00e9 ses fondements en 2018 avec l\u2019artiste Vladan Joler, en illustrant la complexit\u00e9 des ressources \u00e0 mobiliser pour ex\u00e9cuter une simple commande vocale sur un assistant personnel<a href=\"#_ftn26\" id=\"_ftnref26\">[26]<\/a>. De la conception, \u00e0 l\u2019exploitation et au recyclage des appareils, l\u2019impact environnemental est disproportionn\u00e9 au regard de services parfois d\u00e9risoires, comme pour s\u2019enqu\u00e9rir du temps qu\u2019il va faire ou lancer un morceau de musique. En syst\u00e9matisant ce travail, Crawford nous invite \u00e0 une prise de conscience tout \u00e0 fait \u00e9vidente&nbsp;: nous sommes en train d\u2019\u00e9puiser des quantit\u00e9s consid\u00e9rables des mat\u00e9riaux terrestres pour servir l\u2019espace de quelques secondes du temps g\u00e9ologique<a href=\"#_ftn27\" id=\"_ftnref27\">[27]<\/a>. Crawford d\u00e9montre ainsi avec une grande acuit\u00e9 la vision \u00e0 tr\u00e8s court terme des politiques publiques actuelles, d\u2019autant plus flagrantes si on lie ses conclusions \u00e0 celles du GIEC sur l\u2019\u00e9volution de notre climat<a href=\"#_ftn28\" id=\"_ftnref28\">[28]<\/a>.<\/p>\n\n\n\n<p>Notre d\u00e9pendance sans cesse plus grande au num\u00e9rique a donc un co\u00fbt exorbitant, difficilement soutenable. Il est souvent avanc\u00e9 en r\u00e9ponse \u00e0 ces interrogations ou \u00e0 celles de la monstrueuse consommation \u00e9nerg\u00e9tique, notamment des centres de donn\u00e9es (<em>datacenters<\/em>) ou des chaines de blocs (<em>blockchains<\/em>), de nouvelles solutions techniques, cens\u00e9es \u00e9quilibrer le bilan carbone mais dont l\u2019efficacit\u00e9 \u00e0 long terme reste \u00e0 prouver. \u00c9pouser la seule d\u00e9marche technicienne des ing\u00e9nieurs-entrepreneurs ne suffit donc pas \u00e0 constituer un projet de soci\u00e9t\u00e9 viable et il para\u00eet urgent d\u2019y adjoindre une dimension politique s\u2019interrogeant sur le type de monde dans lequel nous souhaitons vivre. Le \u00ab&nbsp;tout num\u00e9rique&nbsp;\u00bb est-il absolument le mod\u00e8le \u00e0 atteindre&nbsp;? D\u2019autres projets ne devraient-ils pas \u00eatre mis en concurrence et faire l\u2019objet d\u2019un d\u00e9bat contradictoire&nbsp;? Le continent europ\u00e9en, si prompt \u00e0 proclamer ses valeurs, ne peut-il pas contribuer \u00e0 une prise de conscience par des politiques publiques ambitieuses pour l\u2019environnement au lieu de c\u00e9der \u00e0 une concurrence d\u00e9l\u00e9t\u00e8re avec les autres continents&nbsp;?<\/p>\n\n\n\n<p><strong>En conclusion&nbsp;: pourquoi ne pas ralentir&nbsp;?<\/strong><\/p>\n\n\n\n<p>Les impacts soci\u00e9taux et environnementaux majeurs de la transformation num\u00e9rique de notre soci\u00e9t\u00e9 nous imposeraient donc, de mani\u00e8re raisonnable, de commencer \u00e0 ralentir au lieu de chercher \u00e0 tout prix \u00e0 acc\u00e9l\u00e9rer, tout en nous m\u00e9nageant des angles morts pour pr\u00e9server nos libert\u00e9s. Aucun des projets de r\u00e9gulation en cours au sein des organisations intergouvernementales n\u2019a instruit de mani\u00e8re approfondie un simple principe, celui de la <em>proportionnalit\u00e9<\/em> du recours \u00e0 des syst\u00e8mes algorithmiques d\u00e9cisionnels. Pour le formuler simplement, ce principe consisterait \u00e0 r\u00e9server le recours aux algorithmes \u00e0 des besoins sectoriels tr\u00e8s d\u00e9termin\u00e9s, avec une forte valeur ajout\u00e9e soci\u00e9tale. Par d\u00e9faut, le recours \u00e0 d\u2019autres m\u00e9canismes de prise de d\u00e9cision, bien humains, serait \u00e0 pr\u00e9f\u00e9rer, encadr\u00e9s par de solides garanties proc\u00e9durales. La plupart des experts et d\u00e9cideurs publics consid\u00e9reront probablement comme absurde cette proposition, alors que nos vies sont d\u00e9j\u00e0 abondamment transform\u00e9es en donn\u00e9es par Google, Twitter ou Facebook et que nous avons d\u00e9j\u00e0 c\u00e9d\u00e9 depuis longtemps notre vie priv\u00e9e contre des services terriblement commodes.<\/p>\n\n\n\n<p>Cependant, quel est le prix de cette commodit\u00e9&nbsp;? Un <strong>prix \u00e9nerg\u00e9tique<\/strong>, nous l\u2019avons vu, avec une augmentation de la consommation \u00e9lectrique suppl\u00e9mentaire estim\u00e9e \u00e0 25% entre 2015 et 2030<a href=\"#_ftn29\" id=\"_ftnref29\">[29]<\/a>. Rappelons aussi que l\u2019entrainement d\u2019un mod\u00e8le de traitement de langage naturel produit plus de 300 tonnes de CO2, ce qui correspond aux \u00e9missions de l\u2019ensemble du cycle de vie cinq v\u00e9hicules automobiles ou encore 125 allers-retours en avion entre New York et P\u00e9kin<a href=\"#_ftn30\" id=\"_ftnref30\">[30]<\/a>. Dans un contexte de recherche de frugalit\u00e9 pour les d\u00e9penses \u00e9nerg\u00e9tiques afin de limiter les cons\u00e9quences du r\u00e9chauffement climatique, la perspective semble difficilement soutenable. Mais il y a \u00e9galement un <strong>prix soci\u00e9tal<\/strong>, avec un mod\u00e8le de soci\u00e9t\u00e9 transform\u00e9e en donn\u00e9es, fragilis\u00e9e face \u00e0 des cyberattaques ou des manques de ressources (pour construire des mat\u00e9riels ou les alimenter), sans parler de notre plus grande emprise \u00e0 la manipulation par le biais des petits coups de coude (<em>nudges<\/em>) des divers syst\u00e8mes de recommandation ou d\u2019information<a href=\"#_ftn31\" id=\"_ftnref31\">[31]<\/a>. Enfin, cette industrie conduit aussi au retour d\u2019une forme de prol\u00e9tariat, des \u00ab&nbsp;travailleurs du clic&nbsp;\u00bb, avec une vision des rapports sociaux embarqu\u00e9e dans les syst\u00e8mes algorithmiques eux-m\u00eames et forg\u00e9e par une \u00e9lite num\u00e9rique d\u2019entrepreneurs masculins, \u00ab&nbsp;<em>workaholics<\/em>&nbsp;\u00bb (bourreaux de travail) et libertariens<a href=\"#_ftn32\" id=\"_ftnref32\">[32]<\/a>.&nbsp;<\/p>\n\n\n\n<p>Prendre le temps de mesurer la juste place des algorithmes permettrait donc sans nul doute de limiter la consommation de ressources et de pr\u00e9server des zones de libert\u00e9 sans emprise du num\u00e9rique, favorisant les interactions humaines au sein d\u2019espaces d\u00e9connect\u00e9s. Prendre le temps de mesurer la juste place des algorithmes, ce serait aussi favoriser l\u2019expertise sur ce que savent faire (ou non) ces syst\u00e8mes, pour en tirer le meilleur et cr\u00e9er ainsi de r\u00e9elles conditions de confiance. Mais prendre ce temps, ce serait aussi d\u00e9construire des d\u00e9cennies de politiques publiques et d\u00e9laisser des perspectives \u00e9conomiques prometteuses \u00e0 tr\u00e8s court terme&nbsp;; ce serait prendre le risque de la r\u00e9cession dans un contexte mondial d\u00e9stabilis\u00e9 par la pand\u00e9mie et supporter le lourd poids politique d\u2019aller \u00e0 contre-courant des vents dominants d\u2019un projet capitaliste devenu global. Mais n\u2019est-ce pas l\u00e0 d\u00e9j\u00e0 le prix que nous aurons in\u00e9vitablement \u00e0 payer, bien au-del\u00e0 des politiques publiques num\u00e9riques, pour faire face aux enjeux environnementaux&nbsp;?<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><a href=\"#_ftnref1\" id=\"_ftn1\">[1]<\/a> Les opinions exprim\u00e9es ici n&rsquo;engagent que son auteur et ne refl\u00e8tent aucune position officielle du Conseil de l&rsquo;Europe. L\u2019auteur tient \u00e9galement \u00e0 remercier Nicolas R\u00e9gis, magistrat, pour la contribution qu\u2019il a apport\u00e9 \u00e0 la relecture de cet article.<\/p>\n\n\n\n<p><a href=\"#_ftnref2\" id=\"_ftn2\">[2]<\/a> L\u2019acronyme d\u2019intelligence artificielle sera pr\u00e9sent\u00e9 entre guillemets par commodit\u00e9 \u00e9ditoriale. L\u2019ensemble des technologies recouvertes par ce terme ne constituent naturellement pas une personnalit\u00e9 autonome et, afin de se garder de tout anthropomorphisme, il a \u00e9t\u00e9 choisi de r\u00e9sumer les termes plus appropri\u00e9s \u00ab d\u2019outils d\u2019intelligence artificielle \u00bb ou \u00ab d\u2019applications d\u2019intelligence artificielle \u00bb par le seul terme \u00ab d\u2019IA \u00bb entre guillemets.<\/p>\n\n\n\n<p><a href=\"#_ftnref3\" id=\"_ftn3\">[3]<\/a> La date retenue pour la naissance du terme intelligence artificielle est habituellement fix\u00e9e en 1956, lors de la tenue de la conference de Dartmouth. L\u2019article de lancement de cette conf\u00e9rence mentionne toutefois d\u00e9j\u00e0 ce terme d\u00e8s 1955 :&nbsp; J. McCarthy, M. Minsky, N. Rochester, C.E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, Ao\u00fbt 1955<\/p>\n\n\n\n<p><a href=\"#_ftnref4\" id=\"_ftn4\">[4]<\/a> Proposition de r\u00e8glement du Parlement europ\u00e9en et du Conseil \u00e9tablissant des r\u00e8gles harmonis\u00e9es concernant l\u2019intelligence artificielle (l\u00e9gislation sur l\u2019intelligence artificielle) et modifiant certains actes l\u00e9gislatifs de l\u2019Union, COM\/2021\/206 final &#8211; <a href=\"https:\/\/eur-lex.europa.eu\/legal-content\/FR\/TXT\/PDF\/?uri=CELEX:52021PC0206&amp;from=FR\">https:\/\/eur-lex.europa.eu\/legal-content\/FR\/TXT\/PDF\/?uri=CELEX:52021PC0206&amp;from=FR<\/a><\/p>\n\n\n\n<p><a href=\"#_ftnref5\" id=\"_ftn5\">[5]<\/a> Pour une analyse des cadres juridiques des organisations intergouvernementales, voir Y. Meneceur, Les cadres juridiques des organisations intergouvernementales pour une r\u00e9gulation de l\u2019intelligence artificielle, Revue pratique de la prospective et de l\u2019innovation, n\u00b01, Juillet 2021, p.31<\/p>\n\n\n\n<p><a href=\"#_ftnref6\" id=\"_ftn6\">[6]<\/a> Voir, en ce qui concerne la proposition de r\u00e8glement de la Commission europ\u00e9enne : N. Smuha, E. Ahmed-Rengers, A. Harkens, W. Li, J.MacLaren, R. Piselli, K. Yeung, How the EU can achieve Legally Trustworthy AI: A Response to the European Commission\u2019s Proposal for an Artificial Intelligence Act, SSRN, 5 ao\u00fbt 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref7\" id=\"_ftn7\">[7]<\/a> M\u00eame si certaines esp\u00e8ces animales parviennent bien \u00e0 utiliser de mani\u00e8re simple des outils, l\u2019esp\u00e8ce humaine s\u2019est caract\u00e9ris\u00e9e par son appropriation de techniques et de combinaison de techniques ayant une influence sur sa propre \u00e9volution \u2013 voir F. Sigaut, Comment Homo devint Faber. Comment l\u2019outil fit l\u2019homme, CNRS \u00e9ditions, 2013 cit\u00e9 par F. Jarrige, Techno-critiques, Du refus des machines \u00e0 la contestation des technosciences, La D\u00e9couverte\/Poche, 2016, p. 24<\/p>\n\n\n\n<p><a href=\"#_ftnref8\" id=\"_ftn8\">[8]<\/a> S\u2019agissant de l\u2019\u00e9mergence de la statistique \u00e0 des fins de gouvernance, voir O. Rey, Quand le monde s\u2019est fait nombre, coll. Les Essais, Stock, 2016, p.95 et s.<\/p>\n\n\n\n<p><a href=\"#_ftnref9\" id=\"_ftn9\">[9]<\/a> K. Schwab, La quatri\u00e8me r\u00e9volution industrielle, Dunod, 2017<\/p>\n\n\n\n<p><a href=\"#_ftnref10\" id=\"_ftn10\">[10]<\/a> Sur les discours transhumanistes, voir Y. Meneceur, L\u2019intelligence artificielle en proc\u00e8s&nbsp;: Plaidoyer pour une r\u00e9glementation internationale et europ\u00e9enne, Bruylant, 2020, p.259 et s.<\/p>\n\n\n\n<p><a href=\"#_ftnref11\" id=\"_ftn11\">[11]<\/a> A. Rouvroy et T. Berns, Gouvernementalit\u00e9 algorithmique et perspectives d\u2019\u00e9mancipation, R\u00e9seaux 2013\/1, n\u00b0177, 2013, pp163-196<\/p>\n\n\n\n<p><a href=\"#_ftnref12\" id=\"_ftn12\">[12]<\/a> Parmi les nombreux articles sur le sujet, voir par exemple M. Sainato, 14-hour days and no bathroom breaks: Amazon&rsquo;s overworked delivery drivers, The Guardian, 11 mars 2021 ou M. McFarland, Amazon thrived during the pandemic. These drivers say they paid the price, CNN Business, 3 juin 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref13\" id=\"_ftn13\">[13]<\/a> E. Sadin, L\u2019intelligence artificielle ou l\u2019enjeu du si\u00e8cle : anatomie d\u2019un antihumanisme radical, L\u2019\u00c9chapp\u00e9e, 2018, p.79 et s.<\/p>\n\n\n\n<p><a href=\"#_ftnref14\" id=\"_ftn14\">[14]<\/a> P. Walsh, Do Algorithms Have Politics?, accessible sur : <a href=\"https:\/\/www.solotablet.it\/lifestyle\/do-algorithms-have-politics\">https:\/\/www.solotablet.it\/lifestyle\/do-algorithms-have-politics<\/a> &#8211; Consult\u00e9 le 9 ao\u00fbt 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref15\" id=\"_ftn15\">[15]<\/a> L. Winner, Do Artifacts Have Politics?, Daedalus, Vol. 109, No. 1, Modern Technology: Problem or Opportunity?, 1980, , pp. 121-136 \u2013 Voir \u00e9galement les travaux du James Jerome Gibson sur les affordances, n\u00e9ologisme traduisant cette facult\u00e9 de l\u2019homme \u00e0 adapter son comportement en fonction des opportunit\u00e9s d\u2019action de son environnement.<\/p>\n\n\n\n<p><a href=\"#_ftnref16\" id=\"_ftn16\">[16]<\/a> C. S. Calude, G. Longo, Le d\u00e9luge des corr\u00e9lations fallacieuses dans le big data, dans La toile que nous voulons \u2013 Le web n\u00e9guentropique, B. Stiegler (dir.), : FYP \u00e9d., 2017, p. 156<\/p>\n\n\n\n<p><a href=\"#_ftnref17\" id=\"_ftn17\">[17]<\/a> Voir la synth\u00e8se des d\u00e9bats de la Conf\u00e9rence NeurIPS 2017&nbsp;: Kirthi Shankar Sivamani : The Great AI Debate : Interpretability, Medium, 19 juillet 2019<\/p>\n\n\n\n<p><a href=\"#_ftnref18\" id=\"_ftn18\">[18]<\/a> V. par exemple I.J. Goodfellow, J. Shlens, C. Szegedy, Explaining and harnessing adversarial example, 20 mars 2015<\/p>\n\n\n\n<p><a href=\"#_ftnref19\" id=\"_ftn19\">[19]<\/a> Sur la question des biais, voir notamment T.Hellstr\u00f6m, V.Dignum, S.Bensch, Bias in Machine Learning &#8212; What is it Good for?, arXiv, 20 septembre 2020, accessible sur&nbsp;: <a href=\"https:\/\/arxiv.org\/abs\/2004.00686\">https:\/\/arxiv.org\/abs\/2004.00686<\/a> &#8211; Consult\u00e9 le 17 ao\u00fbt 2021 ; Sur l\u2019objectivit\u00e9 des d\u00e9cisions algorithmiques, voir aussi l\u2019entretien donn\u00e9 par Philippe Besse, professeur de Math\u00e9matiques \u00e0 l&rsquo;universit\u00e9 de Toulouse-INSA, donn\u00e9 au blog du laboratoire de l\u2019autorit\u00e9 de protection des donn\u00e9es fran\u00e7aise : F. Vallet, Philippe Besse : \u00ab Les d\u00e9cisions algorithmiques ne sont pas plus objectives que les d\u00e9cisions humaines \u00bb, LINC, 2 juin 2020, accessible sur&nbsp;: <a href=\"https:\/\/linc.cnil.fr\/fr\/philippe-besse-les-decisions-algorithmiques-ne-sont-pas-plus-objectives-que-les-decisions-humaines\">https:\/\/linc.cnil.fr\/fr\/philippe-besse-les-decisions-algorithmiques-ne-sont-pas-plus-objectives-que-les-decisions-humaines<\/a> &#8211; Consult\u00e9 le 9 ao\u00fbt 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref20\" id=\"_ftn20\">[20]<\/a> S. Ben-David, P. Hrube\u0161, S. Moran, A. Shpilka, A. Yehudayoff, Learnability can be undecidable, Nature Machine Intelligence 1, 2019, pp.44-48<\/p>\n\n\n\n<p><a href=\"#_ftnref21\" id=\"_ftn21\">[21]<\/a> L\u2019arriv\u00e9e de v\u00e9hicules totalement \u00ab&nbsp;autonomes&nbsp;\u00bb est pr\u00e9sent\u00e9e comme imminente depuis des ann\u00e9es et les annonces volontaristes d\u2019entrepreneurs comme Elon Musk sont r\u00e9guli\u00e8rement contredites. Pour une \u00e9tude plus approfondie de cette question, voir Y. Meneceur, L\u2019intelligence artificielle en proc\u00e8s&nbsp;: Plaidoyer pour une r\u00e9glementation internationale et europ\u00e9enne, <em>op.cit.<\/em>, p. 83 et s.<\/p>\n\n\n\n<p><a href=\"#_ftnref22\" id=\"_ftn22\">[22]<\/a> Sur la confusion entre apprentissage automatique et intelligence artificielle, v. par exemple K. Pretz, Stop Calling Everything AI, Machine-Learning Pioneer Says, IEEE Spectrum, 31 mars 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref23\" id=\"_ftn23\">[23]<\/a> Voir \u00e0 ce titre les d\u00e9veloppements de F. Jarrige, Techno-critiques, Du refus des machines \u00e0 la contestation des technosciences, La D\u00e9couverte\/Poche, 2016 (2014)<\/p>\n\n\n\n<p><a href=\"#_ftnref24\" id=\"_ftn24\">[24]<\/a> K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref25\" id=\"_ftn25\">[25]<\/a> K. Hao, Stop talking about AI ethics. It\u2019s time to talk about power, MIT Technology Review, 23 avril 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref26\" id=\"_ftn26\">[26]<\/a> Voir le site internet <a href=\"https:\/\/anatomyof.ai\">https:\/\/anatomyof.ai<\/a><\/p>\n\n\n\n<p><a href=\"#_ftnref27\" id=\"_ftn27\">[27]<\/a> K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, <em>op.cit<\/em>, p.31<\/p>\n\n\n\n<p><a href=\"#_ftnref28\" id=\"_ftn28\">[28]<\/a> IPCC, AR6 Synthesis report, 9 ao\u00fbt 2021, accessible sur&nbsp;: <a href=\"https:\/\/www.ipcc.ch\/report\/sixth-assessment-report-cycle\/\">https:\/\/www.ipcc.ch\/report\/sixth-assessment-report-cycle\/<\/a> &#8211; Consult\u00e9 le 9 ao\u00fbt 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref29\" id=\"_ftn29\">[29]<\/a> Site internet du minist\u00e8re du d\u00e9veloppement durable, Num\u00e9rique et consommation \u00e9nerg\u00e9tique, 27 septembre 2019, accessible sur&nbsp;: <a href=\"https:\/\/ree.developpement-durable.gouv.fr\/themes\/pressions-exercees-par-les-modes-de-production-et-de-consommation\/prelevements-de-ressources-naturelles\/energie\/article\/numerique-et-consommation-energetique\">https:\/\/ree.developpement-durable.gouv.fr\/themes\/pressions-exercees-par-les-modes-de-production-et-de-consommation\/prelevements-de-ressources-naturelles\/energie\/article\/numerique-et-consommation-energetique<\/a> &#8211; Consult\u00e9 le 9 ao\u00fbt 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref30\" id=\"_ftn30\">[30]<\/a> K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, <em>op.cit<\/em>, p.42<\/p>\n\n\n\n<p><a href=\"#_ftnref31\" id=\"_ftn31\">[31]<\/a> Voir en ce sens la D\u00e9claration du Comit\u00e9 des Ministres du Conseil de l\u2019Europe sur les capacit\u00e9s de manipulation des processus algorithmiques, 13 f\u00e9vrier 2019, accessible sur&nbsp;: <a href=\"https:\/\/search.coe.int\/cm\/pages\/result_details.aspx?ObjectId=090000168092dd4c\">https:\/\/search.coe.int\/cm\/pages\/result_details.aspx?ObjectId=090000168092dd4c<\/a> \u2013 Consult\u00e9 le 9 ao\u00fbt 2021<\/p>\n\n\n\n<p><a href=\"#_ftnref32\" id=\"_ftn32\">[32]<\/a> Voir J. Wajcman, How SIlicon Valley Sets Time, cit\u00e9e par K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, <em>op.cit<\/em>, p.77, voir \u00e9galement A. Casilli, En attendant les robots \u2013 Enqu\u00eate sur le travail du clic, Seuil, 2019<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Texte pr\u00e9par\u00e9 et pr\u00e9sent\u00e9 dans le cadre de la conf\u00e9rence internationale organis\u00e9e par la Chaire Justice sociale et intelligence artificielle &#8211; Fondation Abeona \/ ENS \/ OBVIA&nbsp;le 31 mai 2022, \u00e0 l&rsquo;ENS Ulm Pr\u00e9sent\u00e9 le 31 mai 2022 \u00e0 l&rsquo;ENS (Paris) &#8211; Ce texte a d\u00e9j\u00e0 fait l&rsquo;objet d&rsquo;une publication dans la revue \u00c9thique publique,&hellip; <a class=\"read-more-link\" href=\"https:\/\/lestempselectriques.net\/index.php\/2022\/05\/31\/repenser-la-justice-sociale-en-contexte-dia-defis-majeurs\/\">Plus&#8230;<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":false,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[15],"tags":[25,4,127],"coauthors":[17],"class_list":["post-2116","post","type-post","status-publish","format-standard","hentry","category-billetsetudes","tag-ia","tag-intelligence-artificielle","tag-regulation"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts\/2116","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/comments?post=2116"}],"version-history":[{"count":5,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts\/2116\/revisions"}],"predecessor-version":[{"id":2153,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts\/2116\/revisions\/2153"}],"wp:attachment":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/media?parent=2116"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/categories?post=2116"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/tags?post=2116"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/coauthors?post=2116"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}