Expliquer l’emballement des applications de pistage : de l’émergence d’un « Etat des algorithmes »

Bibliographie de l’ouvrage “L’intelligence artificielle en procès”

Si l’on devait dégager certains des traits les plus saillants en ce qui concerne l’emploi des technologies en ces temps de crise sanitaire, l’approximation évidente avec laquelle certaines applications sont entrées dans le débat public aurait une place de choix. Ainsi, les applications de pistage[1] de proximité (proximity tracing) ont fait l’objet d’intenses débats sur les risques qu’elles font porter sur la vie privée et sur les garanties dont elles devaient être assorties alors même que des barrières technologiques très substantielles, identifiées par de nombreux experts, ont mis très tôt en cause la viabilité même de ces dispositifs.

Les débats se sont perdus en conjectures diverses, des chercheurs de très haut niveau se sont entredéchirés sur le degré de centralisation des informations, sans même prendre le temps de résoudre un problème, pourtant préalable à toute autre discussion : celui de la qualité de l’information recueillie. Car, à ne pas en douter, les autorités de Singapour qui ont bâties l’un de ces premiers outils, TraceTogether, avaient parfaitement en tête les limites du Bluetooth Light Energy (BLE) – où y ont fait face lors du déploiement de l’application. Faux positifs entre voisins de paliers ou dans la rue, obsolescence de certains téléphones, terminaux Apple ne permettant pas d’activer en permanence le signal, faible taux d’équipement de population à risques comme les seniors sont désormais très largement admis par toute la communauté scientifique. Mais l’idée pour les autorités de cet Etat était avant tout de seconder l’activité d’enquêteurs de terrains qui, plutôt que de faire confiance en la mémoire des personnes infectées, pouvaient s’appuyer sur des traces numériques. Un outil donc, d’une très large politique publique qui n’a malheureusement pas su éviter le confinement le 10 avril 2020 après un rebond de la maladie.  

Mais, étrangement, plus de 40 pays dans le monde se sont précipités sur cette « solution[2] » en confondant soudainement moyen et finalité, en mélangeant trace numérique et diagnostic et en omettant qu’il s’agissait d’un instrument modernisé d’une politique sanitaire de pistage des contacts bien connue des épidémiologistes, exigeant des moyens humains considérables pour produire des effets[3]. Les applications de pistage de proximité sont parvenues à cristalliser les espoirs de décideurs publics pris dans la nécessité d’apporter, à tout prix, des réponses. Les experts interrogeant la viabilité du dispositif, notamment au vu du nombre extrêmement élevé de faux positifs (ou de faux négatifs), ont eu bien des difficultés à se faire entendre, passant au mieux pour des techniciens, au pire pour des polémistes. La politique a ses raisons… Comme pour d’autres technologies numériques, telles que l’intelligence artificielle (IA), notre ère n’est plus en capacité d’instruire objectivement ces nouveaux instruments numériques. L’on présume dans la hâte de leur viabilité générale sur la base de cas d’usages sectoriels prometteurs et l’on ringardise toute critique venant de « l’Ancien Monde » car il importe plus d’être dans le flux de l’action que dans la stase de la réflexion.

L’étrange ambition des applications de pistage :  une nouvelle manifestation de l’emprise numérique

Si l’on tente de prendre un peu de distance avec l’actualité, nous pourrions caractériser cette ère comme une véritable ère de l’approximation, où l’on se précipite à mettre vite en œuvre des solutions quitte à créer quelques dommages collatéraux (move fast and break things) et à mépriser tout apport de l’expérience. C’est certainement la conséquence d’une claire « emprise numérique », que l’on pourrait tenter de caractériser par la conjonction d’au moins trois facteurs :

  • Notre consentement, essentiellement par négligence, à cette emprise : même conscients de possibles dérives, nous les minimisons en l’absence de conséquences directes immédiatement perceptibles et de la valeur ajoutée ressentie instantanée d’une application ; en cliquant hâtivement sur des conditions d’utilisation longues et peu explicites, nous cédons de manière tout à fait asymétrique une partie de nos données contre des services « pratiques » ; de même, les applications de pistage de proximité se fondent sur le même mécanisme d’adhésion non coercitif, en jouant en plus sur un vague sentiment de culpabilité : « si vous êtes de bons citoyens, vous utiliserez cette application[4] » ;
  • Un maillage progressif de nos vies par des systèmes algorithmiques, nourris en temps réels par des océans de données : les systèmes algorithmiques s’immiscent ainsi dans un nombre toujours plus grand de nos décisions sous la forme de conseils (recommandations), de dénombrement (calories dépensées, nombre de pas effectués) ou d’alertes ; ce fonctionnement n’est plus ponctuel (« pull » – en se rendant volontairement sur un site internet par exemple), mais s’effectue désormais en cycle continu, en temps réel et rétroagit sans latence avec nos nouveaux comportements (« push » – les téléphones portables et autres objets connectés ont ainsi colonisés nos vies pour affirmer cette emprise) ; c’est d’ailleurs l’un des traits inquiétants de ces applications de pistage de proximité : même anonymisées et peu centralisées, elles contribuent à augmenter la densité de ce maillage et à nous acculturer à une mesure permanente de nos vies afin de prétendre nous offrir une meilleure sécurité ;
  • La valeur a priori objective et dénuée d’intention des recommandations produites par les systèmes algorithmiques : la « vérité » des calculs et des modèles statistiques est d’une autorité telle que nous n’en contestons pas la plupart du temps les résultats ; ce biais d’autorité des algorithmes[5] alimente le faux sentiment de sécurité pouvant naître de l’emploi de telles applications : la proximité de deux téléphones ne permet que de présumer très faiblement d’un risque de contamination mais l’on fera confiance à la machine… si nous ne savons pas pourquoi, elle doit certainement avoir de bonnes raisons.

« Les applications de pistage de proximité sont ainsi essentiellement questionnées sous l’angle de la protection de la vie privée, en tenant pour acquis qu’elles sont plus ou moins en capacité de délivrer le service qu’elles prétendent rendre. Alors même que leur absence de viabilité reconnue par une partie non négligeable de la communauté scientifique aurait dû conduire ces outils à maturer encore quelques temps sur GitHub »

Le succès de cette emprise est tel que nous sommes aujourd’hui parvenus à considérer cette situation comme la simple expression de notre temps, sans même exercer un minimum d’examen critique sur la simple viabilité des instruments qui nous sont proposés. Les applications de pistage de proximité sont ainsi essentiellement questionnées sous l’angle de la protection de la vie privée, en tenant pour acquis qu’elles sont plus ou moins en capacité de délivrer le service qu’elles prétendent rendre. Alors même que leur absence de viabilité reconnue par une partie non négligeable de la communauté scientifique[6] aurait dû conduire ces outils à maturer encore quelques temps sur GitHub, sans autre forme de débat.

L’ensemble de la communauté mondiale s’est accrochée à une simulation, souvent citée en référence, réalisée par l’Université d’Oxford qui a démontré qu’un taux d’adoption d’une application de contact tracing de près de 60% par les individus serait nécessaire pour que le système fonctionne[7]. Mais cette étude se base une ville fictive d’un million d’habitants où aucune des faiblesses technologiques évoquées n’a été prise en compte… Il s’agit donc d’un modèle tout à fait théorique qui implique toute une chaîne logistique (décontamination des lieux probables de l’infection, tests systématiques, etc). Précisons d’ailleurs qu’au final, à Singapour, moins de 15% à 20% de la population aurait installé l’application.

Ce constat confirme ce que Michel Foucault avait analysé dès la fin des années 1970 : les formes contemporaines de totalitarisme ne s’expriment plus de manière verticale, sous la forme d’un rapport contrainte / discipline, mais de manière horizontale. La masse devient consentante à son propre contrôle, en échangeant une part non négligeable de son libre arbitre contre une société sécurisée et rationalisée, où la légitimité n’émanerait plus de l’expression démocratique, mais de l’autorité diffuse, prédictible et rassurante des mathématiques[8]. La conséquence sur les institutions et les modalités de gouvernance sont, dès lors, majeures. Un lent glissement s’opèrerait des institutions démocratiques vers les opérateurs techniques fabriquant, détenant et exploitant ces algorithmes. Nous rentrerions ainsi dans une ère de « gouvernementalité algorithmique[9] » non pas par un coup de force, un coup d’État, mais un « coup data[10] » qui, compte tenu de ses caractéristiques en s’adaptant en temps réel à toute tentative de reprise de contrôle, pourrait être qualifié de permanent et aboutirait à substituer à l’État de droit un « État des algorithmes[11] ».    

« L’Etat des algorithmes » : le droit substitué par des calculs, le diagnostic substitué par des signaux

L’action des individus dans notre nouvelle ère numérique ne se juge plus seulement en une contextualisation au regard d’une norme extérieure préexistante, l’autorisant ou non, la sanctionnant ou non, comme la loi. L’action se trouve désormais confrontée, directement ou indirectement, aux champs du possible organisés par l’environnement numérique. Cette « gouvernementalité algorithmique » structure, de fait, nos choix et nos comportements par des calculs sans même avoir parfois conscience que nous sommes ainsi administrés. Là où la loi produit des sujets de droit, égaux devant elle, selon une procédure préalablement admise et pouvant en contester l’application devant des autorités de recours, « l’Etat des algorithmes » ne se trouve jamais en mesure d’être légitimé, expliqué ou contesté. Ainsi installé dans la vie publique, cette nouvelle forme de gouvernementalité réinvente en temps réel les conditions de sa domination tentaculaire sans se soumettre, à aucun instant, à un quelconque débat démocratique.

« Quelles que soient les garanties techniques entourant la vie privée dans ces applications de pistage, l’on voit donc que c’est l’entière société qui est placée dans les mains d’un système algorithmique approximatif pour déterminer un risque de contamination, sans même être en mesure d’en comprendre le ressort ou d’en questionner le mécanisme »

L’intégration de ces applications de pistage avec l’appui des plus hautes instances publiques dans le monde s’inscrit dans cet exact mouvement et explique la facilité avec laquelle elles se sont imposés dans la batterie des mesures d’actions sanitaires. L’idée, au départ, est séduisante : des utilisateurs « volontaires » pour contribuer à un calcul de risque opéré sur la captation de signaux Bluetooth de téléphones mobiles… la fameuse puissance de la multitude[12]. Mais en réalité, ces signaux, pour peu que l’on puisse les générer[13], deviennent déjà un diagnostic, un diagnostic de très faible qualité puisque totalement décontextualisé pour garantir la protection de la vie privée. Pour en améliorer la teneur, ce sont des algorithmes qui seront censés minimiser les faux positifs (ou négatifs) et se verront déléguer la tâche de redresser la situation, si nécessaire par de l’apprentissage[14] et donc de l’IA. Mais selon quels critères ? Ceux définis par des épidémiologistes en dépit des très grandes incertitudes qui demeurent sur les modes de propagation du virus ? Quelles que soient les garanties techniques entourant la vie privée dans ces applications de pistage, l’on voit donc que c’est l’entière société (enquêteurs sanitaires comme la population) qui est placée dans les mains d’un système algorithmique approximatif pour déterminer un risque de contamination, sans même être en mesure d’en comprendre le ressort ou d’en questionner le mécanisme[15].

Nombre de pays se sont engagés, parfois de manière relativement autoritaire, dans le déploiement de ces solutions et les contestations, pourtant étayées, ont été le plus souvent minimisées ou balayées par les gouvernements au prétexte d’une utilité sociale qui est pourtant très largement contestable. L’emballement mondial de ces applications de pistage n’est donc qu’une nouvelle expression de l’émergence de cet « Etat des algorithmes », qui colonise lentement, avec sa propre normativité, le champ de la plupart des affaires publiques, en dehors de toute raison. La raison scientifique, reproductible, étayée, revue par les pairs, est de plus totalement sacrifiée car, comme dans l’univers des startups, l’on préfèrerait désormais la succession d’expérimentations rapides, donnant le sentiment de l’action, à la réflexion approfondie, passant pour conservatrice et ringarde : une « épidémie de mauvaise science » qui s’est malheureusement propagée à d’autres secteurs de la recherche, notamment celui de la biomédecine dans la course pour trouver un vaccin[16].


Pour aller plus loin

Ces développements sont approfondis dans l’ouvrage “L’intelligence artificielle en procès


Notes

[1] Dans cet article, le terme pistage a été préféré au terme traçage, employé dans le débat public mais qui est un anglicisme.

[2] Voir par exemple la carte interactive Applications « Covid-19 » : où en sommes-nous ?, publiée sur le blog des Temps Electriques : https://lestempselectriques.net/index.php/2020/04/21/applications-covid-19-ou-en-sommes-nous/ – Consulté le 28 avril 2020

[3] En France, le président du Conseil scientifique Covid-19, Jean-François Delfraissy estimait qu’il faudrait près de 30 000 agents dédiés aux enquêtes épidémiologiques pour faire fonctionner le système – Voir  L. Besmond de Senneville, Déconfinement, « On ne va pas passer du noir au blanc, mais du noir au gris foncé », La Croix, 15 avril 2020

[4] M. Turcan, StopCovid :les Français auront-ils vraiment le choix de refuser l’app de tracing, Numerama, 27 avril 2020

[5] R. Parasuraman, VRiley, Humans and Automation: Use, Misuse, Disuse, Abuse, Human Factors and Ergonomics Society, 1997

[6] Voir notamment les initiatives suivantes : “Attention StopCovid”, initiée par des informaticiens spécialisé dans la sécurité et la cryptologie (https://attention-stopcovid.fr/ ), un document de vulgarisation des risques conçu par des chercheurs (https://risques-tracage.fr/) et une tribune parue dans le journal Libération (https://www.liberation.fr/debats/2020/04/27/le-projet-stopcovid-doit-etre-abandonne_1786576)

[7] L. Ferretti, C. Wymant, M. Kendall, L. Zhao, A. Nurtay, L. Abeler-Dörner, M. Parker, D. Bonsall, C. Fraser, Quantifying SARS-CoV-2 transmission suggests epidemic control with digital contact tracing, Science, 31 mars 2020

[8] L. Jeanpierre, Une sociologie foucaldienne du néolibéralisme est-elle possible ?, Sociologie et sociétés, 10 septembre 2007.

[9] A. Rouvroy et T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation : Réseaux 2013/1, n°177, 2017, pp.163-196

[10] A. Basdevant, J-P. Mignard, L’empire des données, Essai sur la société, les algorithmes et la loi, Don Quichotte, 2018

[11] R. Batko, J. Kreft, The Sixth Estate – The Rule of Algorithms, Problemy Zarzadzania, University of Warsaw, Faculty of Management, vol. 15(68), 2017, pages 190-209

[12] N. Colin, H. Verdier, L’âge de la multitude – Entreprendre et gouverner après la révolution numérique : Armand Colin, 2015

[13] Il ne sera pas développé ici la question de la fracture numérique et du taux d’équipement de téléphones portables, qui ne permettent pas d’envisager un traitement égal de la population.

[14] B. Sportisse, « Contact tracing » : quelques éléments pour mieux comprendre les enjeux, Site internet de l’Inria, 18 avril 2020 – Consulté le 28 avril 2020

[15] Précisons que la publication du code de l’application n’offre que peu de transparence à cet effet, puisque les usagers ne seront jamais en mesure, en temps réel, d’évaluer si la situation dans laquelle ils se trouvent avec leur téléphone justifie un enregistrement de « contact ». Les critères de la notification, basée sur un calcul du risque, devraient donc être enrichies d’autres informations (géolocalisation notamment) pour commencer à devenir signifiante – mais cette option est exclue pour des raisons évidentes de vie privée.

[16] A. J. London, J. Kimmelman, Against pandemic research exceptionalism, Science, 23 avril 2020