Les discussions sur l’emploi de la reconnaissance faciale[1] dans les espaces publics par les forces de l’ordre paraissent toujours particulièrement sensibles et ont fortement animé la préparation du projet de règlement sur l’intelligence artificielle (IA) de la Commission européenne paru en avril 2021. Outre la volonté des gouvernements de disposer d’outils de meilleurs outils de prévention de la criminalité, on voit qu’il est aussi question de mettre de l’ordre dans les pratiques d’opérateurs privés qui inquiètent l’opinion publique et ont conduit à des réactions des autorités de protection des données[2].
Reconnaissance faciale : une réelle urgence à traiter de la question
De fait, l’usage de la reconnaissance faciale se répand partout dans le monde et laisse craindre des atteintes substantielles aux libertés individuelles, en instaurant notamment des formes de contrôle plus ou moins permanent d’identité sur la voie publique. Rien de bien neuf dans le débat classique cherchant à équilibrer dans nos régimes démocratiques sécurité et liberté, car c’est exactement ainsi que le terme de vidéosurveillance s’est progressivement transformé en vidéoprotection à la faveur d’une lente acculturation du grand public sur la multiplication de caméra dans l’espace public et d’une clarification du cadre juridique.
Une différence essentielle caractérise toutefois les applications de reconnaissance faciale par rapport à la vidéosurveillance : c’est la capacité de traitement de données biométriques sans contact avec les sujets. La couche d’IA va bien plus loin que la simple captation d’images en utilisant, en différé ou en temps réel, un ensemble de valeurs caractérisant le visage d’une personne pour l’identifier, sans que les sujets n’aient nécessairement conscience que ce traitement s’opère. A la faveur du réseau déjà dense de caméras dans certains pays et de la vulgarisation de ces applications de reconnaissance de visages, l’on se retrouve donc potentiellement face à des systèmes pouvant être très rapidement mis en œuvre à large échelle, sans aucune des garanties procédurales encadrant aujourd’hui de manière stricte les contrôles d’identité (et qui ont leur raison d’être).
C’est pourquoi les différentes parties prenantes se retrouvent sur l’urgence à traiter de cette question, sans parvenir, évidemment, aux mêmes conclusions. Les discussions opposent les tenants d’une stricte protection des droits des individus dans la société, en allant jusqu’au bannissement de cette technologie, aux promoteurs du déploiement de cette même technologie avec un cadre juridique spécifique plus ou moins contraignant. Sans entrer dans les détails de ces débats, le projet de règlement sur l’IA de la Commission européenne paraît – en l’état – soutenir le déploiement de la reconnaissance faciale sous certaines conditions procédurales, afin de permettre aux États de renforcer la lutte contre différentes formes graves de criminalité, comme le terrorisme.
Un oubli de taille dans les débats : la réelle efficacité des dispositifs
Une difficulté substantielle subsiste pourtant dans ces débats, trop rarement abordée : celle de la réelle efficacité de ces dispositifs. Les excellents taux de reconnaissance des dernières générations d’algorithmes, sans cesse en progrès, paraît en effet avoir clos toute discussion à ce sujet. Le NIST (National Institute of Standards & Technology), agence du département du commerce des États-Unis, réalise depuis plusieurs années une étude comparative des solutions commerciales de reconnaissance faciale et observe aujourd’hui des taux d’erreurs entre 0,5% et 10% selon les algorithmes[3]. Cette évolution révolutionnaire par rapport aux anciennes classes d’algorithmes provient essentiellement de l’application de l’apprentissage profond qui a démontré des capacités extraordinaires pour catégoriser des images numériques. Pour autant et de manière tout à fait contre-intuitive, la probabilité de détection d’un individu recherché parmi une large population demeure extrêmement basse même avec un système en capacité d’identifier un taux très élevé de « vrais positifs ». Explications.
Cette situation est liée à l’oubli – courant et classique – de la « fréquence de base »
Cette situation est liée à l’oubli – courant et classique – de la « fréquence de base », autrement appelé « négligence de la taille de l’échantillon » qui consiste à surestimer une probabilité en omettant de prendre comme référence l’ensemble de la population considérée[4]. Prenons comme exemple, dans une ville, une population d’individus surveillés et connus pour être des délinquants (100 pour faire simple) sur une population totale de 1 000 000 d’habitants. Admettons que le système de reconnaissance faciale de cette ville s’avère particulièrement précis et parvient à un taux de reconnaissance de 99% des individus « délinquants ». Si vous concluez de cet énoncé que ce système est particulièrement efficace car il y aurait 9 chances sur 10 d’identifier un individu surveillé, vous vous trompez !
Votre système de reconnaissance faciale opère en effet sur l’ensemble de votre population et non sur les seuls surveillés. La réelle probabilité d’identifier un individu délinquant doit prendre en compte les « vrais positifs » en appliquant le taux d’erreur (soit 99 individus sur les 100) ainsi que les « faux positifs » de la population « non-délinquante » pour lesquels une alerte va être émise à tort. Et ces faux positifs correspondent précisément à 9 999 personnes (taux d’erreur de 1% appliqué à la population des 999 900 habitants « non délinquants »). Le nombre total d’alertes positives s’élève donc potentiellement à 99 + 9 999, soit 10 098. En conclusion, la probabilité réelle qu’une alerte vous signale un individu effectivement surveillé comme un délinquant est donc de 99 / 10 098… ce qui correspond à 0,98 % !
La surface des rectangles ne sont pas proportionnelles au nombre d’individus pour conserver la clarté des textes liés
Moins de 1% de probabillité ! Quel changement de perspective !
Nous discuterions donc en réalité de diffuser dans l’espace public des systèmes qui vont potentiellement incriminer à tort un nombre non négligeable d’individus (9 999 dans notre exemple), avec tous les biais connus et documentés que nous connaissons[5], pour un résultat qui mérite tout de même une sérieuse discussion ? Alors que les systèmes algorithmiques sont présentés comme pouvant réduire l’incertitude et les erreurs humaines, on admettrait de déployer dans l’espace public des systèmes qui commettront une proportion ahurissante d’erreurs (99,12 % dans notre exemple) ?
Non seulement les opérateurs vont constater que les promesses ne semblent pas tenues mais l’on fragilise des digues juridiques difficilement érigées depuis des décennies
Les conséquences de ce changement de perspective sont donc considérables : non seulement les opérateurs vont constater, avec un brin de découragement, que les promesses ne semblent pas tenues (et potentiellement donc baisser leur garde quand ils auront 99 fausses alertes à traiter pour un seul cas réel) mais – surtout – l’on fragilise des digues juridiques difficilement érigées depuis des décennies pour protéger nos droits fondamentaux pour implanter des systèmes tout à fait approximatifs. Sans développer davantage sur le fameux « chilling effect » où, en craignant d’être fiché, désavantagé pour un emploi public ou simplement accusé à tort, l’on va décourager potentiellement la population d’exprimer ses opinions dans l’espace public mais pour quel gain ? Moins d’une chance sur 100 d’identifier une personne recherchée ? Est-ce vraiment le prix que nous voulons payer pour accéder à un sentiment abstrait de sécurité ?
Il ne s’agit naturellement pas de minimiser l’intérêt des débats en cours sur la reconnaissance faciale, mais nous devrions tout de même prendre conscience que nous pensons traiter de l’encadrement de machines de précision chirurgicale alors que nous avons en réalité à faire à des chalutiers qui vont ratisser large et ramasser tout ce qu’ils trouvent pour être sûr de ramener dans leurs filets ce qu’ils cherchent.
Les débats sur la reconnaissance faciale mériteraient donc, comme d’autres sur l’emploi de l’IA, d’être d’abord et avant tout remis en perspective au regard des capacités précises des instruments technologiques que l’on entend déployer. Ce qui semble d’autant plus dramatique, c’est que l’opinion publique est de plus en plus acculturée au travers de discours volontaristes à des prétendues performances d’instruments numériques alors que nous sommes en fait en train de créer les conditions d’un renforcement des discriminations et des inégalités avec des gadgets technologiques peu matures. Pas sûr que nos démocraties, déjà fragilisées, aient besoin de cela à ce moment précis de notre histoire.
Pour aller plus loin | voir « Le petit guide sur les enjeux de la reconnaissance faciale » de l’Observatoire International sur les impacts sociétaux de l’IA et du numérique (OBVIA)
[1] Cet article s’en tiendra à la définition donnée par la CNIL, différenciant reconnaissance faciale et détection de visages : https://www.cnil.fr/fr/definition/reconnaissance-faciale
[2] Voir par exemple Reconnaissance faciale : la CNIL met en demeure CLEARVIEW AI de cesser la réutilisation de photographies accessibles sur internet, CNIL, 16 décembre 2021 – https://www.cnil.fr/fr/reconnaissance-faciale-la-cnil-met-en-demeure-clearview-ai-de-cesser-la-reutilisation-de
[3] P. Guitton, Les biais biométriques et ethniques des logiciels de reconnaissance faciale, Blog Binaire – Le Monde, 17 février 2020
[4] Dans les années 1970, Amos Tversky (1937-1996), psychologue, et Daniel Kahneman (né en 1934), psychologue et économiste, prix Nobel d’économie en 2002, ont conduit une série d’expériences mettant en évidence les erreurs provoquées par cet oubli, notamment dans des populations très diplômées.
[5] Rappelons par exemple que l’étude comparative du NIST démontrait que les « faux positifs » des systèmes de reconnaissance faciale étaient plus élevés pour les femmes, les africains de l’est et de l’ouest, ainsi que pour les originaires d’Amérique centrale pour de multiples raisons techniques qui ne seront pas développées ici.