Pour en finir avec les fantasmes de l’open data des décisions de justice

[Mise à jour du 23 novembre 2019 : Un amendement a été adopté. Déposé par Paula Forteza (TA AN n° 1396, 2018-2019, amendement n° 1425), il porte sur la réutilisation du nom des magistrats placés en open data et sanctionne certaines finalités de poursuite pénale : « Les données d’identité des magistrats et des fonctionnaires de greffe ne peuvent faire l’objet d’une réutilisation ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues par les articles 226‑18, 226‑24 et 226‑31 du Code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78‑17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés ». Le billet ci-dessous, du 9 novembre 2018, ne tenait pas compte de cette évolution. Il demeure encore des points à éclaircir : adresse postale, régime du nom des avocats et autres professions ayant concouru à la décision]

L’Assemblée nationale vient d’adopter ce 9 novembre 2018 un amendement extrêmement technique à l’article 19 de la loi de programmation 2019-2022 et de réforme pour la justice, portant sur l’ouverture libre au téléchargement de la base de données de toutes décisions de justice (open data). Cet amendement tranche la question de la mention des noms des magistrats et desfonctionnaires de greffe dans cette base informatique structurée, en posant un principe de publicité, sauf « à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage ».

En témoin extérieur, il n’y aurait là rien d’anormal à ce que les décisions de justice, par nature rendues au nom du peuple français et publiques, portent mention des noms des professionnels ayant concouru à la prise de décision. Ce serait même la traduction numérique d’une obligation connue de publicité des décisions de justice, déjà codifiée[1]. Pourtant, cet amendement cherche à atteindre un autre objectif, non mentionné dans l’exposé des motifs : celui de pouvoir profiler les juges.

1/ Distinguer les finalités propres de la publicité des décisions de justice de celles de l’open data

Clarifions immédiatement le débat afin de prévenir toute confusion : la publicité unitaire des décisions est déjà assurée dans les jugements papiers délivrés aux parties. Les critiques portant sur la mention de noms dans l’open data n’entendent absolument remettre en cause ces dispositions. Par ailleurs, une sélection de décisions de justice sont déjà disponibles de manière dématérialisée et pseudonymisée[2] sur Legifrance.fr (service public de la diffusion du droit par l’internet). Ce moteur de recherche permet par exemple, à l’aide de mots-clés, d’accéder à une version électronique des décisions judiciaires de la Cour de cassation et à une sélection de décisions de degré inférieur. En totale conformité avec les dispositions de la loi informatique et libertés (et au RGPD), le nom des parties est occulté et le nom des professionnels maintenu dans cette publication électronique. Là encore, les débats ne portent pas sur cette situation. Qu’est-ce qu’il y aurait donc de neuf avec l’open data ? Certainement pas une simple extension du nombre de décisions publiées sur Légifrance.

Revenons tout d’abord au changement complet de paradigme opéré par les articles 20 et 21 de la loi pour une République numérique d’octobre 2016, qui ont déjà totalement renversé la logique de publicité des décisions : d’un principe de sélection de décisions présentant un intérêt particulier résultant du décret du 7 août 2002[3], l’idée est désormais de (quasiment) tout rendre public. Mais pas d’un point de vue unitaire avec une interface de moteur de recherche comme Légifrance comme moyen d’accès, mais d’un point de vue global et systémique : au sens strict, l’open data c’est une base de données informatique brute, librement téléchargeable, et dont la licence autorise à en réemployer son contenu sans le paiement d’une redevance à son producteur. Il faut donc bien distinguer les obligations de publicité des décisions, déjà remplies par les juridictions lors de la délivrance des jugements papiers (et de manière compréhensible pour les citoyens sur Légifrance), avec les objectifs propres de l’open data des décisions de justice : rendre accessibles à tous les opérateurs (publics et privés) des données pouvant être retraitées informatiquement à volonté. Et quand on parle d’accessibilité, on ne parle pas d’intelligibilité. Ces bases de données brutes sont en effet totalement incompréhensibles pour la plupart des citoyens et ne présentent d’intérêt que pour des techniciens sachant les retraiter. On qualifie souvent les données de pétrole du XXIème siècle : l’open data est d’une certaine manière du pétrole brut gratuit à destination de raffineurs. Prêter des vertus de transparence à l’open data, c’est donc d’abord espérer que des tiers puissent s’en saisir pour créer du sens et de la valeur.

2/ Comprendre le sens et la valeur du traitement du nom des juges par des algorithmes

Et c’est bien là que se sont situés les débats postérieurs à la loi pour une République numérique, clarifiés par une mission d’étude et de préfiguration confiée au professeur Loïc Cadiet (dont les conclusions ont été rendues en novembre 2017[4]). Si cette ouverture de données ne concernait que des données non-nominatives, il n’y aurait guère de difficulté. Mais les possibilités de traitement et de croisement de noms ainsi classifiés dans une base de données rendent extrêmement sensible la question. Et le fait qu’il s’agisse de noms de professionnels, comme les magistrats, dont il convient de garantir l’indépendance et l’impartialité rend encore plus délicate cette question.

Les débats ont fait rage et tout semble s’y être mélangé. D’abord la confusion entre l’obligation de publicité et les objectifs propres de l’open data, venant de l’incompréhension totale du terme lui-même (certains ont pensé débattre des algorithmes de traitement, d’autres ont cru qu’il s’agissait de supprimer le nom des magistrats des décisions accessibles de manière unitaire sans imaginer qu’il s’agissait en réalité de la question de livrer tout le coffre au trésor, c’est-à-dire une base de données nominative). Ensuite en alimentant des soupçons corporatistes sur les magistrats qui ne résisteraient que pour éviter de rendre des comptes. Enfin, les affirmations, approximatives, de l’Assemblée nationale selon lesquelles la précédente rédaction de cet article par le Sénat aurait eu « pour effet d’empêcher l’open data des décisions de justice » en ce que « elle imposerait un objectif impossible à atteindre, sauf à effacer des parties entières des décisions de justice avant leur diffusion au public, ce qui rendrait les décisions de justice illisibles et inexploitables ». Il était question d’au moins pseudonymiser le nom des juges, non de l’anonymiser ! Tout cela a habilement occulté la question centrale qui aurait pourtant dû être traitée avant toute autre considération. Quel est le sens et la valeur du traitement d’une telle donnée nominative ?

L’exploitation des noms des présidents de formation de jugement des juridictions administratives (déjà partiellement en open data) avait pourtant permis de percevoir l’inanité d’un indicateur nominatif du taux de rejet de recours contre les obligations de quitter le territoire français[5]. Il paraissait non seulement improbable de penser isoler la tendance décisionnelle d’un président d’une formation juridictionnelle collégiale (dont la composition est par essence variable dans le temps) mais, surtout, la corrélation établie peinait à révéler une réelle cause. D’un point de vue scientifique, en effet, expliquer un comportement humain (celui d’un juge), revient à déterminer les mécanismes de causalité ayant conduit à ce comportement en présence d’un certain nombre de données contextuelles. Cela nécessite la constitution préalable d’un cadre interprétatif, constitué par les hypothèses ou points de vue adoptés par les différentes disciplines des sciences sociales[6]. Or, la seule corrélation statistique entre deux événements est insuffisante pour expliquer les facteurs réellement causatifs[7]. Appliqué au droit et aux décisions judiciaires, on mesure immédiatement ce qu’il peut y avoir de scientifiquement erroné et d’idéologique dans l’ambition de tenter de rendre objective la décision des juges grâce à des algorithmes moulinant de l’open data. Fournir une véritable explication d’un jugement nécessiterait une analyse beaucoup plus fine des données de chaque affaire et ne saurait naître spontanément d’une masse de liens lexicaux dans lesquels figure le nom d’un magistrat. Par exemple, le fait qu’un juge aux affaires familiales fixe statistiquement davantage la résidence habituelle d’un enfant chez la mère dans un ressort déterminé ne traduit pas nécessairement un parti-pris de ce magistrat en faveur des femmes, mais s’explique davantage par l’existence de facteurs sociaux-économiques et culturels propres à la population de sa juridiction[8].

3/ Et si la structuration des tuyaux de l’open data était la toute une première priorité ?

Les juges ne cherchent donc pas à être encagoulés comme l’affirmait le Canard Enchaîné le 25 avril 2018, ils n’ont pas à rougir pas de leurs décisions. Mais ils craignent des explications faussées et biaisées des décisions de justice qu’ils rendent. Car un profilage des juges qui confondrait outrancièrement corrélation et causalité viendrait profiter à des grands opérateurs économiques, à même de manipuler (dans tous les sens du terme) cette information… et probablement au détriment des citoyens que nous sommes.  

L’on perd malheureusement de vue la toute première priorité dans cette affaire : arriver à structurer les tuyaux de l’open data, puisque, à ce jour, ils n’existent que très partiellement. Il y a là un défi technique majeur à parvenir tout simplement à regrouper toutes les décisions judiciaires dans un format nativement numérique et à les pseudonymiser, défi pour lequel il conviendrait avant tout de donner des moyens substantiels au ministère de la justice, à la Cour de cassation et aux juridictions. Bien sûr, les éditeurs et des legaltechs préféreraient des flux « intègres » (c’est-à-dire des décisions dont les données nominatives ne seraient pas occultées) pour opérer eux-mêmes une pseudonymisation, mais il sera bien temps d’ouvrir progressivement les vannes de ce que l’on déverse dans la jungle numérique une fois que l’on aura clarifié, par un travail scientifique rigoureux soucieux de l’intérêt général, si l’on peut arriver à donner du sens et de la valeur à ces données sans compromettre quelques principes fondamentaux.


Les présents développements focalisent principalement sur les décisions judiciaires et le nom des magistrats – les problèmes demeurent identiques en ce qui concerne les décisions des juridictions administratives et il ne sera mentionné que l’expérience menée par le sitesupralegem.fr ; les enjeux spécifiques de la présence du nom des greffiers, des avocats ou d’autres professionnels ne seront pas développés ici mais demeurent également à questionner.

[1] L’article 454 du Code de procédure civile par exemple dispose : « Le jugement est rendu au nom du peuple français. Il contient l’indication : de la juridiction dont il émane ;  du nom des juges qui en ont délibéré ; de sa date ; du nom du représentant du ministère public s’il a assisté aux débats ; du nom du secrétaire ; des nom, prénoms ou dénomination des parties ainsi que de leur domicile ou siège social ; le cas échéant, du nom des avocats ou de toute personne ayant représenté ou assisté les parties ; en matière gracieuse, du nom des personnes auxquelles il doit être notifié. »

[2] La pseudonymisation ou « anonymisation réversible » consiste à remplacer un attribut par un autre dans un enregistrement. La personne physique n’est donc plus directement identifiable par son nom (qui est remplacé par exemple par un X…) mais elle est toujours susceptible d’être identifiée indirectement, par croisement de plusieurs données.

[3] Article R. 433-3 du code de l’organisation judiciaire

[4] L’open data des décisions de justice, mission d’études et de préfiguration sur l’ouverture au public des décisions de justice, Rapport à Madame la garde des Sceaux, ministre de la justice, novembre 2017 : http://www.justice.gouv.fr/publication/open_data_rapport.pdf

[5] M. Benesty, L’impartialité des juges mise à mal par l’intelligence artificielle in Village de la justice, Tribunes et point de vue du 24 mars 2016 ; www.village-justice.com/articles/impartialite-certains-juges-mise,21760.html – le contenu du site Supralegem.fr n’est désormais plus accessible et l’adresse redirige vers dalloz.fr

[6] Sur cette question, V. N. Regis, Juger, est-ce interpréter ? : Cahiers Philosophiques, Canopé éd., 2016, n° 147, p. 36-37.

[7] Voir le site internet Spurious Correlation qui recense un grand nombre de corrélations fallacieuses, tel qu’un taux de correspondance à plus de 99% entre 2000 et 2009 entre le nombre divorces dans l’Etat du Maine et la consommation de margarine par habitant – http://tylervigen.com/spurious-correlations

[8] Pour de plus amples développements, voir Y. Meneceur, Quel avenir pour une justice prédictive : JCP G 2018, doctr.190.

IA et droits de l’homme

Le Conseil de l’Europe vient d’ouvrir le premier portail européen portant sur l’intelligence artificielle (IA) et ses implications en ce qui concerne les droits de l’homme, la démocratie et l’Etat de droit.

Ce site recense tous les travaux actuellement en cours au sein de l’organisation internationale, dans ses différents comités, commissions et organes. Il propose de plus des articles de vulgarisation visant à contribuer une meilleure connaissance du phénomène et de ne céder ni à un alarmisme excessif, ni au solutionnisme qui habite encore de trop nombreux discours. 

Ce portail aura également vocation à communiquer sur la partie de l’agenda stratégique du Conseil de l’Europe à l’horizon 2028 portant sur l’IA.

Le Conseil de l’Europe invite également tous les acteurs de l’IA (secteur privé, secteur public, recherche) à utiliser le hashtag #CoE4AI pour signaler leurs initiatives de développement de solutions nativement conçues pour se mettre en conformité avec les valeurs défendues par l’institution.

Intelligence artificielle et infractions pénales

Quel est l’impact des IA en matière de cybercriminalité, de cybersécurité et d’infractions involontaires ?

Les potentialités des sciences, technologies et techniques de traitement des données qualifiées d’intelligence artificielle (IA) ouvrent des perspectives redoutées et redoutables en matière de cybercriminalité. Attaques automatisées, coordonnées, recherches automatiques de failles, l’IA constitue un véritable arsenal de guerre numérique, avec des bénéfices qui n’ont rien de virtuel pour leurs auteurs.

Mais l’on parle moins souvent des potentialités de l’IA pour lutter plus efficacement contre les menaces existantes et à venir : combinée à des analystes humains, l’IA est en mesure d’aider à déjouer, voire à anticiper, des attaques contre les systèmes et de protéger leurs utilisateurs.

D’une manière générale, l’élément moral des infractions volontaires dans le cyberespace n’est pas complexe à appréhender juridiquement (la recherche et l’exploitation d’éléments matériels le sont certainement plus). La question de la responsabilité est en revanche beaucoup plus épineuse s’agissant de faits relevant du champ des infractions involontaires : quel responsabilité rechercher lorsqu’au Japon un bras robot écrase un ouvrier sur son passage ou une voiture autonome renverse un piéton aux Etats-Unis ? … les exemples ne manquent pas et risquent se multiplier dans un proche avenir. Les instruments juridiques actuels paraissent-ils satisfaisants pour appréhender le phénomène ou conviendrait-il, au contraire, de concevoir de nouvelles législations spécifiques ?


L’IA au service de la sécurité des systèmes d’information

Avec la disponibilité d’un nombre croissant de données numériques, une quantité considérable d’informations personnelles et financières ont été exposées à de potentielles exploitations frauduleuses[1]. Qu’il s’agisse des formes classiques de criminalité sur internet (escroqueries par exemple) ou de nouvelles formes (intrusion dans des systèmes d’information), ces infractions ont conduit à des pertes économiques considérables. Selon une étude d’Accenture en 2017, le coût moyen d’une atteinte à la vie privée a été chiffré à 11,7 millions de dollars, soit une hausse de 23 % par rapport à l’année précédente. Ce constat est à enrichir d’un autre dressé cette fois-ci par IBM en 2014 : 95% de la cybercriminalité résulte d’une erreur humaine. Malgré les technologies de sécurité avancées disponibles aujourd’hui, la plupart des pirates continuent de cibler les vulnérabilités du comportement humain, et pas seulement celles, techniques, des systèmes et des réseaux.

L’IA constitue donc une opportunité pour mieux gérer les risques, non pas de manière totalement autonome, mais en appui à des compétences, bien humaines, en cybersécurité. Le laboratoire d’informatique et d’intelligence artificielle du MIT a ainsi mis au point une « plate-forme de cybersécurité adaptative » dénommée AI² qui améliore ses performances dans le temps par la combinaison d’apprentissage machine (machine learning) et des apports d’analystes en sécurité[2]. Concrètement, AI² bâtit des modèles comportementaux significatifs d’attaques et tente ensuite de les prédire en détectant des activités suspectes. Il présente ensuite ces activité à des analystes humains qui confirment quels événements sont des attaques réelles, et intègre cette rétroaction dans ses modèles pour les ensembles suivants de données.

Une autre potentialité de l’IA est la possibilité de faciliter les investigations et l’identification des cybercriminels. Dudu Mimran, directeur des technologies (CTO) du Telekom Innovation Laboratories en Israël, relevait dans un discours devant l’OCDE que l’amélioration des méthodes d’investigation et d’identification « souffre de sous-investissements parce qu’elle manque de viabilité commerciale »[3]. Cette difficulté, bien connue des spécialistes, s’explique au vu du nombre extrêmement important de variables à étudier, dont les fragments de code malveillants et la recherche d’éventuelles références identifiant des cybercriminels (références culturelles ou politiques par exemple). Cet expert suggère d’augmenter substantiellement le financement de la recherche en IA, dans le but de développer des systèmes « intelligents » parvenant à une meilleure identification d’auteurs d’infractions par corrélation des différentes traces, tout en ne perdant pas de vue la potentielle confidentialité des données traitées. De même, il ne réduit pas cette lutte à une démarche purement technique et il encourage à la mise en place d’un réseau mondial de renseignement, bien humain, en capacité de suivre les menaces, en réunissant des chercheurs, le monde des affaires et les autorités gouvernementales.


L’IA et l’automatisation de la cybercriminalité

La Convention sur la cybercriminalité du Conseil de l’Europe (« Convention de Budapest ») distingue deux grandes catégories de faits : les atteintes à des systèmes de traitement automatisé de données et les infractions de droit commun facilitées par un environnement numérique[4].

S’agissant de la première catégorie, l’IA est en capacité de renforcer l’automatisation de modes d’attaques directes de systèmes d’information (« scan » pour identifier et exploiter les vulnérabilités techniques) ou indirecte en volant auprès d’opérateurs humains les informations nécessaires pour accéder à un système (enregistrement de données à l’insu de l’utilisateur ou ingénierie sociale telle que le « fishing »). L’objectif de telles attaques, communément appelées « piratage informatique », est souvent de dérober des données sensibles (identifiants de cartes de paiement par exemple) ou de bloquer purement et simplement le fonctionnement d’un système (déni de service).

Depuis quelques années ce dernier type d’attaque est utilisé pour des fins de chantage et illustre bien une  seconde catégorie de cybercriminalité telle que définie par la Convention de Budapest : des faits de droit commun, facilités par les technologies numériques. Là encore, l’IA peut servir à automatiser des tentatives d’escroqueries, de fraudes, mais également produire des contre-mesures pour protéger le stockage et la distribution de matériel illégal, comme la pornographie juvénile et des contenus violant les droits d’auteur. D’autres types d’infractions seraient aussi à considérer, comme les manipulations boursières ou les modifications volontaires de comportement d’IA par d’autres IA à des fins criminelles ou délictuelles (les ingénieurs ne sont pas capables de déchiffrer complètement le code produit par les technologies d’apprentissage profond – deep learning… la prévention de leur manipulation devra passer par différentes méthodes pour s’assurer de l’intégrité de fonctionnement).

Pavel Gladyshev, professeur à l’University College Dublin, donne un dernier de criminalité facilité par l’IA dans un de ses articles récents[5] : l’application Deepfake altère les photographies et les vidéos numériques en remplaçant automatiquement le visage d’une personne par un autre. Bien qu’elle ait été créée à l’origine pour le divertissement d’adultes, la technologie a clairement le potentiel de produire de fausses vidéos montrant, par exemple, des politiciens assister à des réunions inexistantes ou s’engageant dans des activités qui pourraient nuire à leur réputation.


Le régime de responsabilité des infractions commises avec ou par des IA

Il est encore périlleux de tenter d’élaborer des règles de droit alors que nous sommes encore dans une phase de transition technologique, dont on suppose l’avenir sans réellement le connaître. Les réflexions sur la définition d’un régime de responsabilité quand des IA sont en jeux peuvent toutefois commencer s’appuyer ce que sont clairement ces systèmes : ce sont des modèles mathématiques créés par des humains pour exécuter des tâches complexes et qui se trouvent assignés lors de leur conception une fonction précise.

La question d’une prétendue « volonté » autonome d’une IA (et des robots fonctionnant sur la base d’IA) est immédiatement à écarter s’agissant d’infractions volontaires commises ou commanditées par des humains. Il faudra se garder de tout anthropomorphisme et il ne sera pas question de rechercher une conscience et un élément intentionnel dans une agrégation de systèmes ou un algorithme : il conviendra de revenir systématiquement à l’agent humain qui a utilisé ou assemblé ces systèmes avec l’intention de commettre une infraction. En d’autres termes, la question n’est pas différentes d’autres outils utilisés à des fins infractionnelles et ces systèmes, mêmes s’ils renvoient à un imaginaire de science-fiction, n’édulcorent en rien la responsabilité directe d’un agent humain[6]. Une IA utilisée pour attaquer en « force brute » un serveur ou détecter ses failles techniques n’est guère différente du marteau piqueur utilisé pour attaquer le coffre-fort d’une banque : nul n’aura à l’esprit de rechercher la responsabilité de l’outil de chantier ou de son fabricant.

Une certaine confusion semble toutefois exister pour les systèmes ayant commis des dommages relevant du champ des infractions involontaires. Le décès causé en mars 2018 par une voiture autonome exploitée par Uber en Arizona a marqué les esprits et a illustré que les difficultés ne proviennent de l’absence d’un cadre juridique adapté, mais, encore une fois, d’une incompréhension de ce que sont réellement les IA aujourd’hui. Les premières investigations semblent démontrer qu’un réglage « trop souple » pour éviter des freinages intempestifs a contribué à la survenance de l’accident, en plus d’une possible inaction d’un agent de contrôle humain. Le régime des infractions involontaires est à même d’appréhender ce type de situation avec une certaine acuité : les réglages opérés sur le freinage constituent-ils un manquement à une obligation de prudence ou de sécurité ? L’agent de contrôle humain, à bord du véhicule, était-il concentré sur sa tâche ? Dans ce cas, même si le contexte est nouveau, il n’y a rien que les juristes ou des juges ne sauraient traiter avec les instruments existants.

En revanche, la recherche de responsabilité risque de se complexifier quand différentes technologies sont agrégées (robotique, IA, big data, blockchain par exemple) et/ou si la machine a procédé à une phase autonome d’apprentissage (comme l’apprentissage profond ou deep learning)  : une certaine dilution du rôle des différents acteurs sera à craindre au détriment de la victime du dommage. En matière civile la définition d’une personnalité juridique spécifique est soutenue par le Parlement européen[7] mais se trouve critiquée car elle alimenterait la confusion sur la nature réelle des IA et ne représenterait au final un intérêt que pour les fabricants eux-mêmes (qui pourraient plus aisément dégager leur responsabilité en s’appuyant sur des mécanismes d’indemnisation [8]). En matière pénale, une telle construction juridique fictive pourrait aussi présenter un intérêt s’agissant de dommages involontaires ou inattendus présentant un certain degré de gravité mais, là encore, il ne s’agit pas de déresponsabiliser les concepteurs, bien humains, sur les conséquences potentielles de leurs actions. En toute hypothèse, faudrait-il peut-être procéder par étape avant de légiférer spécifiquement ? Il paraîtrait en effet opportun de définir tout d’abord ce qui pourrait être, en l’état de l’art, un cadre pertinent de sécurité et de prudence pour la conception et l’utilisation de tels systèmes complexes et d’évaluer ensuite s’il est nécessaire de faire évoluer – ou non – le régime actuel des infractions involontaires (qui distingue bien entre les liens de causalité directe ou indirecte et impose de caractériser soit une faute simple, soit une faute délibérée ou caractérisée en fonction de la nature de ce lien de causalité).

Animateur des Temps Electriques


Aller plus loin ?

Intelligence artificielle et cybercriminalité : interviews lors de la conférence « Octopus 2018 » du Conseil de l’Europe

Infographie de la société GEMALTO sur les failles de sécurité

 


Notes

[1] Voir à titre d’illustration l’infographie de la société Gemalto, ci-dessus.

[2] Voir par exemple l’article de vulgarisation publié sur le site d’information du MIT : http://news.mit.edu/2016/ai-system-predicts-85-percent-cyber-attacks-using-input-human-experts-0418

[3] D. Mimran, Risks of Artificial Intelligence on Society, 27 octobre 2017 : https://www.dudumimran.com/2017/10/risks-artificial-intelligence-society.html/

[4] Convention sur la cybercriminalité du Conseil de l’Europe, 23 novembre 2001 : http://www.europarl.europa.eu/meetdocs/2014_2019/documents/libe/dv/7_conv_budapest_/7_conv_budapest_fr.pdf

[5] P. Gladyshev, Artificial Intelligence and cybercrime, Eolas Magazine, 29 mars 2018 : http://www.eolasmagazine.ie/artificial-intelligence-and-cybercrime/

[6] G. Hallevy, The Criminal Liability of Artificial Intelligence Entities, 15 février 2010 : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096

[7] Le Parlement propose également de réfléchir à des formes d’assurances pour les clients, voir par exemple M. Delvaux, Un cadre légal en matière de robotique est nécessaire, 12 janvier 2017 : http://www.europarl.europa.eu/news/fr/headlines/economy/20170109STO57505/mady-delvaux-un-cadre-legal-en-matiere-de-robotique-est-necessaire

[8] L. Neuer, Entretien avec Nathalie Nevejans, « Responsabilité des robots : appliquons nos règles de droit », L’Express, 11 avril 2017 : http://www.lepoint.fr/chroniqueurs-du-point/laurence-neuer/responsabilite-des-robots-appliquons-nos-regles-de-droit-11-04-2017-2118933_56.php

Intelligence artificielle et procès pénal

Quelle utilisation de l’IA dans le procès pénal en Europe ?

Les passionnés de science fiction n’aurons sans doute raté un chef d’œuvre du genre, le célèbre Minority Report de Steven Spielberg. En 2054, l’agent John Anderton (Tom Cruise) est à la tête d’une unité de police très particulière, la division « Pré-Crime », capable d’identifier l’auteur d’un crime avant le passage à l’acte grâce aux prédictions des trois créatures, dotées de pouvoirs de prévoyance surnaturelle, dénommées « Pré-Cogs ». Un jour, alors qu’il revient d’une mission périlleuse, John apprend par hasard qu’il fait lui-même l’objet d’une prédiction des « Pré-Cogs » et qu’il est censé tuer un homme qu’il ne connaît pas. Il s’enfuit et tente de comprendre comment «Pré-Crime» a pu le désigner comme un tueur…..

Est-ce que notre réalité est aussi éloignée de ce scénario de science fiction ? Pas tout à fait. L’entrée des techniques d’intelligence artificielle (IA), et notamment celles d’apprentissage machine (machine learning) dans le champ pénal a rendu en effet possible une certaine dose de prédiction : si l’identification préalable de l’auteur d’une infraction pénale demeure impossible, l’IA permettrait en revanche d’évaluer les probabilités de réitération d’une conduite criminelle par une personne soumise à une privation de liberté par l’autorité publique, moyennant des instruments de « vérification du risque » (risk assessment tools). Utilisés à large échelle aux Etats Unis, ceux-ci commencent à faire l’objet d’expérimentation en Europe, notamment au Royaume Uni.

Dans ces systèmes de common law en effet, le niveau de risque  de récidive (faible, moyen élevé) fait partie des critères de détermination de la peine ou de la mesure de réhabilitation[1] : on considère que les criminels à « risque faible » doivent recevoir une peine de prison plus courte ou bénéficier de mesures alternatives à la détention, alors que ceux considérés à « haut risque » devraient aller en prison. Les outils d’évaluation du risque ont été conçus pour aider le juge dans le processus décisionnel et leur domaine d’utilisation s’est progressivement élargi au fil du temps ; employés à l’origine en phase d’exécution de la peine (pour évaluer l’opportunité d’octroyer la libération conditionnelle ou d’assigner la personne concernée à des services de probation), ils sont couramment utilisés dans la phase de  détermination de la peine (sentencing) et d’application de la garde à vue dans plusieurs états fédérés[2]. Leurs constats ne sont pas contraignants pour le juge.

L’IA a permis de développer des instruments d’évaluation du risque de « nouvelle génération » qui se  fondent sur l’analyse statistique de grands ensembles de données agrégées relatives aux conduites criminelles.  Un échantillon de décisions de privation des libertés est sélectionné et des corrélations sont par la suite établies avec des « facteurs de risque » relatifs aux individus touchés par ces décisions. Il peut s’agir par exemple du sexe, de l’âge, de la scolarité, de l’état civil et du statut professionnel de l’individu, de sa situation patrimoniale, de ses antécédents criminels, de son domicile et de sa stabilité résidentielle. Un algorithme est par la suite élaboré qui, en s’appuyant sur des modèles conçus avec des techniques d’« apprentissage machine », détermine la probabilité statistique de récidive de la personne concernée en fonction du nombre de facteurs de risque pertinents. Plus celle-ci partage des facteurs de risque avec des individus ayant récidivé (selon les statistiques élaborées), plus l’algorithme évaluera comme étant élevé son risque de réitération de l’infraction.

D’après leurs partisans, l’intérêt de la mise en place de ces outils réside dans leur capacité de donner des éléments de contexte supplémentaires au juge, lui permettant de combiner l’information dont il dispose avec une estimation de la conduite probable de l’individu dans l’avenir, fondée sur des données statistiques relatives à des cas analogues.  Leurs détracteurs relèvent au contraire les criticités existantes vis-à-vis des principes d’égalité de traitement, d’individualisation et de proportionnalité de la peine : le comportement passé d’un certain groupe de personnes finirait en effet pour influencer le sort d’un individu qui, en tant qu’être humain unique, est inséré dans un contexte social spécifique. Il a reçu une éducation et développé des compétences propres et ne peut être jugé qu’en fonction de son propre degré de culpabilité et des motivations spécifiques qui l’ont conduit à commettre une infraction[3].

La question de l’objectivité de ces outils, censés contrer la subjectivité du juge, fait aussi l’objet de débat. Fondées uniquement sur un traitement statistique de données relatives aux infractions passées, insensibles aux sentiments et aux préjugés, les prédictions de l’IA seraient plus fiables que celles de l’être humain. Cet argument, qui paraît séduisant à première vue, néglige que le biais sont souvent incorporés dans les données elles-mêmes.

Un exemple pertinent à cet égard est lié à un des facteurs qui revêt une grande importance dans tous les outils d’évaluation du risque, à savoir celui de l’histoire criminelle. Son évolution peut en effet dépendre des décisions des pouvoirs publics (par exemple, où déployer la police, qui arrêter, quel type de sanctions appliquer)  qui pourraient à leur tour être tâchées de biais sociétaux ou raciaux. Si par exemple certaines communautés sont plus visées que d’autres par des mesures de police, les antécédents criminels des personnes faisant parties de ces communautés seront en conséquence plus nombreux.

Ces outils ne feraient donc que reproduire des disparités raciales et socio-économiques déjà existantes dans nos sociétés, comme le montre bien l’enquête menée par l’ONG Pro-Publica en 2016[4] par rapport à COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un instrument d’évaluation du risque utilisé dans plusieurs états fédérés américains:  les populations afro-américaines se sont vues attribuer un taux de risque de récidive deux fois supérieur à celui des autres populations dans les deux ans qui suivaient l’application de la peine ; inversement l’algorithme considérait que d’autres populations semblaient beaucoup moins susceptibles de réitérer une infraction. Des outils donc aux effets discriminatoires et déterministes, qui finissent pour pénaliser certaines communautés ou individus plus que d’autres.

La prétendue impartialité et objectivité d’une justice administrée par les algorithmes se heurterait donc à la « contamination » des statistiques et des données ; à l’apparence « stérilisée » par l’utilisation de méthodes mathématiques et statistiques, elle finirait pour légitimer des injustices, voir les amplifier par le biais d’une inégalité de traitement répétée par les tribunaux.

Est-ce que l’IA serait plus exacte dans ses déterminations qu’un juge humain ? Quoiqu’en capacité de traiter et d’établir des liens entre des grandes masses de données, et d’une manière plus performante qu’un être humain, on ne peut pas conclure pour autant à une supériorité de l’IA sur le plan des résultats. Les fautes plus fréquemment produites par les outils d’évaluation du risque sont celles relatives à l’inclusion d’un individu dans une catégorie de risque erronée. L’IA peut en effet produire :

  • Des « faux négatifs » que nous pouvons qualifier d’erreur «Darth Vader»[5] – c’est-à-dire qu’une personne est libérée en étant considérée à faible risque, alors qu’elle elle est dangereuse, et commet par la suite une infraction ;
  • Des « faux positifs » que l’on pourrait inversement qualifier d’erreur «Han Solo» – c’est-à-dire qu’une personne est détenue sur la base d’un jugement de dangerosité, mais en fait ne commettrait aucun tort si elle était libérée.

Des exemples concrets de catégorisation erronée ont été donnés dans le cadre de l’enquête de ProPublica[6] ; toutefois, il y a un risque que des situations analogues puissent se produire aussi en Europe. Depuis 2017, la police de Durham, en Angleterre, utilise dans le cadre de la garde à vue un outil d’évaluation du risque en tant qu’aide à la décision. Comme ses homologues américains, HART (Harm Assessment Risk Tool) détermine le niveau du risque (faible, moyen, élevé) du mis en cause ; ses conclusions ne sont pas contraignantes pour la police. Des articles parus récemment dans le milieu académique  et dans la presse[7]  ont mis en relief que l’algorithme à la base de HART aurait été construit sur la base d’un « compromis entre les faux positifs et les faux négatifs », avec l’objectif de réduire le plus possible le nombre de faux négatifs et ainsi éviter que des suspects soient classifiés à risque faible ou moyen alors qu’ils sont dangereux. Pour parvenir à ce résultat, l’algorithme étiquetterait des suspects comme à risque élevé de manière assez libérale ; en conséquence, des personnes qui sont en réalité moyennement ou peu dangereuses pourraient être incluses dans la catégorie à haut risque, ce qui soulève des interrogations quant à la proportionnalité de cette mesure, ayant des effets sensibles sur la liberté personnelle, avec le but recherché de protection de la société.

Cet exemple montre comment l’IA peut être programmée pour pallier aux erreurs de jugement ou aux doutes de l’humain : dans ce cas particulier, elle servirait à aider les policiers à détecter des cas qu’ils pourraient manquer ou qu’ils hésitent à considérer comme présentant un risque élevé. Or, la recherche universitaire a relevé que les avis de l’humain et de l’IA en la matière peuvent considérablement diverger : sur les 888 exemples de garde à vue étudiés[8], les policiers étaient d’accord avec les prévisions de l’IA désignant des suspects à haut risque seulement dans le 10% des cas (accord qui se situait au 70% et 52 % lorsque le niveau de risque était considéré modéré ou faible). Inversement l’IA était d’accord avec les prévisions des policiers dans le 24% (risque élevé), 62% (risque modéré) et  49 % des cas (risque faible).

La recherche précitée suggérait que les policiers, en l’absence de certitudes, préféraient ne pas retenir une qualification ayant un impact considérable sur la liberté personnelle. Ce qui nous renvoie à la question de la responsabilité (accountability) dans la prise de décisions : à différence d’une machine, des officiers de police doivent pouvoir expliquer les raisons à fondement d’une décision de privation de liberté et rendre compte de leur processus décisionnel.

Une autre question importante, étroitement liée à la précédente, est celle de la place de ces outils dans le processus décisionnel : comme relevé précédemment, il s’agit d’instruments d’aide à la prise de décision, donnant des informations supplémentaires – à pondérer avec d’autres éléments – qui devraient permettre un exercice plus réfléchi du pouvoir discrétionnaire du juge. Les prévisions d’évaluation des risques ne devraient pas, en théorie, être déterminantes et se substituer aux décisions du juge. Peut-on néanmoins exclure le risque de « dépendance » du juge par rapport aux constats de l’algorithme, d’autant plus lorsque ceux-ci sont présentées comme robustes et fiables et utilisés à large échelle dans le système judiciaire? Le risque ne peut, selon nous, être écarté, et notamment dans l’hypothèse d’affaires sensibles où les pressions sur le juge pourraient être considérables, ou dans les systèmes où les garanties statutaires d’indépendance seraient insuffisantes.

Et encore, quelle maîtrise a réellement le juge sur les instruments d’évaluation du risque, notamment  lorsqu’ils sont élaborés par des entreprises privées ? Comment peut-il vérifier si les prévisions sont prives d’erreurs? La propriété privée de l’instrument ne permet pas d’accéder aux secrets de l’IA.  Peut-on exiger que, lorsque la liberté personnelle est en jeu, ce droit puisse être limité ? Une mise en balance doit être recherchée : il faut que les outils d’évaluation du risque soient transparents, avec un code source permettant aux juges, aux avocats de la défense et aux communautés de comprendre et d’évaluer l’algorithme. Cette transparence devrait d’abord reposer sur l’engagement et l’éthique des acteurs privés, mais un cadre régulateur des pouvoirs publics paraît également souhaitable, notamment dans un domaine aussi sensible que le droit pénal. Une transparence qui permettrait par ailleurs un respect effectif de l’égalité des armes et des droits de la défense[9] : la partie concernée devrait avoir accès et pouvoir remettre en cause la validité scientifique, le poids donné aux différents éléments de l’algorithme et les éventuelles conclusions erronées de celui-ci.

Faudrait-il envisager une utilisation différente de l’IA dans le domaine pénal ?

Eu égard aux risques d’erreur et d’atteinte aux libertés évoqués ci-dessus, il nous semble important de changer de paradigme. Il faut notamment passer d’une approche « prédictive » qui se révèle déterministe et punitive à une qui soit plus respectueuse des droits fondamentaux, dans laquelle le juge joue un rôle fondamental en matière d’individualisation de la peine.

Celle-ci serait déterminée sur la base d’éléments objectifs de personnalités (formation, emploi, prise en charge médico-sociale régulière) sans autre forme d’analyse que celle opérée par des professionnels spécifiquement formés, comme les agents de probation par exemple. Les capacités de l’IA de traiter des énormes quantités de données pourraient ainsi être utilisées en faveur de l’individu, et notamment pour centraliser et collecter des informations de caractère économico-social, ou sanitaire le cas échéant[10] qui sont détenues auprès d’institutions et organismes public différents.  Ces informations, rapidement collectées par l’IA, pourraient être extrêmement utiles à un juge devant parfois statuer dans des délais extrêmement courts (par exemple dans le cadre des procédures dites de « comparution immédiate » en France ou de « jugement immédiat » en Italie).

En guise de conclusion, l’IA doit rester au service de l’humain, renforcer et ne pas diminuer ses droits, et se fonder sur les principes éthiques de transparence et de responsabilité, notamment dans le domaine pénal.

Administratrice au Conseil de l’Europe (CEPEJ, Commission européenne pour l’efficacité de la justice)
Secrétaire du groupe de travail « Qualité » (CEPEJ-GT-QUAL)

P.S. Dans Minority Report, Tom Cruise parvient à prouver son innocence en démontrant que le système_ « Pré-Crime » avait été manipulé par son créateur, Max von Sydow.


Notes

[1] Les systèmes continentaux se concentrent inversement sur la responsabilité pénale et la gravité de l’infraction lors de la détermination de la peine, mais la dangerosité du criminel et  le risque de récidive peuvent rentrer en ligne de compte dans la détermination de la sanction lorsqu’on considère les circonstances aggravantes du crime.

[2] Danielle Kehl, Priscilla Guo, and Samuel Kessler, Responsive Communities, “Algorithms in the Criminal Justice System: Assessing the Use of Risk Assessment in Sentencing”, disponible au lien suivant, visité le 20/072018: https://dash.harvard.edu/bitstream/handle/1/33746041/2017-07_responsivecommunities_2.pdf?sequence=1

[3] Aleš Završnik, Big Data, crime and social control, © 2018 – Routledge, page 197.

[4] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, visited on 19/07/2018

[5] Les fans de Star Wars se rappelleront que dans épisode VI, « Le Retour du Jedi » Darth Vader tue l’empereur. Il y a donc une rédemption de ce personnage que, dans le cadre de cette analyse, nous avons placé précédemment dans la catégorie « à haut risque ». Une rédemption qui n’appartient pas uniquement au monde de la fiction mais qui est devenue un objectif important des systèmes pénaux contemporains : les principes de réinsertion et de réintégration des personnes condamnées, affirmés aussi à plusieurs reprises par la Cour européenne des droits de l’homme, sont devenus des standards importants dans le droit pénal européen (voir Vinter et autres c. Royaume-Uni [GC], nos 66069/09 et 2 autres, §§ 103-122, CEDH 2013 (extraits), et plus récemment Hutchinson c. Royaume-Uni [GC], no 57592/08, §§ 42-45, 17 janvier 2017)

[6] Pour le même type d’infraction (vol), l’algorithme a erronément considéré une femme noire à haut risque et inversement, un homme blanc à faible risque, alors que ce dernier avait un casier judiciaire plus important. Dans les deux années suivantes la femme n’a pas récidivé alors que l’homme a été condamné à une peine de prison ferme de huit ans pour effraction et vol.

[7] Big Brother Watch, « A Closer Look at Experian Big Data and Artificial Intelligence in Durham Police », paru le 6 avril 2018, et  Marion Oswald, Jamie Grace, Sheena Urwin, Geoffrey Barnes « Algorithmic Risk Assessment Policing Models: Lessons from the Durham HART Model and ‘Experimental’ Proportionality », Information & Communications Technology Law, University of Cambridge, August 31, 2017, disponible au lien suivant visité le 23/07/2018:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3029345

[8] Sheena Urwin, Algorithmic case forecasting of offender dangerousness for police custody officers: an assessment of accuracy for the Durham Constabulary model, page 72, disponible au lien suivant visité le 23/07/2018: http://www.crim.cam.ac.uk/alumni/theses/Sheena%20Urwin%20Thesis%2012-12-2016.pdf

[9] Regner c. République tchèque [GC], no 35289/11, §§ 146-149, 19 septembre 2017

[10] Par exemple la recherche d’emploi, l’engagement dans un traitement de lutte à la dépendance causée par des drogues ou l’alcool.

Petite histoire de l’intelligence artificielle…

Ce que nous enseignent les trois âges d’or de l’IA

L’intelligence artificielle (IA) est une discipline jeune d’une soixante d’années, qui est un ensemble de sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle, informatique) qui ambitionne d’imiter les capacités cognitives d’un être humain. Initiés dans le souffle de la seconde guerre mondiale, ses développements sont intimement liés à ceux de l’informatique et ont conduit les ordinateurs à réaliser des tâches de plus en plus complexes, qui ne pouvaient être auparavant que déléguées à un humain.

Cette automatisation demeure toutefois loin d’une intelligence humaine au sens strict, ce qui rend la dénomination critiquable pour certains experts. Le stade ultime de leurs recherches (une IA « forte », c’est-à-dire en capacité de contextualiser des problèmes spécialisés très différents de manière totalement autonome) n’est absolument pas comparable aux réalisations actuelles (des IA « faibles » ou « modérées », extrêmement performantes dans leur domaine d’entraînement). L’IA « forte », qui ne s’est encore matérialisée qu’en science-fiction, nécessiterait des progrès en recherche fondamentale (et non de simples améliorations de performance) pour être en capacité de modéliser le monde dans son ensemble.

Depuis 2010, la discipline connaît toutefois un nouvel essor du fait, principalement, de l’amélioration considérable de la puissance de calcul des ordinateurs et d’un accès à des quantités massives de données.

Les promesses, renouvelées, et les inquiétudes, parfois fantasmées, complexifient une compréhension objective du phénomène. De brefs rappels historiques peuvent contribuer à situer la discipline et éclairer les débats actuels.

1940-1960 : Naissance de l’IA dans le sillage de la cybernétique

L’époque entre 1940 et 1960 a été fortement marquée par la conjonction de développements technologiques (dont la seconde guerre mondiale a été un accélérateur) et la volonté de comprendre comment faire se rejoindre le fonctionnement des machines et des êtres organiques . Ainsi pour Norbert Wiener, pionnier de la cybernétique, l’objectif était d’unifier la théorie mathématique, l’électronique et l’automatisation en tant que « théorie entière de la commande et de la communication, aussi bien chez l’animal que dans la machine » [1]. Juste auparavant, un premier modèle mathématique et informatique du neurone biologique (neurone formel) avait été mis au point par Warren McCulloch et Walter Pitts dès 1943[2].

Début 1950, John Von Neumann et Alan Turing ne vont pas créer le terme d’IA mais vont être les pères fondateurs de la technologie qui la sous-tend : ils ont opéré la transition entre les calculateurs à la logique décimale du XIXème siècle (qui traitaient donc des valeurs de 0 à 9) et des machines à la logique binaire (qui s’appuient sur l’algèbre booléenne, traitant des chaines plus ou moins importantes de 0 ou de 1[3]). Les deux chercheurs ont ainsi formalisé l’architecture de nos ordinateurs contemporains et ont démontré qu’il s’agissait là d’une machine universelle, capable d’exécuter ce qu’on lui programme. Turing posera bien en revanche pour la première fois la question de l’éventuelle intelligence d’une machine dans son célèbre article de 1950 « Computing Machinery and Intelligence[4] » et a décrit un « jeu de l’imitation », où un humain devrait arriver à distinguer lors d’un dialogue par téléscripteur s’il converse avec un homme ou une machine. Pour polémique que soit cet article (ce « test de Turing » n’apparaît pas qualifiant pour nombre d’experts), il sera souvent cité comme étant à la source du questionnement de la limite entre l’humain et la machine.

La paternité du  terme « IA » pourrait être attribué à John McCarthy du MIT (Massachusetts Institute of Technology), terme que Marvin Minsky (université de Carnegie-Mellon) définit comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». La conférence durant l’été 1956 au Dartmouth College (financée par le Rockefeller Institute) est considérée comme fondatrice de la discipline. De manière anecdotique, il convient de relever le grand succès d’estime de ce qui n’était pas une conférence mais plutôt un atelier de travail. Seulement six personnes, dont McCarthy et Minsky, étaient restées présentes de manière constante tout au long de ces travaux (qui s’appuyaient essentiellement sur des développements basés sur de la logique formelle).

Il s’agissait peut-être là d’un signal. Si la technologie demeurait fascinante et remplie de promesse (voir notamment dans le domaine judiciaire l’article de Reed C.Lawlor, avocat au barreau de Californie, de 1963 « What Computers Can Do : Analysis and Prediction of Judicial Decisions »), l’engouement est retombé au début des années 1960. Les machines disposaient en effet de très peu de mémoire, rendant malaisé l’utilisation d’un langage informatique. On y retrouvait toutefois déjà certains fondements encore présents aujourd’hui comme les arbres de recherche de solution pour résoudre des problèmes : l’IPL, information processing language,  avait permis ainsi d’écrire dès 1956 le programme LTM (logic theorist machine) qui visait à démontrer des théorèmes mathématiques.

Herbert Simon, économiste et sociologue, a eu beau prophétiser en 1957 que l’IA arriverait à battre un humain aux échecs dans les  10 années qui suivraient, l’IA est entrée alors dans un premier hiver. La vision de Simon s’avérera pourtant juste… 30 années plus tard.

 

1980-1990 : Les systèmes experts

En 1968 Stanley Kubrick réalisera le film « 2001 l’Odyssée de l’espace » où un ordinateur – HAL 9000 (distant que d’une seule lettre de celles d’IBM) résume en lui-même toute la somme de questions éthiques posées par l’IA : arrivée à un haut niveau de sophistication, celle-ci représentera-t-elle un bien pour l’humanité ou un danger ? L’impact du film ne sera naturellement pas scientifique mais il contribuera à vulgariser le thème, tout comme l’auteur de science-fiction Philip K. Dick, qui ne cessera de s’interroger si, un jour, les machines éprouveront des émotions (Les androïdes rêvent-ils de moutons électriques ?).

C’est avec l’avènement des premiers microprocesseurs fin 1970 que l’IA reprend un nouvel essor et entre dans l’âge d’or des systèmes experts.

La voie avait été en réalité ouverte au MIT dès 1965 avec DENDRAL (système expert spécialisé dans la chimie moléculaire) et à l’université de Stanford en 1972 avec MYCIN (système spécialisé dans le diagnostic des maladies du sang et la prescription de médicaments). Ces systèmes s’appuyaient sur un « moteur d’inférence », qui était programmé pour être un miroir logique d’un raisonnement humain. En entrant des données, le moteur fournissait ainsi des réponses d’un haut niveau d’expertise.

Les promesses laissaient envisager un développement massif mais l’engouement retombera à nouveau fin 1980, début 1990. La programmation de telles connaissances demandait en réalité beaucoup d’efforts et à partir de 200 à 300 règles, il y avait un effet « boîte noire » où l’on ne savait plus bien comment la machine raisonnait. La mise au point et la maintenance devenaient ainsi extrêmement problématiques et – surtout – on arrivait à faire plus vite et aussi bien d’autres manières moins complexes, moins chères. Il faut rappeler que dans les années 1990, le terme d’intelligence artificielle était presque devenu tabou et des déclinaisons plus pudiques étaient même entrées dans le langage universitaire, comme « informatique avancée ».

Le succès en mai 1997 de Deep Blue (système expert d’IBM) au jeu d’échec contre Garry Kasparov concrétisera 30 ans plus tard la prophétie de 1957 d’Herbert Simon mais ne permettra pas de soutenir les financements et les développements de cette forme d’IA. Le fonctionnement de Deep Blue s’appuyait en effet sur un algorithme systématique de force brute, où tous les coups envisageables étaient évalués et pondérés. La défaite de l’humain est restée très symbolique dans l’histoire mais Deep Blue n’était en réalité parvenu à ne traiter qu’un périmètre très limité (celui des règles du jeu d’échec), très loin de la capacité à modéliser la complexité du monde.

L’histoire n’était pas encore terminée…

Depuis 2010 : un nouvel essor à partir des données massives et d’une nouvelle puissance de calcul

Deux facteurs expliquent le nouvel essor de la discipline aux alentours de 2010.

  • L’accès tout d’abord à des volumes massifs des données. Pour pouvoir utiliser des algorithmes de classification d’image et de reconnaissance d’un chat par exemple, il fallait auparavant réaliser soi-même un échantillonnage. Aujourd’hui, une simple recherche sur Google permet d’en trouver des millions.
  • Ensuite la découverte de la très grande efficacité des processeurs de cartes graphiques des ordinateurs pour accélérer le calcul des algorithmes d’apprentissage. Le processus étant très itératif, cela pouvait prendre des semaines avant 2010 pour traiter l’intégralité d’un échantillonnage. La puissance de calcul de ces cartes, (capables de plus de mille milliards d’opérations par seconde) a permis un progrès considérable pour un coût financier restreint (moins de 1000 euros la carte).

Ce nouvel attirail technologique a permis quelques succès publics significatifs et a relancé les financements : en 2011, Watson, l’IA d’IBM, remportera les parties contre 2 champions du « Jeopardy ! ». En 2012, Google X (laboratoire de recherche de Google) arrivera à faire reconnaître à une IA des chats sur une vidéo. Plus de 16 000 processeurs ont été utilisés pour cette dernière tâche, mais le potentiel est alors extraordinaire : une machine arrive à apprendre à distinguer quelque chose. En 2016, AlphaGO (IA de Google spécialisée dans le jeu de Go) battra le champion d’Europe (Fan Hui) et le champion du monde (Lee Sedol) puis elle-même (AlphaGo Zero). Précisons que le jeu de Go a une combinatoire bien plus importante que les échecs (plus que le nombre de particules dans l’univers) et qu’il n’est pas possible d’avoir des résultats aussi significatifs en force brute (comme pour Deep Blue en 1997).

D’où vient ce miracle ? D’un changement complet de paradigme par rapport aux systèmes experts. L’approche est devenue inductive : il ne s’agit plus de coder les règles comme pour les systèmes experts, mais de laisser les ordinateurs les découvrir seuls par corrélation et classification, sur la base d’une quantité massive de données.

Parmi les techniques d’apprentissage machine (machine learning),  c’est celle de l’apprentissage profond (deep learning) qui paraît la plus prometteuse pour un certain nombre d’application (dont la reconnaissance de voix ou d’images). Dès 2003, Geoffrey Hinton (de l’Université de Toronto), Yoshua Bengio (de l’Université de Montréal) et Yann LeCun (de l’Université de New York) avaient décidé de démarrer un programme de recherche pour remettre au goût du jour les réseaux neuronaux. Des expériences menées simultanément à Microsoft, Google et IBM avec l’aide du laboratoire de Toronto de Hinton ont alors démontré que ce type d’apprentissage parvenait à diminuer de moitié les taux d’erreurs pour la reconnaissance vocale. Des résultats similaires ont été atteints par l’équipe de Hinton pour la reconnaissance d’image.

Du jour au lendemain, une grande majorité des équipes de recherche se sont tournées vers cette technologie aux apports incontestables. Ce type d’apprentissage a aussi permis des progrès considérables pour la reconnaissance de texte, mais, d’après les experts comme Yann LeCun, il y a encore beaucoup de chemin à parcourir pour produire des systèmes de compréhension de texte. Les agents conversationnels illustrent bien ce défi : nos smartphones savent déjà retranscrire une instruction mais ne parviennent pas la contextualiser pleinement et à analyser nos intentions.

Et après… quels enjeux ?

Le premier enjeu est technique et formel. Les équipes de recherches continuent à investir de nouvelles approches d’apprentissage, en miroir de la manière dont l’humain apprend. Nul doute que l’apprentissage machine en sera simplifié et rendu plus accessible.

Le second enjeu est politique et de fond. Le traitement de forts volumes de données révèlent les biais qui y sont cachés (masculin / féminin, riche / pauvre, etc). Croisés avec d’autres paramètres sensibles (appartenance politique, religion, maladie, délinquance), des résultats catastrophiques sont prévisibles. L’algorithme COMPAS aux Etats-Unis et HART en Grande-Bretagne, censés évaluer le risque de récidive des individus, pondèrent négativement les populations les plus précaires et de certaines origines ethniques. Non parce qu’ils ont été conçus pour cela, mais parce que ces biais n’ont pas été neutralisés lors de leur conception et que le résultat a une vocation prescriptive. Ce qui en fait un système déterministe socialement.

Il ne faut donc pas craindre dans un immédiat (même lointain) l’IA « forte », prédite par Stephen Hawking, Elon Musk ou celle des écrivains de science-fiction, qui se coderait plus vite que la génétique biologique et qui éradiquerait l’humanité. La capacité de mise en relation des IA avec le monde  réel est très faible car elle n’a finalement que très peu de capteurs : elle vit d’une certaine manière en autiste dans ses modèles spécialisés de données, qui sont ne sont que très peu mis en relation entre eux ou avec le monde réel.

Il faut en revanche craindre le « solutionnisme », tel que défini par Evgeny Moroz[5]. Si les résultats de l’IA sont spectaculaires dans certains domaines bien précis, il en est d’autres où l’utilisation de ces technologies requiert une grande prudence à traduire par une approche pluridisciplinaire, mêlant ingénierie informatique et sciences sociales. Les enjeux sociétaux et les problèmes individuels ne peuvent évidemment pas trouver de solution aussi simpliste et universelle par les seules nouvelles technologies. On peut imaginer que pour certains concepteurs, cherchant des applications financièrement rentables, « tout ressemble à un clou » parce qu’ils ont à leur disposition ce qu’ils pensent être un marteau universel. La difficulté en tant que tel ne vient d’ailleurs moins des solutions proposées (parfois pertinentes), mais du fait d’apporter des réponses avant même d’avoir compris l’entier problème et d’avoir posé toutes les questions.

L’histoire qui reste à écrire n’est donc pas le futur brillant prédit par Raymond Kurzweil, imaginant un transhumanisme éloignant le genre humain de ses vicissitudes grâce aux seules technologies. Elle n’est certainement pas celle qui serait bâtie par des luddites modernes, refusant tout apport des technologies par simple réaction à un monde nouveau et inconfortable. Imaginons plutôt, comme toujours, une histoire de conquête qui sera inévitablement parsemée d’événements sombres pour arriver à circonscrire ce que ces technologies ont de meilleur.

Animateur des Temps Electriques


Aller plus loin ?


Notes

[1] Le concept est développé dans son ouvrage en 1948 « Cybernetics or Control and Communication in the Animal and the Machine »

[2] Le neurone formel est un neurone binaire, dont la sortie vaut 0 ou 1. Le calcul est effectué sur la base d’une somme pondérée de ses entrées (d’une valeur provenant d’autres neurones, donc 0 ou 1), sur laquelle est appliquée une fonction d’activation à seuil. Si la somme pondérée est au-dessus d’une certaine valeur, la sortie du neurone est 1, sinon elle vaut 0.

[3] Les ordinateurs actuels, dont certainement le vôtre, manipulent de manière tout à fait commune une chaîne de 64 valeurs binaires (bits).

[4] Mind, octobre 1950.

[5] E. Morozov, Pour tout résoudre, cliquez ici, FYP éditions, 2014.

La mécanique addictive des réseaux sociaux

Du totalitarisme du lien numérique

Twitter, Facebook, Tumblr, Instagram, Pinterest, Flickr, Google+, YouTube, Foursquare … Jamais nous n’avons eu autant d’opportunité de tisser des liens et d’être informé dans des temps aussi courts.

Plus de deux milliard d’utilisateurs actifs revendiqués par Facebook en 2018 dont 33 millions en France, 330 millions pour Twitter dont 15,6 sur le territoire national, 800 millions pour Instagram dont 16 millions de français : les médias sociaux ont drainés une population totalement hétérogène et se sont totalement déployés bien au-delà de la population des technophiles… dont le monde des juristes.

 

A l’évidence, une telle facilité de mise en relation étend les champs du possible. L’information devient mondiale et immédiatement disponible sans frein et les gouvernements ont bien du mal à la filtrer. Ces outils font tomber les masques des classes sociales, mettent en relation des corps de métiers différents ou antagonistes, révèlent des facettes inédites de chaque personnalité. Une quasi franc-maçonnerie à la cooptation simple, ouverte et publique.

Une telle agrégation d’informations génère toutefois de nouveaux risques, tels que la surexposition de sa vie personnelle ou professionnelle ou des atteintes flagrantes à la protection de sa vie privée… Il y a quelques années, la dénonciation par un journaliste de magistrats ayant commenté une audience pénale via Twitter illustre les dangers de la possible confusion entre les sphères publique et privée induite par ces dispositifs immatériels. Jamais ces professionnels n’auraient formulés de telles remarques avec un mégaphone dans un amphithéâtre plein à craquer. Quant au journaliste, il a peut-être lui-même donné substance et publicité à des propos qui auraient pu rester cloisonnés  aux seuls « followers » des magistrats, noyés dans l’océan des millions de tweets.

Dans un autre registre, l’affaire Cambridge Analytica, révélant les tentatives d’influence sur l’opinion lors d’élections à l’aide de données collectées sur Facebook ou l’amende prononcée par la CNIL à l’encontre de Google (et la réticence de ces derniers à exécuter la décision administrative) démontrent à quel point ces sociétés s’affranchissent des contraintes légales de protection des données dans l’objectif de réaliser des profits. Dans ce contexte, leur « Don’t be evil » paraît bien incantatoire.

Ces limites ne sont guère surprenantes. Le vent libertaire des pionniers de l’internet a cédé la place à la recherche de profits financiers substantiels. Profits générés si nécessaire en perfectionnant des fonctionnalités de plus en plus addictives afin de fidéliser une audience et transformer les individus en objets marchands.

1/ La mise en scène numérique d’un individu idéalisé

La construction de sa personnalité numérique est le premier acte de tout acteur de réseau social : choix méticuleux du pseudonyme, de l’image de présentation (PP ou Profil Picture), de la biographie. D’emblée, l’utilisateur est conduit à se mettre en scène, à se définir, comme tout produit marketing, et à se vendre.

Ainsi défini en véritable « marque », il va élaborer progressivement un contenu ad hoc pour accroître son audience (« followers », « amis », « abonnés ») et les interactions positives avec elle (« likes », « favoris », …). La mécanique ainsi constituée va alimenter l’ego de l’intéressé en le présentant comme de plus en plus populaire, donc digne d’intérêt.

Cette véritable réification porte en elle les germes de la déception pour des personnalités qui ont déjà une faible estime d’elle-même ou un besoin important d’attention. La construction d’une personnalité numérique gomme en effet les défauts connus (ou supposés), pour tendre à une image idéalisée. Cette démarche ne tend pas à produire une image lisse : le contenu produit par l’utilisateur pourra être provoquant, caustique, cynique… L’objectif consiste plutôt à créer un costume numérique à l’image du rôle que l’on souhaite tenir dans un monde a priori vierge de préjugés.

Cet univers n’est évidemment pas à l’abri de toute la palette des comportements et sentiments humains. L’instantanéité et la portée de la diffusion démultiplient les interactions et leurs conséquences : violence verbale, vulgarité, jalousie, superficialité avec des liens qui se nouent ou se dénouent le temps de l’appui sur le bouton d’une souris, le plus souvent abrité par l’anonymat de son pseudonyme.

L’investissement des plus talentueux / chanceux / opportunistes / déjà connus trouvera un écho auprès de relais à forts potentiels de démultiplication (journalistes, pairs déjà reconnus dans le milieu)… La majorité des autres restera noyée dans le magma binaire de petits cercles de connaissances et leur déception primera s’ils étaient à la recherche dans ces réseaux d’une source d’alimentation pour leur ego. Une déception au moins proportionnelle à l’investissement consenti.

2/ Les réseaux sociaux, un miroir déformant et uniformisant

Les acteurs réguliers des réseaux sociaux ne pourront contester avoir eu une certaine satisfaction à voir croître le nombre d’individus en lien avec le contenu produit. Qu’il s’agisse de commenter en direct une émission de télé-réalité ou de poster des photos d’animaux (les chatons restent une valeur sûre d’internet), les chances d’interaction augmentent en investissant des lieux communs.

Ces mêmes acteurs vous diront combien ils ont pu être déçu lorsque la publication de certains contenus leur ont fait perdre de l’audience, à la suite de publications plus polémiques, plus personnelles ou d’un cliché raté.

Comme toute marchandise, la personnalité numérique se meurt si elle ne se renouvelle pas. Les contacts se lassent de contenus trop similaires et deviennent progressivement indifférents. De plus, le temps sur les réseaux sociaux est si court que les textes, photos ou vidéos sont avalées dans l’océan des « timelines » en quelques secondes. Le paradigme moderne deviendrait presque « Je suis liké donc je suis » auquel lui répondrait le « Unfollowé, je ne suis plus ».

Un constat paradoxal en découle : l’uniformisation du récit de nos vies (une timeline en support de la description des trajets de vie) ou de nos images (images génériques avec les mêmes filtres1) rend difficile toute singularisation et conduit à une perte inéluctable d’intérêt.

Face à cette situation, certains arrivent même à mettre en scène leur propre fin numérique déçus de ne pas avoir trouvé avec ces outils reconnaissance ou attention durables. La mécanique est assez finalement assez simpliste et se retrouve chez certaines personnalités en construction (adolescents) ou en voie de dépression. L’objectif est de provoquer parmi le cercle de contacts réguliers des témoignages de reconnaissances, qui réamorcent progressivement la dose d’ego vidée par l’indifférence progressive et réassurent.

Dans ces cas la frénésie de contact, la sociabilité à l’extrême revient au final à remplir un vide avec peu de choses, à s’étourdir et à perdre le contact avec la réalité : les amis dans la poche avec le smartphone deviennent plus importants que la famille ou l’environnement réel et le cycle de vie numérique (voir ci-dessous) produit une stratégie permanente d’échec.

La fréquence du changement de photographie de profil est également un indicateur intéressant de la détresse sociale numérique. Car, comme le logotype d’une marque, la « PP » doit accrocher et synthétiser la personnalité cachée derrière ces quelques pixels. Mais pour vendre quoi au juste ?

Il convient en effet de se demander à qui profite réellement cette masse de matière non structurée gérée par des moyens informatiques considérables… Les médias sociaux sont des vecteurs évidents de développement pour des entreprises souhaitant capter l’attention d’une population jeune, urbaine, souvent dotée de moyens financiers satisfaisants. Mais les réels bénéficiaires sont les créateurs mêmes des réseaux sociaux.

3/ Les gagnants : les créateurs des réseaux qui font commerce de notre personnalité numérique

« Si c’est gratuit, vous êtes le produit »2. Cette citation – pourtant connue – n’a finalement éveillé aucune réaction de masse. Comme si le totalitarisme embarqué par les nouvelles technologies était neutralisé par les bénéfices déjà évoqués.

Comme si la facilitation de contacts entre individus était susceptible de justifier un profilage, un fichage sans précédent par des entreprises à but lucratif.

Que concédons-nous ainsi à ces individus en leur confiant une masse insoupçonnée de données – même sous pseudonyme (qui se révèle souvent vain avec les croisements sophistiqués issus de l’intelligence artificielle) ?

Ni plus ni moins qu’une forme abstraite de notre personnalité, une forme certes dématérialisée (et qui n’aliène donc pas directement notre liberté d’aller et venir) mais une forme susceptible d’avoir un impact très concret.

Quand les assureurs croiseront leurs données avec ces réseaux dans un pays où l’informatique et les libertés ne sont jamais questionnées et que l’on vous refusera un emprunt pour des raisons obscures, quand vous ne serez pas retenus pour un emploi sur le fondement de raisons a priori objectives et en réalité très subjectives, il sera bien tard. Les profils « à risque », subversifs (ou jugés comme tels) seront mis au banc d’une société transparente… Car si vous n’avez rien à cacher, pourquoi devriez-vous craindre une totale transparence ?

Et pire ! L’homme numérique se pense « libre d’interagir, dégagé des limitations du monde physique ». Il se trouve en réalité contraint d’être toujours connecté pour « rester dans la course et maîtriser un réel qui lui échappe »3.

Le pire des totalitarismes se met donc en place : une masse consentante à une surveillance globale et permanente.

Animateur des Temps Electriques

A venir : Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice, sera l’invité des Temps Electriques (numéro 6) pour évoquer l’utilisation des réseaux sociaux dans le monde judiciaire.

 


Notes

1 « Instagram : et la photo dans tout ça ? » – LesInrockuptibles, Jean-Max Colard, 26 juin 2013
Voir la vidéo d’Adesiasprod – http://adesias.fr
Quatrième de couverture de « L’emprise numérique, Comment internet et les nouvelles technologies ont colonisé nos vies » – Cédric Biagini – éditions l’Echappée

L’intelligence artificielle : du réenchantement au désenchantement ?

De la nécessité d’une science avec conscience

Souvenons-nous des années 80 et 90 : quelques mots étaient en capacité d’enchanter n’importe quel film, histoire ou livre d’une couleur d’avant-garde. Le nombre « 2000 », les ordinateurs personnels, « l’» internet, les autoroutes de l’information, les systèmes experts et… déjà l’intelligence artificielle (IA). A leur seule évocation, ces termes arrivaient à peupler les esprits de voitures volantes, de machines dépassant leurs concepteurs pour les anéantir, d’êtres humains hybridés avec des robots.

En ce qui concerne l’IA, il semble d’ailleurs que la résurgence de nouveaux espoirs réponde à des cycles trentenaires (1950, 1980 et maintenant 2010) où a succédé à l’enthousiasme des pionniers la déception des praticiens.

Qu’en dire en 2018 ?

Peut-être que l’IA a longtemps été une science d’avenir, qu’elle l’est encore et qu’elle risque de le rester si l’on écoute Yarden Katz. Ce jeune chercheur à la Harvard Medical School estime en effet que l’actuelle « révolution de l’IA » est fabriquée de toute pièce pour promouvoir en réalité un projet de gouvernance global par les nombres. Il résume en une caractéristique ce qu’il considère comme une prétendue « ère » : le « manque de conscience » (thoughtlessness) à ne réduire l’humain qu’à son seul comportement dans une société quantifiée[1].

D’autres auteurs en France ou à l’étranger nous avertissent des mêmes dangers[2]. Faut-il voir dans ces propos la résistance d’un ancien monde contre la transformation en cours, une critique politique du projet néo-libéral cachée sous des atours technologiques ou une objectivation bienvenue dans cette nouvelle période d’enthousiasme (d’exaltation ?).

Tentons de revenir sur quelques constats factuels pour tenter de définir ce qui se cache derrière la « hype de l’IA » [3] et évoquer le risque de total discrédit si les promesses à nouveau formulées ne parviennent pas à être remplies. Au final, les approches transdisciplinaires souvent réclamées ne devraient-elles pas se concrétiser au travers d’une nouvelle formalisation des savoirs dotée d’une solide conscience ?

1/ L’IA : de quoi parle-t-on exactement ?

La croissance exponentielle de l’efficacité du traitement informatique des données est à distinguer totalement des progrès considérables restant à réaliser par la recherche fondamentale pour modéliser une intelligence aussi agile que l’intelligence humaine. Certains avaient cru pouvoir la réduire à « 10 millions de règles[4] » : des chercheurs comme Yann LeCun affirment aujourd’hui que l’IA se heurte en réalité à une bonne représentation du monde, qui est une question « fondamentale scientifique et mathématique, pas une question de technologie[5] ». Une dichotomie est donc parfois réalisée entre l’« IA forte » de science-fiction (généraliste, auto-apprenante et adaptable de manière autonome à des contextes tout à fait différents), et les IA « faibles » ou « modérées » actuelles, ultra-spécialisées et non-adaptables de manière totalement autonome à des changements complets de paradigme[6]. Cette distinction ne clarifie toutefois pas ce que l’on entend par « intelligence » et alimente nombre de malentendus et de fantasmes, entretenus et véhiculés par les médias (qui peinent à décrypter les discours commerciaux et à vulgariser des concepts complexes).

Commençons par rappeler que les mécanismes actuellement mis en œuvre sous le terme « IA » sont pluriels et ne sont pas réellement nouveaux[7]. Ce qui l’est, c’est leur synergie et leur efficacité de traitement, rendues possibles par la performance des processeurs actuels et la baisse du coût de stockage de quantité considérable de données.

Pour être plus précis, cet assemblage de sciences et techniques (matérialisé par différentes classes d’algorithmes, en annexe) a contourné de manière extrêmement astucieuse les limites des anciens systèmes experts, qui exigeaient de programmer a priori des règles logiques de traitement de données pour imiter un raisonnement.Les approches actuelles sont inductives : l’idée est de réunir un nombre suffisant de données d’entrée et de résultats attendus en sortie afin de rechercher de manière (plus ou moins) automatisée les règles pouvant les lier. Cette recherche automatisée est ce que l’on qualifie d’apprentissage dans les algorithmes d’ « apprentissage machine » (machine learning) et se trouve formalisée dans un modèle décrivant mathématiquement les relations découvertes.  

L’objectif pour les ingénieurs n’est pas de comprendre les règles ou modèles automatiquement construits par l’ordinateur mais de s’assurer que la machine arrive à reproduire de mieux en mieux les résultats attendus, si nécessaire avec toujours plus de données par des phases successives d’ « apprentissage ».

2/ Les trois clés possibles de compréhension de l’IA

Tentons de reformuler les concepts esquissés précédemment :

  • l’IA n’est pas un objet unique et homogène : il s’agit en réalité d’un assemblage de sciences et techniques (mathématiques, statistiques, probabilités, neurobiologie, informatique) en capacité de traiter des données pour concevoir des tâches très complexes de traitement informatique ;
  • le moteur de l’IA ne produit pas de l’intelligence en soi mais fonctionne par une approche inductive : l’idée est d’associer de manière plus ou moins automatisée un ensemble d’observations (entrées) à un ensemble de résultats possibles (sorties) à l’aide de diverses propriétés pré-configurées ;
  • la fiabilité du modèle (ou fonction) construit sur cette base dépend fortement de la qualité des données utilisées et du choix de la technique d’apprentissage automatisée (machine learning).

Le concept d’IA est donc globalement à démystifier si l’on s’en tient à une interprétation stricte du mot « intelligence ». Nous avons affaire à des machines mathématiques, statistiques et probabilistes complexes et non des répliques (même sommaires) du cerveau humain (qui inclut des processus perceptifs, l’apprentissage, l’auto-organisation, l’adaptation). Prenons l’une de sous-classes du machine learning, les réseaux de neurones : si leur conception est bien inspirée des neurones biologiques, leur fonctionnement est en réalité fortement optimisé par des méthodes probabilistes dites bayésiennes. En d’autres termes, ces réseaux sont aussi comparables à de réels neurones que les « animatronics » de Disneyland sont similaires à des humains.

3/ Comment prévenir le risque de discrédit lorsque les promesses ne seront tenues

Le problème majeur, s’il y en avait un à qualifier, c’est la confusion entretenue entre les succès incontestables de l’IA dans des champs bien précis d’application et leur transposition dans des champs pour lesquels son utilisation apparaît comme bien plus contestable.

Lors d’une récente conférence tenue à Bologne sur la Cyberjustice, un jeune avocat italien affirmait que toutes les disciplines des sciences sociales pouvaient désormais être modélisées par l’IA[8]. La toute-puissance des méthodes inductives flottait dans l’air et à l’entendre la modélisation du monde dans son entier était à portée… Le « manque de conscience »  dénoncé par Yarden Katz était pourtant bien plus présent dans la salle que la révolution annoncée puisqu’il n’y avait personne du milieu académique pour partager avec lui les conclusions déjà citées de Yann LeCun ou l’interroger sur les raisons pour lesquelles Auguste Comte avait rompu avec la « physique sociale » pour parler de « sociologie »[9]. Certaines des entreprises commercialisant des services bâtis sur l’IA paraissent souvent négliger ces acquis, peut-être par méconnaissance, peut-être aussi pour ne pas décourager leurs sponsors financiers…

Évoquons toutefois quelques aspects pour lesquels tout concepteur d’IA devrait avoir des réponses pour démontrer les mesures qu’il a pu prendre… en conscience et pour ne pas discréditer la matière.

La cohérence des données analysées devrait tout d’abord pouvoir être démontrée : l’un des défauts de l’IA, c’est le risque de concevoir des modèles avec des données d’entrée et des résultats a priori de même nature mais en réalité légèrement discordants. Parvenir à constituer des jeux de données cohérents pour faire décoller une fusée, analyser une image ou jouer au go est un objectif complexe mais réalisable (pour le go, il s’agit de pierres noires, blanches, 19 lignes sur 19, des règles de jeu claires). Les sciences sociales posent de toutes autres difficultés de collecte : il est même parfois impossible de s’assurer que les résultats mesurés empiriquement procèdent exactement des mêmes causes. En ce sens, la réduction des biais dans les données utilisées pour l’apprentissage est un prérequis indispensable : des données biaisées produiront des modèles biaisés, qui reproduiront des résultats biaisés. Ceci étant dit, réunir des données sans biais est un exercice qui est peut-être impossible. Aleš Završnik, professeur associé à la faculté de droit de Ljubljana, affirmait lors d’une conférence à l’école polytechnique fédérale de Zurich (ETH) que nous en sommes réduits en réalité à choisir entre les biais purement humains ou les biais humains transférés dans les machines[10].

Citons aussi le phénomène du data snooping ou du data dredging, qui est à l’origine de nombreuses approximations[11]. Ces termes qualifient la sélection (dans un grand nombre de données et de résultats) d’un échantillon présentant à lui seul des associations statistiquement significatives, échantillon réemployé ensuite pour confirmer cette hypothèse. Pour résumer, cela revient à tirer une série de balles dans un mur puis dessiner ensuite une cible autour pour confirmer que vous l’avez bien touché. C’est aussi ce que les mathématiciens Cristian Sorin Callude et Giuseppe Longo dénoncent comme étant « le déluge des corrélations fallacieuses dans le big data »[12]. Tout résultat statistique serait en réalité à élargir à d’autres échantillons pour être vérifié et surtout ne pas fonder à lui seul des conclusions : ils pourrait être recoupés avec d’autres sciences ou techniques pour confirmer sa plausibilité[13].

Enfin, l’effet performatif est parfaitement connu mais en général non traité : un système apprenant sur la base de résultats qu’il contribue à produire risque fort de s’autoalimenter et de n’être représentatif que de lui-même. Le problème est aujourd’hui souvent identifié mais aucune solution concrète n’est proposée.

Les travers propres à l’interprétation des résultats produits par l’IA (renforcement des discriminations sur des facteurs ethniques, économiques, sociaux) ne seront pas développés ici mais justifient une réelle évaluation transdisciplinaire (économique, sociale, sociologique, philosophique, juridique) par des comités éthiques avant de mettre en œuvre tout traitement relatif à des individus[14]. Chaque cas d’utilisation de l’IA serait donc à considérer de manière globale pour le qualifier, peut-être aussi au travers d’une science spécifique à construire ? Iyad Rahwan et Manuel Cebrian, chercheurs au MIT, invitent à bâtir une nouvelle discipline scientifique relative au comportement des machines[15]. En écho, Nicolas Nova rappelait dans sa lettre d’information Lagniappe du 13 mai 2018, que les Sciences & Technologies Studies (STS) répondent déjà à ce besoin et que l’on pourrait plutôt s’interroger  sur les raisons pour lesquelles les ingénieurs, les scientifiques, les chercheurs des différents champs semblent parfois s’ignorer les uns les autres[16]. Le manque réciproque de connaissances épistémologiques est une évidente possibilité.

Les promesses renouvelées durant ces dernières années visant à bâtir une réelle  IA ne seront donc vraisemblablement pas tenues. Une fois la « hype » dissipée, la déception qui y succédera risque fort de compromettre le financement de nouveaux projets de recherche ou de nouvelles réalisations alors même que des potentialités existent dans des champs bien précis[17]. Le concept d’IA est donc à objectiver et à démystifier de manière urgente non pour résister aux changements de notre monde mais de manière à ne pas compromettre l’extraordinaire potentiel de cette puissance nouvelle de calcul à cause de discours hâtifs et exaltés, aux motifs pour le moins variables.

Animateur des Temps Electriques


Aller plus loin ?

Les différentes classes d’algorithme constituant l’IA et l’apprentissage machine



Notes

[1] Yarden Katz, Manufacturing an Artificial Intelligence Revolution, SSRN, 17 novembre 2017 – Consulté sur le site SSRN le 14 mai 2018 : https://ssrn.com/abstract=3078224 ou http://dx.doi.org/10.2139/ssrn.3078224

[2] Citons par exemple en France Dominique Cardon, Eric Sadin, Adrien Basdevant et Eric Mignard, Antoine Garapon et Jean Lassègue ; en Europe les travaux d’Aleš Završnik – Voir la rubrique Bibliographie de ce blog

[3] Emmanuel Barthe, Intelligence artificielle en droit : derrière la « hype », la réalité – Consulté sur le blog precisement.org le 10 mai 2018 : http://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html

[4] Douglas Lenat, chercheur en intelligence artificielle et directeur de la société Cycorp

[5] Yann LeCun, Qu’est-ce que l’intelligence artificielle, Collège de France – Consulté sur le site du collège de France le 16 juin 2017 : https://www.college-de-france.fr/media/yann-lecun/UPL4485925235409209505_Intelligence_Artificielle______Y._LeCun.pdf

[6] Distinction notamment réalisée par John Searle dans les années 1980, où il différencie un système qui aurait un esprit (au sens philosophique) et pourrait produire de la pensée d’un système qui ne peut qu’agir (même s’il donne l’impression de pouvoir penser)

[7] Le théorème de Thomas Bayes, étendus par Pierre-Simon Laplace, date du XVIIIème  siècle ; les bases des réseaux neuronaux ont été développées dans les années 1940 par Warren McCulloch and Walter Pitts (Created a computational model for neural networks based on mathematics and algorithms called threshold logic, 1943)

[8] Atelier de travail « Vers une cyberjustice », tenu les 10 et 11 mai 2018 à Bologne (Italie) à l’initiative de l’IRSIG-CNR (Istituto di Ricerca sui Sistimi Giudiziari – Consiglio Nazionale delle Ricerche)

[9] « La réduction des faits sociaux à des formules mathématiques et à des indicateurs inquiétait déjà plusieurs philosophes, écrivains et hommes de science, qui y voyaient un risque de moralisation de la vie sociale par l’algèbre et les  calculs » Adrien Basdevant, Jean-Pierre Mignard, L’empire des données, Don Quichotte, 2018, p. 40.

[10] Conférence « Justice automatisée : algorithms, big data et justice pénale » (Automated Justice: Algorithms, Big Data and Criminal Justice Systems) tenue le 20 avril 2018 à l’école polytechnique fédérale de Zurich (ETH) – Présentation accessible sur le site internet de l’université (anglais seulement) : https://www.video.ethz.ch/speakers/collegium-helveticum/digital-societies/automated_justice/84c3f617-8784-4203-b7a8-50a176811933.html

[11] Voir par exemple l’article de Regina Nuzzo, Statistical errors, Nature, vol. 506, 13 février 2014  – article consulté le 14 mai 2018 accessible par le lien suivant (anglais seulement) :  http://sisne.org/Disciplinas/PosGrad/MetRedCient/Statistical%20errors%20(p-values).pdf

[12] Théorie dite de « Ramsey », citée par Cristian Sorin Calude et Giuseppe Longo dans La toile que nous voulons, p.156, collectif, Institut de Recherche et d’Innovation, FYP éditions ; théorie développée dans l’étude de Ronald L. Graham, Joel H. Spencer – Ramsey Theory, Scientific American, vol.263, n°1, juillet 1990, p112-117

[13] Regina Nuzzo, Statiscal errors, déjà cité.

[14] Par exemple le renforcement des discriminations tel qu’en témoigne le logiciel COMPAS aux Etats-Unis ou HART en Grande-Bretagne qui prétendent évaluer la risque de récidive des personnes mises en cause dans des affaires pénales

[15] Iyad Rahwan, Manuel Cebrian, Machine Behavior needs to be academic discipline, Nautilus, 29 mars 2018 – Consulté le site Nautilus le 14 mai 2018 (anglais seulement) : http://nautil.us/issue/58/self/machine-behavior-needs-to-be-an-academic-discipline

[16] Nicolas Nova est chercheur et Professeur associé à la Haute École d’art et de design à Genève, sa lettre d’information est accessible à l’adresse suivante : https://tinyletter.com/nicolasnova

[17] Voir notamment les propos de Michael I. Jordan dans Le Monde, 1er décembre 2015, où il estime notamment que « le battage médiatique autour des possibilités excitantes de l’analyse du big data est trop important. Les attentes actuelles dépassent de loin la réalité de ce que l’on peut obtenir. Le problème est que lorsque de telles attentes ne sont pas remplies tout de suite, la déception engendrée peut jeter un discrédit sur l’ensemble même du secteur. » – Consulté sur le site du Monde le 11 mai 2018 : http://www.lemonde.fr/sciences/article/2015/12/01/michael-jordan-une-approche-transversale-est-primordiale-pour-saisir-le-monde-actuel_4821327_1650684.html

Les technologies de l’information dans les tribunaux européens : un développement généralisé aux bénéfices à mesurer

Quels sont les instruments du Conseil de l’Europe pour accompagner et mesurer la transformation numériques des systèmes judiciaires européens ? [1]

L’utilisation de l’informatique est désormais assez généralement acquise dans les tribunaux européens mais l’exploitation des pleines potentialités de la transformation numérique est encore extrêmement disparate : la plupart des pays de l’ouest semblent avoir déjà développé des approches extrêmement sophistiquées (tant sur le plan technologique que de l’encadrement législatif), alors que dans d’autres Etats-membres du Conseil de l’Europe la simple mise en œuvre d’une informatique de gestion efficiente constituerait déjà un grand succès.

Loin de l’idée intuitive d’un impact systématiquement positif des technologies de l’information (TI) sur l’efficacité du travail, des juridictions européennes ont connu en réalité d’importantes difficultés de fonctionnement après le test ou le déploiement d’outils de gestion d’affaires (case management system ou CMS). Il convient toutefois d’analyser chaque situation par des critères objectifs pour tenter d’en comprendre les causes. L’évaluation de l’impact de l’informatique sur l’efficacité et la qualité de la justice a été l’une des missions confiées à la Commission européenne pour l’efficacité de la justice (CEPEJ) du Conseil de l’Europe dès sa création, en 2002[2]. Les dernières mesures effectuées ont notamment mis en évidence l’absence de corrélation évidente entre le montant des investissements financiers en matière informatique et les indicateurs d’efficacité. Autrement dit, ce ne sont pas les pays qui ont le plus investi financièrement qui ont eu les meilleurs bénéfices.

D’autres instances du Conseil de l’Europe ont  également contribué à structurer une doctrine claire d’engagement des tribunaux pour une utilisation des TI, afin de concilier efficacité et qualité avec les garanties attachées à un procès équitable telles que définies par la Convention européenne des droits de l’homme.

1. Les instruments du Conseil de l’Europe pour accompagner la transformation numérique des systèmes judiciaires

1.1. L’Avis n°14 du CCJE (Conseil consultatif de juges européens)

L’Avis n°14 du CCJE (Conseil consultatif de juges européens), adopté en 2011, porte sur la justice et les TI et fixe un cadre général d’utilisation[3]. Ses développements ne se sont pas attachés à des aspects techniques, conjoncturels et évolutifs par nature, mais se sont concentrés sur des questions fondamentales, toujours contemporaines, pressentant le fort potentiel de transformation des technologies.

Cet Avis témoigne d’une volonté affirmée des différents corps judiciaires européens d’être pleinement impliqués dans la mise en place et le développement de ces technologies afin de disposer d’outils performants pour améliorer l’administration de la justice, les relations entre les professionnels et les liens avec la société civile (public, média) tout en conservant les aspects « humains et symboliques » de la justice. A cet effet, le CCJE rappelle que le juge devrait pouvoir ordonner à tout moment la comparution des parties, la production de pièces en original et l’audition de témoins et porte une attention particulière aux personnes pour lesquels l’accès ou l’utilisation des technologies serait problématique ou impossible. L’avis, enfin, rappelle que les technologies ne doivent pas « porter atteinte aux garanties et aux droits procéduraux tel que ceux assurant un procès équitable devant un juge » et replace au cœur des développements à venir les droits fondamentaux définis par la Convention européenne des droits de l’homme, qui ne sauraient être remis en cause par de nouveaux outils.

1.2. La Résolution 2054(2015) et la recommandation 2102(2017) de l’APCE (Assemblée Parlementaire du Conseil de l’Europe)

L’Assemblée Parlementaire du Conseil de l’Europe (APCE) a adopté en 2015 une Résolution relative à « L’accès à la justice et internet : potentiel et défis » et dresse des constats de principes plus succincts mais totalement identiques au CCJE. Elle appelle les Etats-membres à agir dans le respect des articles 6 et 13 de la Convention européenne des droits de l’homme[4], c’est-à-dire développer des applications respectueuses d’un procès équitable et d’un recours effectif à un juge.

Ce dernier aspect est particulièrement souligné puisque l’APCE incite au recours à des procédures de règlement en ligne des litiges (RLL, ODR en anglais pour Online Dispute Resolution) dans des situations appropriées. Rappelons que les règlements extrajudiciaires des litiges sont présentées comme un moyen de prévenir l’engorgement des juridictions de contentieux à faibles enjeux ou pour lesquels l’intervention préalable d’un tiers est de nature à faciliter une solution acceptée par les deux parties. Ce type d’alternative, qui devrait disposer de garanties d’impartialité, ne saurait toutefois complexifier ou interdire l’accès au juge pour traiter un litige.

L’APCE a également adopté une recommandation le 28 avril 2017 relative à la convergence technologique, l’intelligence artificielle et les droits de l’homme[5]. Elle recommande notamment l’adoption d’un cadre commun de normes à respecter lorsqu’une juridiction a recours à l’intelligence artificielle.

 

2. Les outils spécifiques de la CEPEJ (Commission européenne pour l’efficacité de la justice) pour mesurer les effets de la transformation numérique

2.1. Le rapport biennal d’évaluation de la CEPEJ (Commission européenne pour l’efficacité de la justice)

Le groupe de travail « évaluation » de la CEPEJ, présidé par M. Jean-Paul Jean, président de chambre à la Cour de cassation, a rédigé en octobre 2016 une étude approfondie portant sur l’utilisation des technologies de l’information dans les tribunaux en Europe en 2014 en plus du rapport biennal habituel[6]. Ce document dresse pour la première fois un état des lieux extrêmement exhaustif du déploiement des technologies de l’information  en y ajoutant une évaluation du cadre législatif et des méthodes de gouvernance[7].

Indices globaux de développement des technologies de l’information dans les systèmes judiciaires européens, 2014[8]

Data visualisation interactive disponible en cliquant sur la carte

Source : Etudes de la CEPEJ n°24, « Rapport thématique : l’utilisation des technologies de l’information les tribunaux en Europe, données 2014 », octobre 2016.

Il convient tout d’abord de préciser que les indices de la CEPEJ visent à mesurer le développement et non l’usage effectif. Ainsi l’Allemagne, l’Autriche et la République tchèque sont les Etats-membres qui ont globalement mis en oeuvre une très grande variété d’applications mais leur impact réel sera à rechercher en conjonction avec d’autres indicateurs.

Parmi les réalisations notables ayant produit des effets positifs sur l’efficacité des tribunaux, les outils de gestion d’affaires (CMS) paraissent ceux pouvant constituer les fondations à tout changement d’ampleur. Par leur capacité de gestion des processus de travail (workflow), ils constituent un véritable fil conducteur entre divers services (bureau d’ordre centralisé, dématérialisation, suivi en ligne des affaires, production de statistiques). L’Estonie (système e-File) et la Norvège (système Lovisa) apparaissent comme deux exemples notables de réalisation effective, fonctionnelle et acceptée par les utilisateurs. A contrario, malgré des investissements conséquents, le projet d’informatisation Phénix, en  Belgique, n’a jamais vu le jour. Le Portugal a dû faire voter en 2014 en urgence des lois de procédures pour proroger des délais au vu des difficultés de fonctionnement de leur outil Citius. En Albanie, en dépit des efforts de soutien conséquent d’autre pays européens, l’outil de gestion des affaires ICMIS est peu utilisé par les tribunaux car considéré par ses utilisateurs comme inadapté. En France, malgré un taux de développement dans la moyenne européenne, les magistrats et fonctionnaires ne cessent de dénoncer l’état des logiciels mis à leur disposition[9]. En Espagne, la dématérialisation des procédures en oeuvre dans un certains nombre de régions est techniquement fonctionnelle mais semble connaître des difficultés d’appropriation auprès d’un certain nombre de professionnels dans les juridictions.

Parmi les autres applications à fort potentiel de simplification des tâches dans les tribunaux, il convient également de citer les solutions d’enregistrement (audio et/ou vidéo) des audiences qui peuvent servir de compte-rendu (système en place en Lettonie ou en Espagne par exemple) voire même de minute de la décision (Pologne), où le prononcé enregistré du dispositif fait foi par défaut (et peut être retranscrit à la demande des parties).

La partie analytique du rapport recherche les éventuels liens entre les indicateurs d’efficacité[10], le montant des investissements informatiques et le niveau de développement des applications informatiques dans les différents domaines décrits précédemment. Il ressort du croisement de ces informations que ce ne sont pas les Etats qui semblent avoir investi financièrement le plus qui ont systématiquement bénéficié d’une amélioration significative de leur capacité de traitement des affaires juridictionnelles. D’autres facteurs, conjoints aux investissements, semblent avoir eu une influence plus importante sur la célérité et la qualité des juridictions, tels que la définition de politiques publiques globales, traitant de l’organisation des processus de travail, de l’organisation de projets avec des équipes pluridisciplinaires proches des besoins des utilisateurs et la mise en place d’études de retour sur investissement (à même de faire évoluer les systèmes déjà existants).

2.2. Les lignes « Cyberjustice » de la CEPEJ

Le groupe de travail «qualité », alors présidé en 2016 par M. François Paychère, magistrat suisse, a produit des Lignes directrices sur la conduite du changement vers la Cyberjustice qui incitent les Etats-membres à passer d’une approche d’équipement à une approche stratégique de pilotage de l’innovation[11]. Même si cette transition apparaît comme évidente dans de nombreux pays, dont la France, les politiques de conception et de déploiement numérique demeurent encore souvent à la seule initiative de départements informatiques dans de nombreux pays. Il ne convient évidemment pas de discuter les mérites de ces services techniques, mais cette situation place de fait les professionnels des systèmes judiciaires comme consommateurs d’une offre au lieu d’en être des acteurs. Ce document rappelle le bénéfice des approches « agiles » dans les situations adaptées et en privilégiant la conception de services par des équipes projet intégrées (c’est-à-dire mélangeant par exemple juges, greffiers et informaticiens).

Ce document comporte également en annexe des check-lists simplifiées d’auto-évaluation d’un système d’information, du point de vue des administrateurs d’un projet et d’un point de vue des utilisateurs. Il s’agit là d’outils pragmatiques, à adapter aux situations concrètes à évaluer, visant à aider à distinguer en cas de dysfonctionnements ce qui relève de purs aspects techniques, de ce qui relève de problèmes dans les politiques d’accompagnement ou de pilotage du projet.

Animateur des Temps Electriques


Notes

[1] Les présents développements se concentreront sur la production du Conseil de l’Europe, qui traite d’un grand périmètre de situations (47 Etats-membres) dans une perspective conjointe de respect des droits fondamentaux (Convention européenne des droits de l’homme, notamment dans ses articles 6 et 13) et d’amélioration de l’efficacité des tribunaux et de la qualité de leur activité (travaux de la CEPEJ).

[2] Résolution Res(2002)12 du Comité des Ministres du Conseil de l’Europe établissant la Commission européenne pour l’efficacité de la justice (CEPEJ).

[3] Avis n°14 du Comité consultatif de juges européens (CCJE), novembre 2011.

[4] Résolution 2054(2015) de l’Assemblée Parlementaire du Conseil de l’Europe (APCE), 10 novembre 2015.

[5] Recommandation 2102(2017) de l’Assemblée Parlementaire du Conseil de l’Europe (APCE), 28 avril 2017.

[6] Etudes de la CEPEJ n°24, « Rapport thématique : l’utilisation des technologies de l’information les tribunaux en Europe, données 2014 », octobre 2016.  Rapport rédigé par Sophie Sontag-Koenig sous la direction de Jean-Paul Jean, président du groupe de travail évaluation de la CEPEJ.

[7] La CEPEJ a divisé en trois catégories d’activité l’équipement technologique : assistance aux professionnels des juridictions, administration de la justice et communication avec les professionnels et les usagers

[8] L’indice présenté sur cette carte est la somme des trois indicateurs des domaines évalués (équipement technologique, cadre législatif et méthodes de gouvernance). La synthèse des réponses fournies par les Etats-membre a permis de  calculer pour chaque domaine un indicateur de développement de 1 (faible taux) à 3 (taux élevé). La carte représente, pour chaque pays, la somme de ces trois indicateurs et présente un indice de 3 (faible, bleu foncé) à 9 (élevé, vert foncé).

[9]Voir par exemple « Réforme de la justice : des magistrats critiquent la méthode Belloubet », Le Monde, 14 février 2018.

[10] La CEPEJ utilise comme indicateurs le Clearance Rate (taux de couverture, c’est-à-dire le rapport entre le nombre des affaires traitées et le nombre d’affaires nouvelles) et le Disposition Time (durée théorique de traitement de l’entier stock d’affaires, par le rapport du nombre d’affaires pendantes en fin d’année sur le nombre d’affaires traitées durant l’année, multiplié par 365).

[11] CEPEJ(2016)13, Lignes directrices sur la conduite du changement vers la cyberjustice.

L’open data en trois définitions

Données brutes, méthodes probabilistes et politique publique : les trois visages de l’open data

Le projet de loi de programmation 2018-2022 et de réforme pour la justice, présenté le 20 avril 2018 en Conseil des ministres, propose de réécrire dans son article 19 les dispositions introduites par les articles 20 et 21 de la loi pour une République numérique promulguée… le 7 octobre 2016.

Cette intense production législative ne concerne pas les dernières réformes procédurales ou territoriales de la justice mais a pour objet l’ouverture en open data des décisions des tribunaux. L’intensité des débats dans ce domaine pourrait paraître inattendue au vu des principes démocratiques invoqués a priori : pourquoi s’opposer à l’amélioration de la transparence de la justice en garantissant la disponibilité, le partage et la réutilisation des décisions juridictionnelles ? Le principe général de transparence de l’action publique, porté notamment dans un cadre international par le Partenariat pour un Gouvernement Ouvert (PGO), se heurte toutefois à une problématique majeure : la confusion d’un grand nombre de notions en utilisant un vocabulaire à la mode. Or sans vocables communs, il semble ne pas y avoir de pensée claire possible et – naturellement – de convergence vers une stratégie d’emploi des opportunités offertes par le numérique dans l’intérêt de la justice.

1/ L’open data au sens strict : des données brutes téléchargeables, sous licence non-onéreuse

Au sens strict, l’open data c’est une base de données informatique brute, librement téléchargeable, et dont la licence autorise à en réemployer son contenu sans le paiement d’une redevance à son producteur. Même si nous ne traiterons dans ce billet que des données publiques, les données ouvertes peuvent indifféremment provenir d’une source publique ou privée. En ce qui concerne le secteur public, cette base de donnée ouverte est naturellement tout à fait distincte des autres modes de publicité déjà prévus par les textes législatifs et réglementaires. Pour les décisions des tribunaux, l’open data est une forme autonome de présentation des données avec ses objectifs propres et ne se substitue pas au formalisme procédural habituel (articles 454 et suivants du code de procédure civil par exemple).

Le centre névralgique de l’open data en France se retrouve sur l’un des sites des services du Premier ministre (http://data.gouv.fr) où des centaines de bases de données sont déjà téléchargeables. Ainsi la base d’adresses nationale, les codes postaux, le cadastre, le registre des entreprises, des décisions des  juridictions administratives sont accessibles d’un simple clic. Mais quand on parle d’accessibilité, on ne parle pas d’intelligibilité. Ces bases de données brutes sont en effet totalement incompréhensibles pour la plupart des citoyens et ne présentent d’intérêt que pour des techniciens sachant les retraiter. On qualifie souvent les données de pétrole du XXIème siècle : l’open data est d’une certaine manière du pétrole brut gratuit à destination de raffineurs.

Prêter des vertus de transparence à l’open data, c’est donc d’abord espérer que des tiers puissent s’en saisir pour raffiner les données et créer du sens. Mais avec quelles méthodes ? C’est l’objet d’une interprétation plus large du terme open data.

2/ L’open data au sens large : des nouvelles méthodes de traitement de l’information

Le terme open data peut aussi être employé de manière large pour englober les données brutes mises à disposition et leur traitement avec des méthodes extrêmement avancées : algorithmes, data science, data mining, intelligence artificielle, machine learning… la sophistication des termes entretient une totale confusion car, comme dans une œuvre de science-fiction, la technologie se mêle parfois aux fantasmes.

Pour se départir d’une approche simplement intuitive, il faut revenir aux fondements des sciences et technologies actuellement employées : ces traitements se fondent sur des approches probabilistes qui n’ont rien révolutionné dans le champ théorique mais qui profitent de capacités de stockage et de calcul considérablement améliorées ces dernières années. Ce qui semble nouveau, c’est que ces nouvelles capacités ont permis des traitements massifs de données par une approche corrélative et inductive au détriment des approches  causales et descriptives : ainsi, plutôt que de tenter de quantifier le réel et de le modéliser, l’exploitation de grands ensembles de données sont désormais censés révéler des phénomènes complexes par la présence de corrélations auparavant imperceptibles[1].

Dans le champ de l’exploitation des décisions de justice, les débats sur l’open data se sont donc aussi portés sur l’exploitation des données mises à disposition avec ces approches inductives (voire prédictives) : pourrait-on révéler de la masse des décisions un sens nouveau de l’application de la loi ? En se fondant sur le nom des juges, arriverait-on à révéler des biais et un manque d’impartialité ?

3/ L’open data en tant que politique publique

Et c’est là où l’open data n’est plus un simple instrument de transparence mais devient porteur d’une véritable politique publique aux termes de laquelle se dégagerait une « norme issue du nombre », s’imposant quasiment aux juges  comme une nouvelle source du droit. Une politique où le juge, se sachant scruté, serait plus sensible à la discipline imposée par les juridictions supérieures.

A ce stade, il ne s’agit pas de se prononcer pour ou contre de nouveaux projets de fonctionnement de la mécanique de production des décisions (ce champ d’opportunité appartient à un débat public démocratique pour savoir ce que l’on veut faire du système judiciaire), mais de constater que les objectifs recherchés se fondent sur des approches parfois discutées entre les experts (citons par exemple la distinction connue entre les méthodes bayésiennes les méthodes fréquentistes depuis le siècle des Lumières[2]).

En annonçant que les juges deviendraient « encagoulés » [3] du fait de l’anonymisation (ou la  pseudonymisation) de leurs noms dans les bases de données brutes ouvertes, il y a donc une erreur de compréhension majeure qui conduit à occulter le réel débat qui devrait impérativement s’opérer. Estime-t-on sérieusement que nous sommes aujourd’hui en mesure de créer du sens à partir de méthodes inductives sur la base de décisions juridictionnelles dont on connaît les mérites mais aussi les défauts ? Défauts parmi lesquels on pourrait citer le caractère lapidaire ou obscur de certaines motivations… Par ailleurs, traiter le nom des juges ainsi ne conduirait-il pas à imaginer dans de possibles corrélations des faits n’ayant aucun fondement sérieux : par exemple des droits de garde plus fréquemment attribués aux mères ne révèlent pas nécessairement un parti pris du magistrat.

Les annonces prophétiques, comparant par exemple la justice aux majors des industries musicales des années 2000 ou annonçant la disparition de la justice si elle ne s’hybridait pas avec les méthodes probabilistes, sont donc à prendre avec recul. Penser une politique d’open data pour la justice impose un recours à des approches pluridisciplinaires scientifiquement fondées (droit, théorie du droit, économie, sociologie, mathématiques, statistiques, informatique), nourries de débats et d’expérimentations, à même d’enrichir un débat public éclairé. En somme, être en mesure de choisir collectivement dans quel monde nous souhaitons vivre.


Aller plus loin ?

Retrouvez l’entretien avec François Paychère au sujet de l’open data sur le podcast  des temps électriques, disponible sur Amicus Radio.

 

 


Notes

[1] C. Anderson, The end of theory. The data deluge makes the scientific method obsolete, Wired, 2008.
[2] Voir par exemple C. Fauré, Deux visages du calcul des probabilités : bayésien et fréquentiste, 2013.
[3] Des juges encagoulés ?, Le Canard Enchaîné, 25 avril 2018.