L’intelligence artificielle : du réenchantement au désenchantement ?

De la nécessité d’une science avec conscience

Souvenons-nous des années 80 et 90 : quelques mots étaient en capacité d’enchanter n’importe quel film, histoire ou livre d’une couleur d’avant-garde. Le nombre « 2000 », les ordinateurs personnels, « l’» internet, les autoroutes de l’information, les systèmes experts et… déjà l’intelligence artificielle (IA). A leur seule évocation, ces termes arrivaient à peupler les esprits de voitures volantes, de machines dépassant leurs concepteurs pour les anéantir, d’êtres humains hybridés avec des robots.

En ce qui concerne l’IA, il semble d’ailleurs que la résurgence de nouveaux espoirs réponde à des cycles trentenaires (1950, 1980 et maintenant 2010) où a succédé à l’enthousiasme des pionniers la déception des praticiens.

Qu’en dire en 2018 ?

Peut-être que l’IA a longtemps été une science d’avenir, qu’elle l’est encore et qu’elle risque de le rester si l’on écoute Yarden Katz. Ce jeune chercheur à la Harvard Medical School estime en effet que l’actuelle « révolution de l’IA » est fabriquée de toute pièce pour promouvoir en réalité un projet de gouvernance global par les nombres. Il résume en une caractéristique ce qu’il considère comme une prétendue « ère » : le « manque de conscience » (thoughtlessness) à ne réduire l’humain qu’à son seul comportement dans une société quantifiée[1].

D’autres auteurs en France ou à l’étranger nous avertissent des mêmes dangers[2]. Faut-il voir dans ces propos la résistance d’un ancien monde contre la transformation en cours, une critique politique du projet néo-libéral cachée sous des atours technologiques ou une objectivation bienvenue dans cette nouvelle période d’enthousiasme (d’exaltation ?).

Tentons de revenir sur quelques constats factuels pour tenter de définir ce qui se cache derrière la « hype de l’IA » [3] et évoquer le risque de total discrédit si les promesses à nouveau formulées ne parviennent pas à être remplies. Au final, les approches transdisciplinaires souvent réclamées ne devraient-elles pas se concrétiser au travers d’une nouvelle formalisation des savoirs dotée d’une solide conscience ?

1/ L’IA : de quoi parle-t-on exactement ?

La croissance exponentielle de l’efficacité du traitement informatique des données est à distinguer totalement des progrès considérables restant à réaliser par la recherche fondamentale pour modéliser une intelligence aussi agile que l’intelligence humaine. Certains avaient cru pouvoir la réduire à « 10 millions de règles[4] » : des chercheurs comme Yann LeCun affirment aujourd’hui que l’IA se heurte en réalité à une bonne représentation du monde, qui est une question « fondamentale scientifique et mathématique, pas une question de technologie[5] ». Une dichotomie est donc parfois réalisée entre l’« IA forte » de science-fiction (généraliste, auto-apprenante et adaptable de manière autonome à des contextes tout à fait différents), et les IA « faibles » ou « modérées » actuelles, ultra-spécialisées et non-adaptables de manière totalement autonome à des changements complets de paradigme[6]. Cette distinction ne clarifie toutefois pas ce que l’on entend par « intelligence » et alimente nombre de malentendus et de fantasmes, entretenus et véhiculés par les médias (qui peinent à décrypter les discours commerciaux et à vulgariser des concepts complexes).

Commençons par rappeler que les mécanismes actuellement mis en œuvre sous le terme « IA » sont pluriels et ne sont pas réellement nouveaux[7]. Ce qui l’est, c’est leur synergie et leur efficacité de traitement, rendues possibles par la performance des processeurs actuels et la baisse du coût de stockage de quantité considérable de données.

Pour être plus précis, cet assemblage de sciences et techniques (matérialisé par différentes classes d’algorithmes, en annexe) a contourné de manière extrêmement astucieuse les limites des anciens systèmes experts, qui exigeaient de programmer a priori des règles logiques de traitement de données pour imiter un raisonnement.Les approches actuelles sont inductives : l’idée est de réunir un nombre suffisant de données d’entrée et de résultats attendus en sortie afin de rechercher de manière (plus ou moins) automatisée les règles pouvant les lier. Cette recherche automatisée est ce que l’on qualifie d’apprentissage dans les algorithmes d’ « apprentissage machine » (machine learning) et se trouve formalisée dans un modèle décrivant mathématiquement les relations découvertes.  

L’objectif pour les ingénieurs n’est pas de comprendre les règles ou modèles automatiquement construits par l’ordinateur mais de s’assurer que la machine arrive à reproduire de mieux en mieux les résultats attendus, si nécessaire avec toujours plus de données par des phases successives d’ « apprentissage ».

2/ Les trois clés possibles de compréhension de l’IA

Tentons de reformuler les concepts esquissés précédemment :

  • l’IA n’est pas un objet unique et homogène : il s’agit en réalité d’un assemblage de sciences et techniques (mathématiques, statistiques, probabilités, neurobiologie, informatique) en capacité de traiter des données pour concevoir des tâches très complexes de traitement informatique ;
  • le moteur de l’IA ne produit pas de l’intelligence en soi mais fonctionne par une approche inductive : l’idée est d’associer de manière plus ou moins automatisée un ensemble d’observations (entrées) à un ensemble de résultats possibles (sorties) à l’aide de diverses propriétés pré-configurées ;
  • la fiabilité du modèle (ou fonction) construit sur cette base dépend fortement de la qualité des données utilisées et du choix de la technique d’apprentissage automatisée (machine learning).

Le concept d’IA est donc globalement à démystifier si l’on s’en tient à une interprétation stricte du mot « intelligence ». Nous avons affaire à des machines mathématiques, statistiques et probabilistes complexes et non des répliques (même sommaires) du cerveau humain (qui inclut des processus perceptifs, l’apprentissage, l’auto-organisation, l’adaptation). Prenons l’une de sous-classes du machine learning, les réseaux de neurones : si leur conception est bien inspirée des neurones biologiques, leur fonctionnement est en réalité fortement optimisé par des méthodes probabilistes dites bayésiennes. En d’autres termes, ces réseaux sont aussi comparables à de réels neurones que les « animatronics » de Disneyland sont similaires à des humains.

3/ Comment prévenir le risque de discrédit lorsque les promesses ne seront tenues

Le problème majeur, s’il y en avait un à qualifier, c’est la confusion entretenue entre les succès incontestables de l’IA dans des champs bien précis d’application et leur transposition dans des champs pour lesquels son utilisation apparaît comme bien plus contestable.

Lors d’une récente conférence tenue à Bologne sur la Cyberjustice, un jeune avocat italien affirmait que toutes les disciplines des sciences sociales pouvaient désormais être modélisées par l’IA[8]. La toute-puissance des méthodes inductives flottait dans l’air et à l’entendre la modélisation du monde dans son entier était à portée… Le « manque de conscience »  dénoncé par Yarden Katz était pourtant bien plus présent dans la salle que la révolution annoncée puisqu’il n’y avait personne du milieu académique pour partager avec lui les conclusions déjà citées de Yann LeCun ou l’interroger sur les raisons pour lesquelles Auguste Comte avait rompu avec la « physique sociale » pour parler de « sociologie »[9]. Certaines des entreprises commercialisant des services bâtis sur l’IA paraissent souvent négliger ces acquis, peut-être par méconnaissance, peut-être aussi pour ne pas décourager leurs sponsors financiers…

Évoquons toutefois quelques aspects pour lesquels tout concepteur d’IA devrait avoir des réponses pour démontrer les mesures qu’il a pu prendre… en conscience et pour ne pas discréditer la matière.

La cohérence des données analysées devrait tout d’abord pouvoir être démontrée : l’un des défauts de l’IA, c’est le risque de concevoir des modèles avec des données d’entrée et des résultats a priori de même nature mais en réalité légèrement discordants. Parvenir à constituer des jeux de données cohérents pour faire décoller une fusée, analyser une image ou jouer au go est un objectif complexe mais réalisable (pour le go, il s’agit de pierres noires, blanches, 19 lignes sur 19, des règles de jeu claires). Les sciences sociales posent de toutes autres difficultés de collecte : il est même parfois impossible de s’assurer que les résultats mesurés empiriquement procèdent exactement des mêmes causes. En ce sens, la réduction des biais dans les données utilisées pour l’apprentissage est un prérequis indispensable : des données biaisées produiront des modèles biaisés, qui reproduiront des résultats biaisés. Ceci étant dit, réunir des données sans biais est un exercice qui est peut-être impossible. Aleš Završnik, professeur associé à la faculté de droit de Ljubljana, affirmait lors d’une conférence à l’école polytechnique fédérale de Zurich (ETH) que nous en sommes réduits en réalité à choisir entre les biais purement humains ou les biais humains transférés dans les machines[10].

Citons aussi le phénomène du data snooping ou du data dredging, qui est à l’origine de nombreuses approximations[11]. Ces termes qualifient la sélection (dans un grand nombre de données et de résultats) d’un échantillon présentant à lui seul des associations statistiquement significatives, échantillon réemployé ensuite pour confirmer cette hypothèse. Pour résumer, cela revient à tirer une série de balles dans un mur puis dessiner ensuite une cible autour pour confirmer que vous l’avez bien touché. C’est aussi ce que les mathématiciens Cristian Sorin Callude et Giuseppe Longo dénoncent comme étant « le déluge des corrélations fallacieuses dans le big data »[12]. Tout résultat statistique serait en réalité à élargir à d’autres échantillons pour être vérifié et surtout ne pas fonder à lui seul des conclusions : ils pourrait être recoupés avec d’autres sciences ou techniques pour confirmer sa plausibilité[13].

Enfin, l’effet performatif est parfaitement connu mais en général non traité : un système apprenant sur la base de résultats qu’il contribue à produire risque fort de s’autoalimenter et de n’être représentatif que de lui-même. Le problème est aujourd’hui souvent identifié mais aucune solution concrète n’est proposée.

Les travers propres à l’interprétation des résultats produits par l’IA (renforcement des discriminations sur des facteurs ethniques, économiques, sociaux) ne seront pas développés ici mais justifient une réelle évaluation transdisciplinaire (économique, sociale, sociologique, philosophique, juridique) par des comités éthiques avant de mettre en œuvre tout traitement relatif à des individus[14]. Chaque cas d’utilisation de l’IA serait donc à considérer de manière globale pour le qualifier, peut-être aussi au travers d’une science spécifique à construire ? Iyad Rahwan et Manuel Cebrian, chercheurs au MIT, invitent à bâtir une nouvelle discipline scientifique relative au comportement des machines[15]. En écho, Nicolas Nova rappelait dans sa lettre d’information Lagniappe du 13 mai 2018, que les Sciences & Technologies Studies (STS) répondent déjà à ce besoin et que l’on pourrait plutôt s’interroger  sur les raisons pour lesquelles les ingénieurs, les scientifiques, les chercheurs des différents champs semblent parfois s’ignorer les uns les autres[16]. Le manque réciproque de connaissances épistémologiques est une évidente possibilité.

Les promesses renouvelées durant ces dernières années visant à bâtir une réelle  IA ne seront donc vraisemblablement pas tenues. Une fois la « hype » dissipée, la déception qui y succédera risque fort de compromettre le financement de nouveaux projets de recherche ou de nouvelles réalisations alors même que des potentialités existent dans des champs bien précis[17]. Le concept d’IA est donc à objectiver et à démystifier de manière urgente non pour résister aux changements de notre monde mais de manière à ne pas compromettre l’extraordinaire potentiel de cette puissance nouvelle de calcul à cause de discours hâtifs et exaltés, aux motifs pour le moins variables.


Aller plus loin ?

Les différentes classes d’algorithme constituant l’IA et l’apprentissage machine



Notes

[1] Yarden Katz, Manufacturing an Artificial Intelligence Revolution, SSRN, 17 novembre 2017 – Consulté sur le site SSRN le 14 mai 2018 : https://ssrn.com/abstract=3078224 ou http://dx.doi.org/10.2139/ssrn.3078224

[2] Citons par exemple en France Dominique Cardon, Eric Sadin, Adrien Basdevant et Eric Mignard, Antoine Garapon et Jean Lassègue ; en Europe les travaux d’Aleš Završnik – Voir la rubrique Bibliographie de ce blog

[3] Emmanuel Barthe, Intelligence artificielle en droit : derrière la « hype », la réalité – Consulté sur le blog precisement.org le 10 mai 2018 : http://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html

[4] Douglas Lenat, chercheur en intelligence artificielle et directeur de la société Cycorp

[5] Yann LeCun, Qu’est-ce que l’intelligence artificielle, Collège de France – Consulté sur le site du collège de France le 16 juin 2017 : https://www.college-de-france.fr/media/yann-lecun/UPL4485925235409209505_Intelligence_Artificielle______Y._LeCun.pdf

[6] Distinction notamment réalisée par John Searle dans les années 1980, où il différencie un système qui aurait un esprit (au sens philosophique) et pourrait produire de la pensée d’un système qui ne peut qu’agir (même s’il donne l’impression de pouvoir penser)

[7] Le théorème de Thomas Bayes, étendus par Pierre-Simon Laplace, date du XVIIIème  siècle ; les bases des réseaux neuronaux ont été développées dans les années 1940 par Warren McCulloch and Walter Pitts (Created a computational model for neural networks based on mathematics and algorithms called threshold logic, 1943)

[8] Atelier de travail « Vers une cyberjustice », tenu les 10 et 11 mai 2018 à Bologne (Italie) à l’initiative de l’IRSIG-CNR (Istituto di Ricerca sui Sistimi Giudiziari – Consiglio Nazionale delle Ricerche)

[9] « La réduction des faits sociaux à des formules mathématiques et à des indicateurs inquiétait déjà plusieurs philosophes, écrivains et hommes de science, qui y voyaient un risque de moralisation de la vie sociale par l’algèbre et les  calculs » Adrien Basdevant, Jean-Pierre Mignard, L’empire des données, Don Quichotte, 2018, p. 40.

[10] Conférence « Justice automatisée : algorithms, big data et justice pénale » (Automated Justice: Algorithms, Big Data and Criminal Justice Systems) tenue le 20 avril 2018 à l’école polytechnique fédérale de Zurich (ETH) – Présentation accessible sur le site internet de l’université (anglais seulement) : https://www.video.ethz.ch/speakers/collegium-helveticum/digital-societies/automated_justice/84c3f617-8784-4203-b7a8-50a176811933.html

[11] Voir par exemple l’article de Regina Nuzzo, Statistical errors, Nature, vol. 506, 13 février 2014  – article consulté le 14 mai 2018 accessible par le lien suivant (anglais seulement) :  http://sisne.org/Disciplinas/PosGrad/MetRedCient/Statistical%20errors%20(p-values).pdf

[12] Théorie dite de « Ramsey », citée par Cristian Sorin Calude et Giuseppe Longo dans La toile que nous voulons, p.156, collectif, Institut de Recherche et d’Innovation, FYP éditions ; théorie développée dans l’étude de Ronald L. Graham, Joel H. Spencer – Ramsey Theory, Scientific American, vol.263, n°1, juillet 1990, p112-117

[13] Regina Nuzzo, Statiscal errors, déjà cité.

[14] Par exemple le renforcement des discriminations tel qu’en témoigne le logiciel COMPAS aux Etats-Unis ou HART en Grande-Bretagne qui prétendent évaluer la risque de récidive des personnes mises en cause dans des affaires pénales

[15] Iyad Rahwan, Manuel Cebrian, Machine Behavior needs to be academic discipline, Nautilus, 29 mars 2018 – Consulté le site Nautilus le 14 mai 2018 (anglais seulement) : http://nautil.us/issue/58/self/machine-behavior-needs-to-be-an-academic-discipline

[16] Nicolas Nova est chercheur et Professeur associé à la Haute École d’art et de design à Genève, sa lettre d’information est accessible à l’adresse suivante : https://tinyletter.com/nicolasnova

[17] Voir notamment les propos de Michael I. Jordan dans Le Monde, 1er décembre 2015, où il estime notamment que « le battage médiatique autour des possibilités excitantes de l’analyse du big data est trop important. Les attentes actuelles dépassent de loin la réalité de ce que l’on peut obtenir. Le problème est que lorsque de telles attentes ne sont pas remplies tout de suite, la déception engendrée peut jeter un discrédit sur l’ensemble même du secteur. » – Consulté sur le site du Monde le 11 mai 2018 : http://www.lemonde.fr/sciences/article/2015/12/01/michael-jordan-une-approche-transversale-est-primordiale-pour-saisir-le-monde-actuel_4821327_1650684.html

Les technologies de l’information dans les tribunaux européens : un développement généralisé aux bénéfices à mesurer

Quels sont les instruments du Conseil de l’Europe pour accompagner et mesurer la transformation numériques des systèmes judiciaires européens ? [1]

L’utilisation de l’informatique est désormais assez généralement acquise dans les tribunaux européens mais l’exploitation des pleines potentialités de la transformation numérique est encore extrêmement disparate : la plupart des pays de l’ouest semblent avoir déjà développé des approches extrêmement sophistiquées (tant sur le plan technologique que de l’encadrement législatif), alors que dans d’autres Etats-membres du Conseil de l’Europe la simple mise en œuvre d’une informatique de gestion efficiente constituerait déjà un grand succès.

Loin de l’idée intuitive d’un impact systématiquement positif des technologies de l’information (TI) sur l’efficacité du travail, des juridictions européennes ont connu en réalité d’importantes difficultés de fonctionnement après le test ou le déploiement d’outils de gestion d’affaires (case management system ou CMS). Il convient toutefois d’analyser chaque situation par des critères objectifs pour tenter d’en comprendre les causes. L’évaluation de l’impact de l’informatique sur l’efficacité et la qualité de la justice a été l’une des missions confiées à la Commission européenne pour l’efficacité de la justice (CEPEJ) du Conseil de l’Europe dès sa création, en 2002[2]. Les dernières mesures effectuées ont notamment mis en évidence l’absence de corrélation évidente entre le montant des investissements financiers en matière informatique et les indicateurs d’efficacité. Autrement dit, ce ne sont pas les pays qui ont le plus investi financièrement qui ont eu les meilleurs bénéfices.

D’autres instances du Conseil de l’Europe ont  également contribué à structurer une doctrine claire d’engagement des tribunaux pour une utilisation des TI, afin de concilier efficacité et qualité avec les garanties attachées à un procès équitable telles que définies par la Convention européenne des droits de l’homme.

1. Les instruments du Conseil de l’Europe pour accompagner la transformation numérique des systèmes judiciaires

1.1. L’Avis n°14 du CCJE (Conseil consultatif de juges européens)

L’Avis n°14 du CCJE (Conseil consultatif de juges européens), adopté en 2011, porte sur la justice et les TI et fixe un cadre général d’utilisation[3]. Ses développements ne se sont pas attachés à des aspects techniques, conjoncturels et évolutifs par nature, mais se sont concentrés sur des questions fondamentales, toujours contemporaines, pressentant le fort potentiel de transformation des technologies.

Cet Avis témoigne d’une volonté affirmée des différents corps judiciaires européens d’être pleinement impliqués dans la mise en place et le développement de ces technologies afin de disposer d’outils performants pour améliorer l’administration de la justice, les relations entre les professionnels et les liens avec la société civile (public, média) tout en conservant les aspects « humains et symboliques » de la justice. A cet effet, le CCJE rappelle que le juge devrait pouvoir ordonner à tout moment la comparution des parties, la production de pièces en original et l’audition de témoins et porte une attention particulière aux personnes pour lesquels l’accès ou l’utilisation des technologies serait problématique ou impossible. L’avis, enfin, rappelle que les technologies ne doivent pas « porter atteinte aux garanties et aux droits procéduraux tel que ceux assurant un procès équitable devant un juge » et replace au cœur des développements à venir les droits fondamentaux définis par la Convention européenne des droits de l’homme, qui ne sauraient être remis en cause par de nouveaux outils.

1.2. La Résolution 2054(2015) et la recommandation 2102(2017) de l’APCE (Assemblée Parlementaire du Conseil de l’Europe)

L’Assemblée Parlementaire du Conseil de l’Europe (APCE) a adopté en 2015 une Résolution relative à « L’accès à la justice et internet : potentiel et défis » et dresse des constats de principes plus succincts mais totalement identiques au CCJE. Elle appelle les Etats-membres à agir dans le respect des articles 6 et 13 de la Convention européenne des droits de l’homme[4], c’est-à-dire développer des applications respectueuses d’un procès équitable et d’un recours effectif à un juge.

Ce dernier aspect est particulièrement souligné puisque l’APCE incite au recours à des procédures de règlement en ligne des litiges (RLL, ODR en anglais pour Online Dispute Resolution) dans des situations appropriées. Rappelons que les règlements extrajudiciaires des litiges sont présentées comme un moyen de prévenir l’engorgement des juridictions de contentieux à faibles enjeux ou pour lesquels l’intervention préalable d’un tiers est de nature à faciliter une solution acceptée par les deux parties. Ce type d’alternative, qui devrait disposer de garanties d’impartialité, ne saurait toutefois complexifier ou interdire l’accès au juge pour traiter un litige.

L’APCE a également adopté une recommandation le 28 avril 2017 relative à la convergence technologique, l’intelligence artificielle et les droits de l’homme[5]. Elle recommande notamment l’adoption d’un cadre commun de normes à respecter lorsqu’une juridiction a recours à l’intelligence artificielle.

 

2. Les outils spécifiques de la CEPEJ (Commission européenne pour l’efficacité de la justice) pour mesurer les effets de la transformation numérique

2.1. Le rapport biennal d’évaluation de la CEPEJ (Commission européenne pour l’efficacité de la justice)

Le groupe de travail « évaluation » de la CEPEJ, présidé par M. Jean-Paul Jean, président de chambre à la Cour de cassation, a rédigé en octobre 2016 une étude approfondie portant sur l’utilisation des technologies de l’information dans les tribunaux en Europe en 2014 en plus du rapport biennal habituel[6]. Ce document dresse pour la première fois un état des lieux extrêmement exhaustif du déploiement des technologies de l’information  en y ajoutant une évaluation du cadre législatif et des méthodes de gouvernance[7].

Indices globaux de développement des technologies de l’information dans les systèmes judiciaires européens, 2014[8]

Data visualisation interactive disponible en cliquant sur la carte

Source : Etudes de la CEPEJ n°24, « Rapport thématique : l’utilisation des technologies de l’information les tribunaux en Europe, données 2014 », octobre 2016.

Il convient tout d’abord de préciser que les indices de la CEPEJ visent à mesurer le développement et non l’usage effectif. Ainsi l’Allemagne, l’Autriche et la République tchèque sont les Etats-membres qui ont globalement mis en oeuvre une très grande variété d’applications mais leur impact réel sera à rechercher en conjonction avec d’autres indicateurs.

Parmi les réalisations notables ayant produit des effets positifs sur l’efficacité des tribunaux, les outils de gestion d’affaires (CMS) paraissent ceux pouvant constituer les fondations à tout changement d’ampleur. Par leur capacité de gestion des processus de travail (workflow), ils constituent un véritable fil conducteur entre divers services (bureau d’ordre centralisé, dématérialisation, suivi en ligne des affaires, production de statistiques). L’Estonie (système e-File) et la Norvège (système Lovisa) apparaissent comme deux exemples notables de réalisation effective, fonctionnelle et acceptée par les utilisateurs. A contrario, malgré des investissements conséquents, le projet d’informatisation Phénix, en  Belgique, n’a jamais vu le jour. Le Portugal a dû faire voter en 2014 en urgence des lois de procédures pour proroger des délais au vu des difficultés de fonctionnement de leur outil Citius. En Albanie, en dépit des efforts de soutien conséquent d’autre pays européens, l’outil de gestion des affaires ICMIS est peu utilisé par les tribunaux car considéré par ses utilisateurs comme inadapté. En France, malgré un taux de développement dans la moyenne européenne, les magistrats et fonctionnaires ne cessent de dénoncer l’état des logiciels mis à leur disposition[9]. En Espagne, la dématérialisation des procédures en oeuvre dans un certains nombre de régions est techniquement fonctionnelle mais semble connaître des difficultés d’appropriation auprès d’un certain nombre de professionnels dans les juridictions.

Parmi les autres applications à fort potentiel de simplification des tâches dans les tribunaux, il convient également de citer les solutions d’enregistrement (audio et/ou vidéo) des audiences qui peuvent servir de compte-rendu (système en place en Lettonie ou en Espagne par exemple) voire même de minute de la décision (Pologne), où le prononcé enregistré du dispositif fait foi par défaut (et peut être retranscrit à la demande des parties).

La partie analytique du rapport recherche les éventuels liens entre les indicateurs d’efficacité[10], le montant des investissements informatiques et le niveau de développement des applications informatiques dans les différents domaines décrits précédemment. Il ressort du croisement de ces informations que ce ne sont pas les Etats qui semblent avoir investi financièrement le plus qui ont systématiquement bénéficié d’une amélioration significative de leur capacité de traitement des affaires juridictionnelles. D’autres facteurs, conjoints aux investissements, semblent avoir eu une influence plus importante sur la célérité et la qualité des juridictions, tels que la définition de politiques publiques globales, traitant de l’organisation des processus de travail, de l’organisation de projets avec des équipes pluridisciplinaires proches des besoins des utilisateurs et la mise en place d’études de retour sur investissement (à même de faire évoluer les systèmes déjà existants).

2.2. Les lignes « Cyberjustice » de la CEPEJ

Le groupe de travail «qualité », alors présidé en 2016 par M. François Paychère, magistrat suisse, a produit des Lignes directrices sur la conduite du changement vers la Cyberjustice qui incitent les Etats-membres à passer d’une approche d’équipement à une approche stratégique de pilotage de l’innovation[11]. Même si cette transition apparaît comme évidente dans de nombreux pays, dont la France, les politiques de conception et de déploiement numérique demeurent encore souvent à la seule initiative de départements informatiques dans de nombreux pays. Il ne convient évidemment pas de discuter les mérites de ces services techniques, mais cette situation place de fait les professionnels des systèmes judiciaires comme consommateurs d’une offre au lieu d’en être des acteurs. Ce document rappelle le bénéfice des approches « agiles » dans les situations adaptées et en privilégiant la conception de services par des équipes projet intégrées (c’est-à-dire mélangeant par exemple juges, greffiers et informaticiens).

Ce document comporte également en annexe des check-lists simplifiées d’auto-évaluation d’un système d’information, du point de vue des administrateurs d’un projet et d’un point de vue des utilisateurs. Il s’agit là d’outils pragmatiques, à adapter aux situations concrètes à évaluer, visant à aider à distinguer en cas de dysfonctionnements ce qui relève de purs aspects techniques, de ce qui relève de problèmes dans les politiques d’accompagnement ou de pilotage du projet.


Notes

[1] Les présents développements se concentreront sur la production du Conseil de l’Europe, qui traite d’un grand périmètre de situations (47 Etats-membres) dans une perspective conjointe de respect des droits fondamentaux (Convention européenne des droits de l’homme, notamment dans ses articles 6 et 13) et d’amélioration de l’efficacité des tribunaux et de la qualité de leur activité (travaux de la CEPEJ).

[2] Résolution Res(2002)12 du Comité des Ministres du Conseil de l’Europe établissant la Commission européenne pour l’efficacité de la justice (CEPEJ).

[3] Avis n°14 du Comité consultatif de juges européens (CCJE), novembre 2011.

[4] Résolution 2054(2015) de l’Assemblée Parlementaire du Conseil de l’Europe (APCE), 10 novembre 2015.

[5] Recommandation 2102(2017) de l’Assemblée Parlementaire du Conseil de l’Europe (APCE), 28 avril 2017.

[6] Etudes de la CEPEJ n°24, « Rapport thématique : l’utilisation des technologies de l’information les tribunaux en Europe, données 2014 », octobre 2016.  Rapport rédigé par Sophie Sontag-Koenig sous la direction de Jean-Paul Jean, président du groupe de travail évaluation de la CEPEJ.

[7] La CEPEJ a divisé en trois catégories d’activité l’équipement technologique : assistance aux professionnels des juridictions, administration de la justice et communication avec les professionnels et les usagers

[8] L’indice présenté sur cette carte est la somme des trois indicateurs des domaines évalués (équipement technologique, cadre législatif et méthodes de gouvernance). La synthèse des réponses fournies par les Etats-membre a permis de  calculer pour chaque domaine un indicateur de développement de 1 (faible taux) à 3 (taux élevé). La carte représente, pour chaque pays, la somme de ces trois indicateurs et présente un indice de 3 (faible, bleu foncé) à 9 (élevé, vert foncé).

[9]Voir par exemple « Réforme de la justice : des magistrats critiquent la méthode Belloubet », Le Monde, 14 février 2018.

[10] La CEPEJ utilise comme indicateurs le Clearance Rate (taux de couverture, c’est-à-dire le rapport entre le nombre des affaires traitées et le nombre d’affaires nouvelles) et le Disposition Time (durée théorique de traitement de l’entier stock d’affaires, par le rapport du nombre d’affaires pendantes en fin d’année sur le nombre d’affaires traitées durant l’année, multiplié par 365).

[11] CEPEJ(2016)13, Lignes directrices sur la conduite du changement vers la cyberjustice.

L’open data en trois définitions

Données brutes, méthodes probabilistes et politique publique : les trois visages de l’open data

Le projet de loi de programmation 2018-2022 et de réforme pour la justice, présenté le 20 avril 2018 en Conseil des ministres, propose de réécrire dans son article 19 les dispositions introduites par les articles 20 et 21 de la loi pour une République numérique promulguée… le 7 octobre 2016.

Cette intense production législative ne concerne pas les dernières réformes procédurales ou territoriales de la justice mais a pour objet l’ouverture en open data des décisions des tribunaux. L’intensité des débats dans ce domaine pourrait paraître inattendue au vu des principes démocratiques invoqués a priori : pourquoi s’opposer à l’amélioration de la transparence de la justice en garantissant la disponibilité, le partage et la réutilisation des décisions juridictionnelles ? Le principe général de transparence de l’action publique, porté notamment dans un cadre international par le Partenariat pour un Gouvernement Ouvert (PGO), se heurte toutefois à une problématique majeure : la confusion d’un grand nombre de notions en utilisant un vocabulaire à la mode. Or sans vocables communs, il semble ne pas y avoir de pensée claire possible et – naturellement – de convergence vers une stratégie d’emploi des opportunités offertes par le numérique dans l’intérêt de la justice.

1/ L’open data au sens strict : des données brutes téléchargeables, sous licence non-onéreuse

Au sens strict, l’open data c’est une base de données informatique brute, librement téléchargeable, et dont la licence autorise à en réemployer son contenu sans le paiement d’une redevance à son producteur. Même si nous ne traiterons dans ce billet que des données publiques, les données ouvertes peuvent indifféremment provenir d’une source publique ou privée. En ce qui concerne le secteur public, cette base de donnée ouverte est naturellement tout à fait distincte des autres modes de publicité déjà prévus par les textes législatifs et réglementaires. Pour les décisions des tribunaux, l’open data est une forme autonome de présentation des données avec ses objectifs propres et ne se substitue pas au formalisme procédural habituel (articles 454 et suivants du code de procédure civil par exemple).

Le centre névralgique de l’open data en France se retrouve sur l’un des sites des services du Premier ministre (http://data.gouv.fr) où des centaines de bases de données sont déjà téléchargeables. Ainsi la base d’adresses nationale, les codes postaux, le cadastre, le registre des entreprises, des décisions des  juridictions administratives sont accessibles d’un simple clic. Mais quand on parle d’accessibilité, on ne parle pas d’intelligibilité. Ces bases de données brutes sont en effet totalement incompréhensibles pour la plupart des citoyens et ne présentent d’intérêt que pour des techniciens sachant les retraiter. On qualifie souvent les données de pétrole du XXIème siècle : l’open data est d’une certaine manière du pétrole brut gratuit à destination de raffineurs.

Prêter des vertus de transparence à l’open data, c’est donc d’abord espérer que des tiers puissent s’en saisir pour raffiner les données et créer du sens. Mais avec quelles méthodes ? C’est l’objet d’une interprétation plus large du terme open data.

2/ L’open data au sens large : des nouvelles méthodes de traitement de l’information

Le terme open data peut aussi être employé de manière large pour englober les données brutes mises à disposition et leur traitement avec des méthodes extrêmement avancées : algorithmes, data science, data mining, intelligence artificielle, machine learning… la sophistication des termes entretient une totale confusion car, comme dans une œuvre de science-fiction, la technologie se mêle parfois aux fantasmes.

Pour se départir d’une approche simplement intuitive, il faut revenir aux fondements des sciences et technologies actuellement employées : ces traitements se fondent sur des approches probabilistes qui n’ont rien révolutionné dans le champ théorique mais qui profitent de capacités de stockage et de calcul considérablement améliorées ces dernières années. Ce qui semble nouveau, c’est que ces nouvelles capacités ont permis des traitements massifs de données par une approche corrélative et inductive au détriment des approches  causales et descriptives : ainsi, plutôt que de tenter de quantifier le réel et de le modéliser, l’exploitation de grands ensembles de données sont désormais censés révéler des phénomènes complexes par la présence de corrélations auparavant imperceptibles[1].

Dans le champ de l’exploitation des décisions de justice, les débats sur l’open data se sont donc aussi portés sur l’exploitation des données mises à disposition avec ces approches inductives (voire prédictives) : pourrait-on révéler de la masse des décisions un sens nouveau de l’application de la loi ? En se fondant sur le nom des juges, arriverait-on à révéler des biais et un manque d’impartialité ?

3/ L’open data en tant que politique publique

Et c’est là où l’open data n’est plus un simple instrument de transparence mais devient porteur d’une véritable politique publique aux termes de laquelle se dégagerait une « norme issue du nombre », s’imposant quasiment aux juges  comme une nouvelle source du droit. Une politique où le juge, se sachant scruté, serait plus sensible à la discipline imposée par les juridictions supérieures.

A ce stade, il ne s’agit pas de se prononcer pour ou contre de nouveaux projets de fonctionnement de la mécanique de production des décisions (ce champ d’opportunité appartient à un débat public démocratique pour savoir ce que l’on veut faire du système judiciaire), mais de constater que les objectifs recherchés se fondent sur des approches parfois discutées entre les experts (citons par exemple la distinction connue entre les méthodes bayésiennes les méthodes fréquentistes depuis le siècle des Lumières[2]).

En annonçant que les juges deviendraient « encagoulés » [3] du fait de l’anonymisation (ou la  pseudonymisation) de leurs noms dans les bases de données brutes ouvertes, il y a donc une erreur de compréhension majeure qui conduit à occulter le réel débat qui devrait impérativement s’opérer. Estime-t-on sérieusement que nous sommes aujourd’hui en mesure de créer du sens à partir de méthodes inductives sur la base de décisions juridictionnelles dont on connaît les mérites mais aussi les défauts ? Défauts parmi lesquels on pourrait citer le caractère lapidaire ou obscur de certaines motivations… Par ailleurs, traiter le nom des juges ainsi ne conduirait-il pas à imaginer dans de possibles corrélations des faits n’ayant aucun fondement sérieux : par exemple des droits de garde plus fréquemment attribués aux mères ne révèlent pas nécessairement un parti pris du magistrat.

Les annonces prophétiques, comparant par exemple la justice aux majors des industries musicales des années 2000 ou annonçant la disparition de la justice si elle ne s’hybridait pas avec les méthodes probabilistes, sont donc à prendre avec recul. Penser une politique d’open data pour la justice impose un recours à des approches pluridisciplinaires scientifiquement fondées (droit, théorie du droit, économie, sociologie, mathématiques, statistiques, informatique), nourries de débats et d’expérimentations, à même d’enrichir un débat public éclairé. En somme, être en mesure de choisir collectivement dans quel monde nous souhaitons vivre.


Aller plus loin ?

Retrouvez l’entretien avec François Paychère au sujet de l’open data sur le podcast  des temps électriques, disponible sur Amicus Radio.

 

 


Notes

[1] C. Anderson, The end of theory. The data deluge makes the scientific method obsolete, Wired, 2008.
[2] Voir par exemple C. Fauré, Deux visages du calcul des probabilités : bayésien et fréquentiste, 2013.
[3] Des juges encagoulés ?, Le Canard Enchaîné, 25 avril 2018.