DataJust face aux limites structurelles de l’intelligence artificielle

Crédits : Tom Gauld pour The Economist

En plein confinement, le décret n° 2020-356 du 27 mars 2020 est venu créer un nouveau traitement automatisé de données à caractère personnel dénommé « DataJust », placé sous l’autorité du ministère de la justice, qui vise à améliorer la prévisibilité en matière de réparation du préjudice corporel. Si le texte s’inscrit dans le cadre de la réforme annoncée de la responsabilité civile et d’un programme général de réforme pour rendre la justice plus prévisible, ni avocats, ni magistrats ne semblaient avoir vu venir sa publication. Les analyses n’ont pas manqué pour dénoncer divers maux, comme la robotisation de la justice, mais très peu ont relevé la difficulté qui est pourtant la plus substantielle : les barrières technologiques de ces algorithmes dits d’intelligence artificielle pour restituer les résultats attendus. 

Remplacement du juge par des robots et atteinte à l’indépendance de la justice, déshumanisation, mise à mal du principe d’individualisation, voici quelques-unes des critiques qui ont été adressées au nouveau traitement informatique « DataJust » lancé, avec un assez mauvais sens du « timing », en pleine crise sanitaire[1]. Le ministère de la justice présente pourtant ce nouvel instrument comme une toute nouvelle garantie d’un traitement harmonieux des décisions en matière de réparation du préjudice corporel et la possibilité, pour les justiciables, d’obtenir une information de meilleure qualité quant au montant d’indemnisation prévisionnel. Rappelons que les juges, judiciaires et administratifs, connaissent de ce contentieux opposant les victimes de dommages à des organismes payeurs (assurances ou sécurité sociale par exemple). Les juges fixent dans ce cadre le montant des indemnités ayant pour objet de compenser les préjudices subis selon le principe de réparation intégrale, dans les limites des prétentions des demandeurs. Les magistrats exercent à cette occasion leur entier pouvoir d’interprétation ce qui, du point de vue des justiciables, est la garantie d’un examen équitable et spécifique pour chaque cas d’espèce. Du point de vu des organismes payeurs, il s’agit en revanche d’un aléa qu’il convient d’anticiper.

D’où l’idée, assez ancienne, d’établir des échelles ou des barèmes afin d’assurer une meilleure harmonisation territoriale et offrir une meilleure prévisibilité pour toutes les parties prenantes[2]. Le livre blanc de l’Association française de l’assurance de 2008[3] n’est pas parvenu à convaincre le législateur à inscrire dans une loi un référentiel indemnitaire national, et c’est toujours la nomenclature publiée dans le rapport de 2005 de Jean-Pierre Dintilhac, alors président de la deuxième chambre civile de la Cour de cassation, qui constitue l’une des principales références pour les acteurs de l’indemnisation du dommage corporel[4]. Sans être source de droit, cette nomenclature a fourni des lignes directrices suffisamment claires et souples pour être acceptées par les professionnels, mais présente au moins deux inconvénients majeurs : elle n’est pas le seul document en la matière et elle est statique. Les algorithmes dits d’apprentissage automatique (machine learning) ont donc offert un tout nouveau moyen à cette ambition de construction d’un modèle prévisionnel, en rendant possible le traitement de quantités considérables de jurisprudence pour en inférer, quasiment en temps réel, des constantes. Un label « marketing » a rapidement qualifié cette toute nouvelle pratique : la « justice prédictive ». Dès le milieu des années 2010 en France, c’est le secteur privé qui prend l’initiative de tenter révéler les mécanismes sous-jacents de certains contentieux civils ou commerciaux chiffrables (droit du travail, divorce, rupture brutale des relations commerciales, etc) par cette approche statistique sophistiquée et a très rapidement bâti une offre commerciale, principalement à destination des avocats, des directions juridiques et… des assureurs. « L’intelligence artificielle » (« IA[5] ») s’est ainsi lancée à l’assaut de la forteresse « justice[6] », comme elle avait déjà conquis bien d’autres domaines comme la santé ou l’éducation.

La première question qui s’est posée avec l’avènement de ces nouveaux acteurs, des legaltechs avec un solide appétit de « disruption », a été l’obsolescence du juge, voire de l’humain en général : à ne pas en douter, la puissance des algorithmes allait tôt ou tard remplacer notre propre cerveau, moins agile avec ces calculs massifs et bien faillible avec ses biais et ses émotions. De nombreuses spéculations se sont échafaudées, jusqu’au regretté Stephen Hawking qui pensait voir apparaître avec « l’IA » les ferments d’une domination des machines, spéculant sur des programmes pouvant se reproduire comme des virus[7]. Mais dresser ce type de constat, c’est postuler que cette « IA » est en capacité de produire le résultat que l’on attend d’elle dans la plupart des champs d’application, c’est-à-dire dresser de manière générale des prévisions relativement fiables sur la base d’événements passés. C’est là une erreur d’appréciation fondamentale, qui résulte de l’excellent marketing réalisé depuis les années 1950[8], et réinventé au début des années 2010 par les trois « conspirateurs » Yann LeCun, Yoshua Bengio et Geoffrey Hinton[9]. Très peu d’experts ou d’auteurs réalisent une claire distinction entre des environnements fermés, quantifiables (comme le jeu de go), où « l’IA » démontre sa pleine puissance, et des environnements ouverts, qualitatifs où cette « IA » est bien moins agile. De l’époque de grand emballement lors de laquelle DataJust a été lancé (1) à la prise de conscience d’un « problème technique » général touchant « l’IA » (2), il semble donc que ce projet se lance malheureusement à contrecourant du sens de l’histoire, alors qu’un « automne de l’intelligence artificielle » commence à frémir (3).

1. Le grand emballement de « l’IA »

Des années de battage médiatique auront eu raison de tout esprit critique. A ne pas en douter, « l’IA » allait être la technologie de rupture de notre temps, une révolution « plus profonde que le feu ou l’électricité » à entendre Sundar Pichai, patron de Google. Les superlatifs n’ont pas manqué. Geoffrey Hinton, l’un des trois récipiendaires du prix Turing 2019 pour avoir donné vie au vieux projet connexionniste d’apprentissage automatique (machine learning)[10], faisait remarquer en 2016 qu’il était « tout à fait évident que nous devrions arrêter de former des radiologues », au motif que les ordinateurs seront bientôt capables de faire tout ce qu’ils font, mais à moindre coût et plus rapidement. Depuis 2010, les pétitions de principe se sont succédé, la victoire de « l’IA » conçue par DeepMind au jeu de go achevant, également en 2016, de ringardiser les sceptiques et les critiques.

“Ce qui n’est pas possible aujourd’hui le sera nécessairement demain”

Assez logiquement face à autant de certitudes, le marché s’est affolé. Pour certains observateurs comme McKinsey, les prévisions de croissance d’ici à 2030 s’établiraient encore entre 13 et 16 milliards de milliards de dollars. Il faut dire que cette « IA », et plus précisément l’apprentissage automatique (machine learning), est une technologie polyvalente, capable d’affecter la plupart des tâches exécutées par des humains. Avec ses fondements statistiques, elle excelle à révéler des régularités dans les données pour en établir des modèles : qu’il s’agisse de reconnaître des sons, des images mais également de détecter des potentielles fraudes dans des masses de transactions bancaire, voire même anticiper des montants d’indemnités prononcés par des juges, les promesses de « l’IA » sont annoncées comme infinies par les techno-évangélistes. Face aux erreurs des systèmes, les concepteurs opposent un argument intuitif : en agrégeant toujours plus de données, on augmentera la précision et tout sera résolu. Ce qui n’est pas possible aujourd’hui le sera nécessairement demain.

Des usages auront bien cristallisé des critiques et suscité d’importantes craintes : expérimentations sauvages de reconnaissance faciale dans l’espace public opérant un contrôle d’identité permanent de toute la population au mépris de tout encadrement procédural, crédit social donnant corps aux spéculations dystopiques de la série télévisée Black Mirror, tentatives de manipulation de masse de l’opinion publique avec des techniques de micro-ciblage, faisant passer la propagande de l’ère du lance pierre à celle de l’arme automatique. Par peur d’une intervention rapide des régulateurs étatiques ou internationaux, l’éthique a été rapidement dégainée comme une solution universelle pour atteindre une acmé en 2018 avec la parution cette année-là de plus d’une centaine de texte multipliant les principes aux allures d’incantations[11].

Mais le débat public a totalement occulté la problématique qui, pourtant, aurait dû être centrale. Alors même que l’informatique devrait être en capacité de nous faire gagner en précision, nous produisons des machines qui nous restituent l’inverse. Trop souvent, l’approximation, l’estimation et l’impression semblent primer chez certains entrepreneurs sur une simple exigence d’exactitude. À nous égarer dans les corrélations de l’apprentissage profond (deep learning) pour des questions de rentabilité à court terme et de levée de fonds, nous perdons un temps qui serait pourtant fort précieux pour tenter de mieux traiter des questions qui pourraient permettre à cette « IA » de franchir son plafond actuel, notamment en tentant de réaliser une meilleure modélisation de la causalité. D’une certaine manière, nous vivons avec ces outils numériques une véritable ère de l’approximation. Certes, des milliards de personnes utilisent chaque jour différentes formes « d’IA », la plupart du temps sans s’en apercevoir, qu’il s’agisse du simple usage d’un téléphone mobile et ou de services sur internet. Mais l’inexactitude d’un ciblage publicitaire ou d’une heure d’estimation d’arrivée avec son GPS est généralement indifférente à la plupart d’entre nous et nous nous accommodons assez aisément de cette situation au vu du gain procuré par un service « pratique ». Mais il est des domaines, comme la santé ou la justice, au sein desquels l’approximation peut produire des dégâts bien substantiels. Et malgré les affirmations les plus solennelles de concepteurs disant que si l’on arrive à expédier des fusées avec les mathématiques, on arrivera bien à modéliser diverses situations, il n’en reste pas moins que bon nombre de de projets n’ont pas toujours procuré le retour sur investissement attendu. Les enthousiastes naïfs (ou les simples spéculateurs) subissent désormais le choc sévère de la réalité et les investisseurs commencent à demander des comptes. La fonction de conduite « autonome » de certaines voitures est devenue avec certitude plus performante, mais elle reste perpétuellement sur le point d’être suffisamment sûre pour se déployer au quotidien dans les rues. De même, la généralisation de « l’IA » dans le secteur de la santé peine à se réaliser dans un contexte de désenchantement depuis les polémiques ayant touché Watson[12]. Et c’est des radiologues bien humains qui ont prêté main forte lors de la pandémie moins que des « IA ».

2. Le problème technique de « l’IA »

Cette situation peut s’expliquer pour au moins trois raisons et constitue le cœur de ce que l’on pourrait qualifier de « problème technique[13] ».

La première raison c’est la généralisation souvent abusive des capacités de « l’IA », sur la base de succès tous à fait réels obtenus dans des environnements fermés. Les capacités calculatoires des algorithmes d’apprentissage automatique (machine learning) n’ont aucune difficulté à manipuler des données quantitatives, non ambiguës avec des règles discrètes (au sens mathématique) et figées. Il n’est donc pas surprenant de voir ces machines exceller avec des jeux, même aux combinatoires exponentielles, comme le jeu de go. Il est en revanche bien plus spéculatif d’espérer retirer les mêmes avantages dans un environnement dont les données sont qualitatives, interprétées, sans certitude de la nature des relations entre elles. C’est pour cela que des algorithmes manipulant des concepts relevant des sciences sociales par exemple se heurtent à des difficultés très basiques qui n’ont toujours pas été résolues : la société ne se laisse pas aisément « mettre en équation[14] ».

“Face à ces difficultés bien substantielles et des investissements financiers considérables pour atteindre des résultats parfois bien maigres, près de 40% des entreprises déclarant développer un projet fondé sur de « l’IA » semblent en réalité utiliser des technologies plus rudimentaires”

La deuxième raison dérive de la première. Alors que la révolution de l’apprentissage automatique (machine learning) s’est construite sur la base de l’optimisation d’anciens algorithmes connexionnistes ainsi que sur l’augmentation de la puissance des ordinateurs pour les faire fonctionner et la disponibilité massive de données, il faut bien admettre que ces dernières ne s’avèrent pas toujours complètes, fiables ou accessibles. Parfois, le sens recherché se trouve bien plus dans les données dont nous ne disposons pas que dans les données immédiatement exploitables[15]. Un autre problème substantiel était révélé en 2014 par Regina Nuzzo dans son article « La malédiction de la valeur-p », où elle décrivait les très nombreuses approximations qui conduisaient à considérer des hypothèses comme prouvées alors qu’elles étaient en réalité bien loin de l’être[16]. « L’IA » emporte en son cœur statistique le même problème, en l’aggravant potentiellement : tous les concepteurs « d’IA » (ainsi que les utilisateurs) n’ont pas nécessairement reçu une formation solide en matière statistique et sont susceptible de tirer des conclusions tout à fait hâtives à la lecture du traitement de données.

La dernière, et certainement la plus critique, est l’incapacité de ces machines à distinguer les simples corrélations de réelles causalités. En « savants idiots », elles parviennent avec bien plus d’agilité que les anciens programmes symboliques à reconnaître des images ou du son, voire à trouver des liens entre des morceaux de phrases de deux langues différentes mais elles sont loin de parvenir à généraliser ces résultats de manière satisfaisante. Leur raisonnement manque singulièrement de sens commun[17] et il n’est pas du tout certain, comme l’espère certains chercheurs, que l’intelligence (au sens d’une intelligence humaine) naisse de la complexité d’apprentissages plus sophistiqués tels que l’apprentissage auto-supervisé. Peut-être que notre « intelligence » naît bien plus de l’interaction entre individus et que la recherche de modélisation d’un cerveau bien solitaire est vouée, depuis le départ, à l’échec.

Face à ces difficultés bien substantielles et des investissements financiers considérables pour atteindre des résultats parfois bien maigres, près de 40% des entreprises déclarant développer un projet fondé sur de « l’IA » semblent en réalité utiliser des technologies plus rudimentaires, dont parfois des stagiaires réalisant des scripts consignés dans des documents Word[18]. Même simplifié dans des offres abordables financièrement dans le nuage (cloud), l’emploi de telles technologies laisse planer de nombreux doutes sur la souveraineté des données[19]. Rappelons-nous des causes du précédent « hiver de l’IA » intervenu à la fin des années 1980 : des systèmes aux coûts prohibitifs, dont la valeur ajoutée n’a pas été au niveau des annonces et pour lesquels d’autres solutions, plus rudimentaires mais moins couteuses, sont venues apporter de réelles réponses.

Voilà l’état de l’art qui, s’il ne justifie pas encore de pronostiquer un nouvel « hiver de l’IA », conduit des revues comme The Economist, à estimer qu’une brise automnale commence bien à se faire sentir[20]

3. DataJust, lancé à contrecourant du sens l’histoire ?

Et c’est dans cet exact contexte d’incertitude que le ministère de la justice français vient de se lancer dans deux années de développement d’un tout nouvel applicatif, fondé sur de l’apprentissage automatique (machine learning), chargé de réaliser des « évaluations rétrospectives et prospectives des politiques publiques en matière de responsabilité civile ou administrative », d’élaborer « un référentiel indicatif d’indemnisation des préjudices corporels », d’informer des parties ou d’aider « à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges » et d’informer ou documenter les « juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels »[21].  Le processus de fonctionnement consistera d’abord à désigner à l’algorithme les éléments pertinents d’une décision, au moyen d’une pré-annotation automatique en fonction de 41 critères (âge, genre, profession, etc), vérifiés par des annotateurs humains [22].

Copie d’écran de DataJust extraite de la fiche de présentation du projet d’entrepreneuriat d’intérêt général : https://fichiers.eig-forever.org/posters/eig3/datajust.pdf

Il ne sera pas discuté ici des détails de l’encadrement juridique de cet algorithme[23], ni de l’avis de la CNIL qui a formulé un certain nombre de demandes comme « une description détaillée des algorithmes » ainsi que la transmission des « méthodes mises en œuvre, des indicateurs de performance, des résultats obtenus et des modalités d’audit de l’algorithme utilisé » [24]. Les ambitions du ministère de la justice sont toutefois bien multiples et viennent porter appui à des objectifs plus généraux de déjudiciarisation, afin de désengorger les tribunaux[25]. Encourager les justiciables à une négociation avec les organismes payeurs passerait maintenant non plus par une nomenclature statique mais par un filtre algorithmique censé révéler, sur la base de quantité massive de jurisprudence, les corrélations avec des affaires identiques. Il est aussi question pour le ministère de contribuer à l’harmonisation tant attendue de jurisprudence, les « barèmes » ayant permis de limiter les décisions aberrantes (au sens statistique) mais pas le pouvoir d’appréciation des juges qui a continué de s’exercer pleinement[26]. L’autorité de cet algorithme va être toutefois bien plus importante que celle d’une nomenclature créée il y a 15 ans et s’imposera tant aux justiciables qu’aux juges, avec tous les risques liés aux biais cognitifs d’automatisation et d’ancrage[27].

Sans remettre en cause l’engagement des concepteurs à produire un outil d’intérêt général, ceux-ci auront des difficultés à compenser les défauts structurels de cette « IA »

Le problème est toutefois moins ce pouvoir sur les individus que le contenu de l’information véhiculée : l’algorithme va en effet influer sur la décision d’aller en justice en communiquant des informations potentiellement biaisées. En effet, « l’apprentissage » de Datajust ne portera que sur les décisions rendues entre 2017 et 2019 par les cours d’appel judiciaires, dans leur formation civile, et les cours d’appels administratives, ce qui ne donnera qu’une représentation très partielle de la réalité qu’il prétend restituer. Cette sélection, en plus se limiter à la seconde instance qui ne dispose d’aucune autorité spécifique par rapport à la première instance, exclue toute la partie de contentieux portant sur l’indemnisation des préjudices corporels à l’occasion d’un procès pénal. Il sera, de plus, bien difficile d’identifier les décisions prononcées dans des dossiers dans lesquels une transaction est intervenue, injectant ainsi dans le système des indemnisations potentiellement minorées au regard des circonstances de l’espèce.

Cet algorithme va également s’appuyer sur une technologie peu adaptée pour procéder au traitement d’une telle quantité d’informations qualitatives : il ne s’agit pas en effet de faire une simple médiane ou moyenne des montants précédemment alloués mais d’aller chercher les potentiels éléments de motivation pouvant avoir un lien avec un montant spécifique. Opérer cette analyse, c’est composer un cadre interprétatif, où les concepteurs vont devoir identifier des paramètres leur paraissant pertinent. Voici tous les ingrédients réunis pour du data dredging (dragage de données), c’est-à-dire restreindre le panel de décisions sélectionnées à celles se devant de correspondre au cadre posé. 

Enfin, l’avantage d’un tel traitement informatique par rapport à une nomenclature figée est son caractère potentiellement dynamique : or le traitement sera ici limité à une durée de deux ans, le temps de construire le modèle, et les données seront ensuite détruites. Cette disposition est justifiée pour limiter dans le temps la détention de données à caractère personnel et l’on ne sait si de nouveaux jeux de données viendront postérieurement renforcer le modèle bâti. Mais cela prive le système de tout audit postérieur, permettant de rejouer ou de vérifier son fonctionnement. Rien ne permettra d’attester que des décisions n’ont pas été traitées en double ou mal interprétées. Cela semble particulièrement fâcheux quand l’on opère des choix algorithmiques n’autorisant que peu ou pas d’explicabilité, avec des effets juridiques directs ou indirects substantiels.

Sans remettre en cause l’engagement des concepteurs à produire un outil d’intérêt général, ceux-ci auront des difficultés à compenser les défauts structurels de cette « IA » et ne risquent de ne créer que l’illusion d’une connaissance dont le pouvoir sera de créer des prophéties auto-réalisatrices. Certes le ministère de la justice s’est engagé à dresser un bilan l’année suivant son développement, mais pourquoi ne pas prendre en compte dès le début de la conception ces limites ? Une sérieuse étude d’impact sur les droits de l’homme, telle que préconisée par la Commissaire aux droits de l’homme du Conseil de l’Europe aurait été la bienvenue. Car nous allons vider les tribunaux de contentieux mais à quel prix ? Au prix d’une probable violation de l’article 6§1 de la Convention EDH en détournant les justiciables d’un accès au juge sur la base d’informations approximatives.

Il est donc à craindre que cette nouvelle application ne vienne allonger la liste de reproches récemment dressés sur la transformation numérique de la justice qui devait être le « cœur du réacteur » de sa réforme[28]. Réacteur de plus en plus radioactif si l’on en croit la polémique relayée dans plusieurs médias[29]et qui ne résulte pas de la prétendue incompétence de cette administration mais de trop longues luttes d’influence à l’intérieur d’un ministère ayant toujours trop politisé le déploiement de solutions informatiques. La construction d’un moteur de recherche public et gratuit de jurisprudence[30], autorisant une représentation graphique des fourchettes d’indemnisation et un « zoom » sur les décisions ayant contribué à cette représentation aurait constitué une avancée considérable, bien moins hasardeuse… mais bien moins « disruptive » vu de la « startup nation » aux manettes de la numérisation de l’administration d’État.


 Pour aller plus loin


Notes

[1] Nicole Belloubet, ministre de la justice, a qualifié le moment de sortie de ce décret « d’erreur temporelle » – Voir le compte-rendu de la rencontre entre le CNB et la Garde des Sceaux : Covid-19 et urgence sanitaire : compte-rendu de notre entretien avec la Garde des Sceaux, 31 mars 2020 – Accessible sur : https://www.cnb.avocat.fr/sites/default/files/31_mars_2020_entretien_avec_la_garde_des_sceaux.pdf – Consulté le 15 juin 2020.

[2] Voir notamment le rapport Lambert-Faivre qui proposait la création d’un « référentiel indicatif national, statistique et évolutif », fondé sur un historique des décisions judiciaires et des transactions, juin 2003 – Accessible sur : https://www.vie-publique.fr/sites/default/files/rapport/pdf/034000490.pdf – Consulté le 16 juin 2020.

[3] Livre blanc sur l’indemnisation du dommage corporel, Association Française de l’Assurance, avril 2008 – Accessible sur : http://www.gazetteassurance.fr/wp-content/uploads/2015/02/Livre-blanc-FFSA-GEMA-sur-lindemnisation-du-dommage-corporel-avril-2008.pdf – Consulté le 15 juin 2020.

[4] J-P. Dintilhac, Rapport du groupe de travail chargé d’élaborer une nomenclature des préjudices corporels, 28 avril 2005 – Accessible sur : https://www.vie-publique.fr/sites/default/files/rapport/pdf/064000217.pdf – Consulté le 15 juin 2020.

[5] L’acronyme d’intelligence artificielle sera présenté entre guillemets par commodité éditoriale. L’ensemble des technologies recouvertes par ce terme ne constituent naturellement pas une personnalité autonome et, afin de se garder de tout anthropomorphisme, il a été choisi de résumer les termes plus appropriés « d’outils d’intelligence artificielle » ou « d’applications d’intelligence artificielle » par le seul terme « d’IA » entre guillemets.

[6] A. van den Branden, Les robots à l’assaut de la justice, l’intelligence artificielle au service des justiciables, Bruylant, février 2019.

[7] R. Cellan-Jones, Stephen Hawking warns artificial intelligence could end mankind, BBC news, 2 décembre 2014.

[8] J. McCarthy, M. Minsky, N. Rochester, C.E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, Août 1955.

[9] B. Georges, Hinton, LeCun, Bengio : la « conspiration » du deep learning, Les Échos, 9 août 2018.

[10] D. Cardon, J-P. Cointet, A. Mazières, La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle, Réseaux, 2018/5 (n° 211), 2018.

[11] Pour une liste des cadres éthiques classés par année ou origine, voir la datavisualisation publiée sur le blog de l’auteur, « Les Temps Électriques », accessible sur : https://lestempselectriques.net/index.php/2020/05/06/ia-algorithmes-big-data-data-science-inventaire-des-cadres-ethiques-et-politiques/ – Consulté le 19 juin 2020.

[12] C. Ross, IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show, STAT, 25 juillet 2018.

[13] Voir Y. Meneceur, L’intelligence artificielle en procès, Bruylant, 2020 pour des développements approfondis de cette question.

[14] P. Jensen, Pourquoi la société ne se laisse pas mettre en équation, Seuil, 2018.

[15] D. Hand, Dark Data, Princeton University Press, 2020.

[16] R. Nuzzo, La malédiction de la valeur-p, Pour la Science, 10 janvier 2018 ?

[17] S. Sermondadaz, Yann LeCun, L’intelligence artificielle a moins de sens commun qu’un rat, Sciences & Avenir, 24 janvier 2018.

[18] A. Casilli, En attendant les robots – Enquête sur le travail du clic, Seuil, 2019.

[19] G. Grallet, Health Data Hub : « Le choix de Microsoft, un contresens industriel ! », Le Point, 10 juin 2020.

[20] An understanding of AI’s limitations is starting to sink in, The Economist, 11 juin 2020.

[21] Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust ».

[22] Voir la fiche produite dans le cadre du projet d’entreprenariat d’intérêt général, accessible sur : https://fichiers.eig-forever.org/posters/eig3/datajust.pdf – Consulté le 16 juin 2020.

[23] Voir à cet effet A. Bensamoun, Th.Douville, Datajust, une contribution à la transformation numérique de la justice, La Semaine Juridique, Edition Générale n°19, 11 mai 2020, p.582.

[24] CNIL, délibération n° 2020-002, 9 janvier 2020 portant avis sur un projet de décret en Conseil d’État portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust ».

[25] Rappelons qu’au regard des évaluations de la CEPEJ (Conseil de l’Europe), les moyens de la justice en France subiraient un déficit d’investissement structurel par rapport à des systèmes judiciaires comparables – Voir également O. Dufour, Justice, une faillite française ?, LGDJ, 2018.

[26] La barémisation de la justice : une approche par l’analyse économique du droit, Recherche réalisée avec le soutien de la mission de recherche droit et justice, février 2019.

[27] C. Hadavas, How Automation Bias Encourages the Use of Flawed Algorithms, Slate, 6 mars 2020.

[28] M. Babonneau, Chantiers de la justice : la transformation numérique, « cœur du réacteur », Dalloz.actualité, 16 janvier 2018.

[29] Voir notamment P. Gonzalès, Le grand bazar de l’informatique judiciaire, Le Figaro, 4 juin 2020, ou J.-B. Jacquin, La crise sanitaire met en lumière la faiblesse de l’institution judiciaire, Le Monde, 7 juin 2020 ou A. Vidalie, Serveurs inaccessibles, logiciels archaïques… Les bugs de la machine judiciaire, L’Express, 8 juin 2020 ou G.Thierry, Le confinement, crash test de la transformation numérique de la justice, Dalloz Actualités, 10 juin 2020. 

[30] S’agissant des besoins d’un tel dispositif de service public, voir M. Depay, Égal accès à la jurisprudence : une action collective portée par des avocats pour les avocats, Village de la Justice, 18 juin 2020.