DataJust face aux limites structurelles de l’intelligence artificielle

Crédits : Tom Gauld pour The Economist

En plein confinement, le décret n° 2020-356 du 27 mars 2020 est venu créer un nouveau traitement automatisé de données à caractère personnel dénommé « DataJust », placé sous l’autorité du ministère de la justice, qui vise à améliorer la prévisibilité en matière de réparation du préjudice corporel. Si le texte s’inscrit dans le cadre de la réforme annoncée de la responsabilité civile et d’un programme général de réforme pour rendre la justice plus prévisible, ni avocats, ni magistrats ne semblaient avoir vu venir sa publication. Les analyses n’ont pas manqué pour dénoncer divers maux, comme la robotisation de la justice, mais très peu ont relevé la difficulté qui est pourtant la plus substantielle : les barrières technologiques de ces algorithmes dits d’intelligence artificielle pour restituer les résultats attendus. 

Remplacement du juge par des robots et atteinte à l’indépendance de la justice, déshumanisation, mise à mal du principe d’individualisation, voici quelques-unes des critiques qui ont été adressées au nouveau traitement informatique « DataJust » lancé, avec un assez mauvais sens du « timing », en pleine crise sanitaire[1]. Le ministère de la justice présente pourtant ce nouvel instrument comme une toute nouvelle garantie d’un traitement harmonieux des décisions en matière de réparation du préjudice corporel et la possibilité, pour les justiciables, d’obtenir une information de meilleure qualité quant au montant d’indemnisation prévisionnel. Rappelons que les juges, judiciaires et administratifs, connaissent de ce contentieux opposant les victimes de dommages à des organismes payeurs (assurances ou sécurité sociale par exemple). Les juges fixent dans ce cadre le montant des indemnités ayant pour objet de compenser les préjudices subis selon le principe de réparation intégrale, dans les limites des prétentions des demandeurs. Les magistrats exercent à cette occasion leur entier pouvoir d’interprétation ce qui, du point de vue des justiciables, est la garantie d’un examen équitable et spécifique pour chaque cas d’espèce. Du point de vu des organismes payeurs, il s’agit en revanche d’un aléa qu’il convient d’anticiper.

Continuer la lecture de « DataJust face aux limites structurelles de l’intelligence artificielle »

Applications « Covid-19 » : où en sommes-nous ?

Alors que le recours à des applications numériques pour contribuer aux politiques publiques sanitaires est sur le point de devenir une réalité en Europe, quelles sont les cas d’usages précis de par le monde ? Parce qu’un graphique vaut mieux que des longs développements, consultez cette “dataviz” !

Continuer la lecture de « Applications « Covid-19 » : où en sommes-nous ? »

« Contact tracing » : Des « hacks » pour protéger la vie privée mais des barrières technologiques encore tenaces

Dans l’arsenal de la lutte contre le Covid-19, l’idée de tirer bénéfice du fort maillage des téléphones mobiles est apparue. Des applications promettent de faciliter la recomposition des chaînes de transmission et de ralentir la pandémie. Ces applications ont suscité un assez fort débat sur la protection des données. Mais, avant même tout débat sur cette question, ces applications soulèvent surtout la simple question de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ? Sur quelles bases sont conçus les modèles statistiques censés minimiser les faux positifs ? Toute la population ne pourra pas (ou ne voudra pas) être tracée ? Autant de points qui conduisent à se demander si le coût de cette ambition dans de nombreux pays européens (coût du déploiement, coût des mesures d’accompagnement, brèches potentielles des droits) est proportionné aux résultats à en espérer.

Continuer la lecture de « « Contact tracing » : Des « hacks » pour protéger la vie privée mais des barrières technologiques encore tenaces »

L’étrange ambition des applications de “contact tracing”​

Mise à jour du 23 avril 2020

Dans l’arsenal de la lutte contre le Covid-19, des applications sur téléphone mobile sont apparues avec la promesse de faciliter la recomposition des chaînes de transmission et d’accompagner le déconfinement. Autant qu’un débat sur la protection des données, ces applications soulèvent surtout la question bien plus basique de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ?

Toutes les crises majeures de notre civilisation ont conduit nos sociétés à s’adapter, particulièrement pendant les révolutions, les guerres et les crises sanitaires. La statistique, ainsi, se déploiera en véritable outil de politique publique pour lutter contre le choléra ou encore la variole. D’Alembert et Diderot s’opposeront sur le bénéfice d’une vaccination de masse de la population, le premier estimant que le choix devait être laissé aux individus  et qu’ils pouvaient ainsi refuser de se voir inoculer une forme atténuée de la maladie pour développer une immunité. Daniel Bernoulli, en affirmant par une approche statistique que le risque mortel de la vaccination était d’un cas sur 200, allait trancher le débat, faire prévaloir le collectif sur l’individuel et emporter la décision publique.

Continuer la lecture de « L’étrange ambition des applications de “contact tracing”​ »

L’IA convoquée pour lutter contre le coronavirus Covid-19

Crédits: NIH/Flickr

Article mis à jour le 10 avril 2020

Il n’aura pas fallu attendre longtemps pour que l’intelligence artificielle (IA) soit invitée à venir porter appui à la lutte contre la pandémie virale touchant le monde entier depuis le début de l’année 2020. La presse et les bloggers se font écho des grands espoirs reposant sur la science des données et l’IA pour affronter le coronavirus (D. Yakobovitch, How to fight the Coronavirus with AI and Data Science, Medium, 15 février 2020) et « remplir les vides » encore laissés par science (G. Ratnam, Can AI Fill in the Blanks About Coronavirus? Experts Think So, Government Technology, 17 mars 2020).

Il est toutefois surprenant que la Chine, premier épicentre de cette maladie et réputée pour son avancée technologique en la matière, ne paraisse pas avoir pu en tirer un avantage déterminant. Ses usages le plus efficaces semblent avoir plus concerné le contrôle des populations et les prévisions d’évolution des foyers de la maladie que la recherche pour l’élaboration d’un vaccin ou d’un traitement. Il y a bien sûr eu des applications de l’IA pour accélérer le séquençage du génome, effectuer des diagnostics plus rapides, réaliser des analyses par scanner ou plus ponctuellement recourir à des robots de maintenance et de livraison (A. Chun, In a time of coronavirus, China’s investment in AI is paying off in a big way, South China Morning post, 18 mars 2020), mais nous sommes loin des discours d’avant la crise où certains techno-évangélistes pensaient que cette technologie nous protègerait de tels événements planétaires. 

Continuer la lecture de « L’IA convoquée pour lutter contre le coronavirus Covid-19 »

L’open data des décisions de justice : un nouveau mode de publication des décisions

La définition de la signification et de la portée de l’open data des décisions de justice semble encore devoir être clarifiée, même si deux régimes distincts se dégagent de la loi de programmation et de réforme de la justice sur la base d’un critère de fréquence. Ajouter la finalité de la demande pour affiner cette clé de distinction permettrait d’écarter l’instrumentalisation de la publicité aux fins de constituer des fonds jurisprudentiels, action qui relève… de la notion de publication des décisions.

Dans le prolongement de la loi du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice[1]qui limite dans certaines hypothèses la mise à disposition électronique des décisions de justice avec le nom des magistrats, une étude de l’IFOP de juin 2019 révèlerait que 87 % des avocats seraient opposés à l’anonymisation des décisions de justice, notamment chez les 60 ans et plus (94%), ceux qui exercent en individuel (92%), les indépendants (92%) et les avocats travaillant dans le droit pénal (94%)[2]. Vu de l’étranger[3], même incompréhension de ces nouvelles dispositions, où les peines de 5 ans d’emprisonnement et 300 000 euros d’amende[4]encourues par toute personne opérant au « profilage » de juges[5], sont perçues comme « unique au monde » et à contrecourant d’un large mouvement de transparence de la vie publique, traduites par les politiques d’open data[6]. En France, une lettre co-signée par des associations de chercheurs a été adressée au Conseil Constitutionnel pour s’émouvoir des craintes d’entraves pour « les recherches sur le fonctionnement, les activités et les décisions des juridictions administrative et judiciaire[7]. » La décision même du Conseil constitutionnel n°2019-778 DC du 21 mars 2019[8], faisant suite à quatre saisines parlementaires pour effectuer un contrôle a priori de constitutionnalité de cette loi a pu être interprétée quelque peu hâtivement par certains commentateurs[9]comme un blanc-seing délivré aux legaltech pour aller puiser directement dans le gisement des données judiciaires des juridictions en revendiquant par exemple « la consécration par le Conseil constitutionnel du principe de la publicité de la justice ».

Continuer la lecture de « L’open data des décisions de justice : un nouveau mode de publication des décisions »

Les Temps Electriques, ce n’est pas fini !

Pas d’émissions en mai ni juin ? Pas d’inquiétude, l’équipe des Temps Electriques s’est accordée une petite pause, bien méritée, mais vous prépare de nouveaux thèmes pour la rentrée.

Nous vous proposerons une saison 2 pour tenter de continuer à comprendre ensemble quel est déjà l’impact numérique sur le droit et la justice, avec quelques pistes nouvelles de format et de contenu.

Nous tâcherons durant l’été de vous envoyer quelques cartes postales pour que vous ne nous oubliez pas… restez branchés !

L’équipe des Temps Electriques