DataJust face aux limites structurelles de l’intelligence artificielle

Crédits : Tom Gauld pour The Economist

En plein confinement, le décret n° 2020-356 du 27 mars 2020 est venu créer un nouveau traitement automatisé de données à caractère personnel dénommé « DataJust », placé sous l’autorité du ministère de la justice, qui vise à améliorer la prévisibilité en matière de réparation du préjudice corporel. Si le texte s’inscrit dans le cadre de la réforme annoncée de la responsabilité civile et d’un programme général de réforme pour rendre la justice plus prévisible, ni avocats, ni magistrats ne semblaient avoir vu venir sa publication. Les analyses n’ont pas manqué pour dénoncer divers maux, comme la robotisation de la justice, mais très peu ont relevé la difficulté qui est pourtant la plus substantielle : les barrières technologiques de ces algorithmes dits d’intelligence artificielle pour restituer les résultats attendus. 

Remplacement du juge par des robots et atteinte à l’indépendance de la justice, déshumanisation, mise à mal du principe d’individualisation, voici quelques-unes des critiques qui ont été adressées au nouveau traitement informatique « DataJust » lancé, avec un assez mauvais sens du « timing », en pleine crise sanitaire[1]. Le ministère de la justice présente pourtant ce nouvel instrument comme une toute nouvelle garantie d’un traitement harmonieux des décisions en matière de réparation du préjudice corporel et la possibilité, pour les justiciables, d’obtenir une information de meilleure qualité quant au montant d’indemnisation prévisionnel. Rappelons que les juges, judiciaires et administratifs, connaissent de ce contentieux opposant les victimes de dommages à des organismes payeurs (assurances ou sécurité sociale par exemple). Les juges fixent dans ce cadre le montant des indemnités ayant pour objet de compenser les préjudices subis selon le principe de réparation intégrale, dans les limites des prétentions des demandeurs. Les magistrats exercent à cette occasion leur entier pouvoir d’interprétation ce qui, du point de vue des justiciables, est la garantie d’un examen équitable et spécifique pour chaque cas d’espèce. Du point de vu des organismes payeurs, il s’agit en revanche d’un aléa qu’il convient d’anticiper.

Continuer la lecture de « DataJust face aux limites structurelles de l’intelligence artificielle »

Applications de “proximity tracing” : la France s’y engage, l’Australie prise de doutes

Alors que l’application StopCovid était présentée au Parlement en France le 27 mai 2020, les discussions sur sa pertinence et ses modalités de fonctionnement se sont progressivement raidies . Le député Eric Bothorel affirme ainsi que « s’opposer par principe à cet outil est un crime contre le reste de l’humanité[1] ». A l’occasion d’une tribune publiée dans le journal « Le Monde », deux chercheurs de l’Inria estiment difficilement justifiables les « oppositions de principe » à StopCovid[2]. D’une manière moins directe, le député Damien Pichereau avait même avancé l’idée d’une « récompense » pour les utilisateurs de l’application, allégeant la restriction de déplacement kilométrique de 100 kilomètres encore en place en phase 1 du déconfinement, avant d’être très rapidement écartée par le secrétaire d’Etat au numérique, Cédric O[3]. Le secrétaire d’Etat conclue pour sa part de manière plus volontariste « [qu’]il y a eu beaucoup de questions légitimes, mais plus nous donnons d’explications, plus les réticences diminuent[4] », en dramatisant le débat devant le Parlement: « refuser StopCovid c’est accepter les morts supplémentaires ».

Continuer la lecture de « Applications de “proximity tracing” : la France s’y engage, l’Australie prise de doutes »