DataJust face aux limites structurelles de l’intelligence artificielle

Crédits : Tom Gauld pour The Economist

En plein confinement, le décret n° 2020-356 du 27 mars 2020 est venu créer un nouveau traitement automatisé de données à caractère personnel dénommé « DataJust », placé sous l’autorité du ministère de la justice, qui vise à améliorer la prévisibilité en matière de réparation du préjudice corporel. Si le texte s’inscrit dans le cadre de la réforme annoncée de la responsabilité civile et d’un programme général de réforme pour rendre la justice plus prévisible, ni avocats, ni magistrats ne semblaient avoir vu venir sa publication. Les analyses n’ont pas manqué pour dénoncer divers maux, comme la robotisation de la justice, mais très peu ont relevé la difficulté qui est pourtant la plus substantielle : les barrières technologiques de ces algorithmes dits d’intelligence artificielle pour restituer les résultats attendus. 

Remplacement du juge par des robots et atteinte à l’indépendance de la justice, déshumanisation, mise à mal du principe d’individualisation, voici quelques-unes des critiques qui ont été adressées au nouveau traitement informatique « DataJust » lancé, avec un assez mauvais sens du « timing », en pleine crise sanitaire[1]. Le ministère de la justice présente pourtant ce nouvel instrument comme une toute nouvelle garantie d’un traitement harmonieux des décisions en matière de réparation du préjudice corporel et la possibilité, pour les justiciables, d’obtenir une information de meilleure qualité quant au montant d’indemnisation prévisionnel. Rappelons que les juges, judiciaires et administratifs, connaissent de ce contentieux opposant les victimes de dommages à des organismes payeurs (assurances ou sécurité sociale par exemple). Les juges fixent dans ce cadre le montant des indemnités ayant pour objet de compenser les préjudices subis selon le principe de réparation intégrale, dans les limites des prétentions des demandeurs. Les magistrats exercent à cette occasion leur entier pouvoir d’interprétation ce qui, du point de vue des justiciables, est la garantie d’un examen équitable et spécifique pour chaque cas d’espèce. Du point de vu des organismes payeurs, il s’agit en revanche d’un aléa qu’il convient d’anticiper.

Continuer la lecture de « DataJust face aux limites structurelles de l’intelligence artificielle »

Applications de “proximity tracing” : la France s’y engage, l’Australie prise de doutes

Alors que l’application StopCovid était présentée au Parlement en France le 27 mai 2020, les discussions sur sa pertinence et ses modalités de fonctionnement se sont progressivement raidies . Le député Eric Bothorel affirme ainsi que « s’opposer par principe à cet outil est un crime contre le reste de l’humanité[1] ». A l’occasion d’une tribune publiée dans le journal « Le Monde », deux chercheurs de l’Inria estiment difficilement justifiables les « oppositions de principe » à StopCovid[2]. D’une manière moins directe, le député Damien Pichereau avait même avancé l’idée d’une « récompense » pour les utilisateurs de l’application, allégeant la restriction de déplacement kilométrique de 100 kilomètres encore en place en phase 1 du déconfinement, avant d’être très rapidement écartée par le secrétaire d’Etat au numérique, Cédric O[3]. Le secrétaire d’Etat conclue pour sa part de manière plus volontariste « [qu’]il y a eu beaucoup de questions légitimes, mais plus nous donnons d’explications, plus les réticences diminuent[4] », en dramatisant le débat devant le Parlement: « refuser StopCovid c’est accepter les morts supplémentaires ».

Continuer la lecture de « Applications de “proximity tracing” : la France s’y engage, l’Australie prise de doutes »

Parution de “L’intelligence artificielle en procès”

L’intelligence artificielle en procès
Plaidoyer pour une réglementation internationale et européenne
Préface d’Antoine Garapon, postface de Jan Kleijssen
Collection Macro droit – Micro droit,
Editions Bruylant

A entendre certains chercheurs, médias ou décideurs publics, l’intelligence artificielle serait la technologie de rupture de notre siècle. Un examen minutieux, de ce qui reste avant tout de l’informatique, permet toutefois de dépasser aisément la narration forgée par les discours commerciaux et de distinguer les réels enjeux : une technologie encore fragile, dont l’application pose des problèmes politiques et de gouvernance. Une réponse juridique est donc, plus que jamais, nécessaire afin d’envisager des usages à même de garantir le respect des droits de l’homme et de soutenir la démocratie et l’Etat de droit.

Continuer la lecture de « Parution de “L’intelligence artificielle en procès” »

L’éthique, insuffisante à réguler seule les technologies numériques et l’intelligence artificielle

Bibliographie de l’ouvrage “L’intelligence artificielle en procès”

Après le très fort engouement, pour ne pas dire l’emballement, autour des algorithmes d’apprentissage automatique (machine learning) au début des années 2010, il est assez vite apparu un besoin d’encadrer, voire de limiter certains des développements. Bien au-delà de la narration forgée par les communicants de l’industrie numérique d’une « intelligence artificielle » (IA) aux capacités de « disrupter » positivement notre siècle, l’emploi de ces algorithmes s’est révélé bien délicat, avec des effets de bords consubstantiels à leur cœur de fonctionnement statistique : confusions entre corrélation et causalité, biais liés à la qualité des données employées, discriminations sont quelques-uns des maux aujourd’hui bien identifiés

Continuer la lecture de « L’éthique, insuffisante à réguler seule les technologies numériques et l’intelligence artificielle »

Expliquer l’emballement des applications de pistage : de l’émergence d’un « Etat des algorithmes »

Bibliographie de l’ouvrage “L’intelligence artificielle en procès”

Si l’on devait dégager certains des traits les plus saillants en ce qui concerne l’emploi des technologies en ces temps de crise sanitaire, l’approximation évidente avec laquelle certaines applications sont entrées dans le débat public aurait une place de choix. Ainsi, les applications de pistage[1] de proximité (proximity tracing) ont fait l’objet d’intenses débats sur les risques qu’elles font porter sur la vie privée et sur les garanties dont elles devaient être assorties alors même que des barrières technologiques très substantielles, identifiées par de nombreux experts, ont mis très tôt en cause la viabilité même de ces dispositifs.

Continuer la lecture de « Expliquer l’emballement des applications de pistage : de l’émergence d’un « Etat des algorithmes » »

Applications « Covid-19 » : où en sommes-nous ?

Alors que le recours à des applications numériques pour contribuer aux politiques publiques sanitaires est sur le point de devenir une réalité en Europe, quelles sont les cas d’usages précis de par le monde ? Parce qu’un graphique vaut mieux que des longs développements, consultez cette “dataviz” !

Continuer la lecture de « Applications « Covid-19 » : où en sommes-nous ? »

« Contact tracing » : Des « hacks » pour protéger la vie privée mais des barrières technologiques encore tenaces

Dans l’arsenal de la lutte contre le Covid-19, l’idée de tirer bénéfice du fort maillage des téléphones mobiles est apparue. Des applications promettent de faciliter la recomposition des chaînes de transmission et de ralentir la pandémie. Ces applications ont suscité un assez fort débat sur la protection des données. Mais, avant même tout débat sur cette question, ces applications soulèvent surtout la simple question de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ? Sur quelles bases sont conçus les modèles statistiques censés minimiser les faux positifs ? Toute la population ne pourra pas (ou ne voudra pas) être tracée ? Autant de points qui conduisent à se demander si le coût de cette ambition dans de nombreux pays européens (coût du déploiement, coût des mesures d’accompagnement, brèches potentielles des droits) est proportionné aux résultats à en espérer.

Continuer la lecture de « « Contact tracing » : Des « hacks » pour protéger la vie privée mais des barrières technologiques encore tenaces »

L’étrange ambition des applications de “contact tracing”​

Mise à jour du 23 avril 2020

Dans l’arsenal de la lutte contre le Covid-19, des applications sur téléphone mobile sont apparues avec la promesse de faciliter la recomposition des chaînes de transmission et d’accompagner le déconfinement. Autant qu’un débat sur la protection des données, ces applications soulèvent surtout la question bien plus basique de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ?

Toutes les crises majeures de notre civilisation ont conduit nos sociétés à s’adapter, particulièrement pendant les révolutions, les guerres et les crises sanitaires. La statistique, ainsi, se déploiera en véritable outil de politique publique pour lutter contre le choléra ou encore la variole. D’Alembert et Diderot s’opposeront sur le bénéfice d’une vaccination de masse de la population, le premier estimant que le choix devait être laissé aux individus  et qu’ils pouvaient ainsi refuser de se voir inoculer une forme atténuée de la maladie pour développer une immunité. Daniel Bernoulli, en affirmant par une approche statistique que le risque mortel de la vaccination était d’un cas sur 200, allait trancher le débat, faire prévaloir le collectif sur l’individuel et emporter la décision publique.

Continuer la lecture de « L’étrange ambition des applications de “contact tracing”​ »