« Contact tracing » : Des « hacks » pour protéger la vie privée mais des barrières technologiques encore tenaces

Dans l’arsenal de la lutte contre le Covid-19, l’idée de tirer bénéfice du fort maillage des téléphones mobiles est apparue. Des applications promettent de faciliter la recomposition des chaînes de transmission et de ralentir la pandémie. Ces applications ont suscité un assez fort débat sur la protection des données. Mais, avant même tout débat sur cette question, ces applications soulèvent surtout la simple question de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ? Sur quelles bases sont conçus les modèles statistiques censés minimiser les faux positifs ? Toute la population ne pourra pas (ou ne voudra pas) être tracée ? Autant de points qui conduisent à se demander si le coût de cette ambition dans de nombreux pays européens (coût du déploiement, coût des mesures d’accompagnement, brèches potentielles des droits) est proportionné aux résultats à en espérer.

Continuer la lecture de « « Contact tracing » : Des « hacks » pour protéger la vie privée mais des barrières technologiques encore tenaces »

L’étrange ambition des applications de « contact tracing »​

Mise à jour du 23 avril 2020

Dans l’arsenal de la lutte contre le Covid-19, des applications sur téléphone mobile sont apparues avec la promesse de faciliter la recomposition des chaînes de transmission et d’accompagner le déconfinement. Autant qu’un débat sur la protection des données, ces applications soulèvent surtout la question bien plus basique de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ?

Toutes les crises majeures de notre civilisation ont conduit nos sociétés à s’adapter, particulièrement pendant les révolutions, les guerres et les crises sanitaires. La statistique, ainsi, se déploiera en véritable outil de politique publique pour lutter contre le choléra ou encore la variole. D’Alembert et Diderot s’opposeront sur le bénéfice d’une vaccination de masse de la population, le premier estimant que le choix devait être laissé aux individus  et qu’ils pouvaient ainsi refuser de se voir inoculer une forme atténuée de la maladie pour développer une immunité. Daniel Bernoulli, en affirmant par une approche statistique que le risque mortel de la vaccination était d’un cas sur 200, allait trancher le débat, faire prévaloir le collectif sur l’individuel et emporter la décision publique.

Continuer la lecture de « L’étrange ambition des applications de « contact tracing »​ »

L’IA convoquée pour lutter contre le coronavirus Covid-19

Crédits: NIH/Flickr

Article mis à jour le 10 avril 2020

Il n’aura pas fallu attendre longtemps pour que l’intelligence artificielle (IA) soit invitée à venir porter appui à la lutte contre la pandémie virale touchant le monde entier depuis le début de l’année 2020. La presse et les bloggers se font écho des grands espoirs reposant sur la science des données et l’IA pour affronter le coronavirus (D. Yakobovitch, How to fight the Coronavirus with AI and Data Science, Medium, 15 février 2020) et « remplir les vides » encore laissés par science (G. Ratnam, Can AI Fill in the Blanks About Coronavirus? Experts Think So, Government Technology, 17 mars 2020).

Il est toutefois surprenant que la Chine, premier épicentre de cette maladie et réputée pour son avancée technologique en la matière, ne paraisse pas avoir pu en tirer un avantage déterminant. Ses usages le plus efficaces semblent avoir plus concerné le contrôle des populations et les prévisions d’évolution des foyers de la maladie que la recherche pour l’élaboration d’un vaccin ou d’un traitement. Il y a bien sûr eu des applications de l’IA pour accélérer le séquençage du génome, effectuer des diagnostics plus rapides, réaliser des analyses par scanner ou plus ponctuellement recourir à des robots de maintenance et de livraison (A. Chun, In a time of coronavirus, China’s investment in AI is paying off in a big way, South China Morning post, 18 mars 2020), mais nous sommes loin des discours d’avant la crise où certains techno-évangélistes pensaient que cette technologie nous protègerait de tels événements planétaires. 

Continuer la lecture de « L’IA convoquée pour lutter contre le coronavirus Covid-19 »

L’open data des décisions de justice : un nouveau mode de publication des décisions

La définition de la signification et de la portée de l’open data des décisions de justice semble encore devoir être clarifiée, même si deux régimes distincts se dégagent de la loi de programmation et de réforme de la justice sur la base d’un critère de fréquence. Ajouter la finalité de la demande pour affiner cette clé de distinction permettrait d’écarter l’instrumentalisation de la publicité aux fins de constituer des fonds jurisprudentiels, action qui relève… de la notion de publication des décisions.

Dans le prolongement de la loi du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice[1]qui limite dans certaines hypothèses la mise à disposition électronique des décisions de justice avec le nom des magistrats, une étude de l’IFOP de juin 2019 révèlerait que 87 % des avocats seraient opposés à l’anonymisation des décisions de justice, notamment chez les 60 ans et plus (94%), ceux qui exercent en individuel (92%), les indépendants (92%) et les avocats travaillant dans le droit pénal (94%)[2]. Vu de l’étranger[3], même incompréhension de ces nouvelles dispositions, où les peines de 5 ans d’emprisonnement et 300 000 euros d’amende[4]encourues par toute personne opérant au « profilage » de juges[5], sont perçues comme « unique au monde » et à contrecourant d’un large mouvement de transparence de la vie publique, traduites par les politiques d’open data[6]. En France, une lettre co-signée par des associations de chercheurs a été adressée au Conseil Constitutionnel pour s’émouvoir des craintes d’entraves pour « les recherches sur le fonctionnement, les activités et les décisions des juridictions administrative et judiciaire[7]. » La décision même du Conseil constitutionnel n°2019-778 DC du 21 mars 2019[8], faisant suite à quatre saisines parlementaires pour effectuer un contrôle a priori de constitutionnalité de cette loi a pu être interprétée quelque peu hâtivement par certains commentateurs[9]comme un blanc-seing délivré aux legaltech pour aller puiser directement dans le gisement des données judiciaires des juridictions en revendiquant par exemple « la consécration par le Conseil constitutionnel du principe de la publicité de la justice ».

Continuer la lecture de « L’open data des décisions de justice : un nouveau mode de publication des décisions »

Les Temps Electriques, ce n’est pas fini !

Pas d’émissions en mai ni juin ? Pas d’inquiétude, l’équipe des Temps Electriques s’est accordée une petite pause, bien méritée, mais vous prépare de nouveaux thèmes pour la rentrée.

Nous vous proposerons une saison 2 pour tenter de continuer à comprendre ensemble quel est déjà l’impact numérique sur le droit et la justice, avec quelques pistes nouvelles de format et de contenu.

Nous tâcherons durant l’été de vous envoyer quelques cartes postales pour que vous ne nous oubliez pas… restez branchés !

L’équipe des Temps Electriques

2019, année de l’âge de raison pour l’intelligence artificielle ?

Le Comité des ministres du Conseil de l’Europe, organe exécutif de l’organisation internationale regroupant 47 États du continent européen, a adopté le 13 février 2019 une Déclaration dense, mais explicite, sur « les capacités de manipulation des processus algorithmiques »[1].

C’est la première fois qu’une organisation avec une telle autorité morale se positionne aussi explicitement sur les conséquences de la transformation numérique de notre société en soulignant « Les niveaux très subtils, subconscients et personnalisés de la persuasion algorithmique [qui] peuvent avoir des effets significatifs sur l’autonomie cognitive des citoyens et leur droit à se forger une opinion et à prendre des décisions indépendantes. »

Continuer la lecture de « 2019, année de l’âge de raison pour l’intelligence artificielle ? »

Pour en finir avec les fantasmes de l’open data des décisions de justice

[Mise à jour du 23 novembre 2019 : Un amendement a été adopté. Déposé par Paula Forteza (TA AN n° 1396, 2018-2019, amendement n° 1425), il porte sur la réutilisation du nom des magistrats placés en open data et sanctionne certaines finalités de poursuite pénale : « Les données d’identité des magistrats et des fonctionnaires de greffe ne peuvent faire l’objet d’une réutilisation ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues par les articles 226‑18, 226‑24 et 226‑31 du Code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78‑17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés ». Le billet ci-dessous, du 9 novembre 2018, ne tenait pas compte de cette évolution. Il demeure encore des points à éclaircir : adresse postale, régime du nom des avocats et autres professions ayant concouru à la décision.

Continuer la lecture de « Pour en finir avec les fantasmes de l’open data des décisions de justice »

IA et droits de l’homme

Le Conseil de l’Europe vient d’ouvrir le premier portail européen portant sur l’intelligence artificielle (IA) et ses implications en ce qui concerne les droits de l’homme, la démocratie et l’Etat de droit.

Ce site recense tous les travaux actuellement en cours au sein de l’organisation internationale, dans ses différents comités, commissions et organes. Il propose de plus des articles de vulgarisation visant à contribuer une meilleure connaissance du phénomène et de ne céder ni à un alarmisme excessif, ni au solutionnisme qui habite encore de trop nombreux discours. 

Ce portail aura également vocation à communiquer sur la partie de l’agenda stratégique du Conseil de l’Europe à l’horizon 2028 portant sur l’IA.

Le Conseil de l’Europe invite également tous les acteurs de l’IA (secteur privé, secteur public, recherche) à utiliser le hashtag #CoE4AI pour signaler leurs initiatives de développement de solutions nativement conçues pour se mettre en conformité avec les valeurs défendues par l’institution.