Chronique de l’émission “Droit et mathématiques”

Droit et mathématiques : les frères ennemis ?

Invité : Jean Lassègue, chercheur au CNRS et co-auteur avec Antoine Garapon de l’ouvrage “Justice Digitale”, paru aux éditions des PUF

Questionner le rapport fondamental entre le droit et les mathématiques pourrait paraître surprenant (je ne dis pas dépassé) dans une émission dédiée au numérique.

Pourtant, les développements depuis 2010 d’une marque commerciale « intelligence artificielle » (ou IA) a réactivé l’utilisation massive du formalisme mathématique, plus précisément des statistiques, pour traiter des masses considérables de données avec des prétentions bien connues : modéliser des comportements, des actions non seulement afin de les automatiser (les reproduire) mais peut-être même les anticiper. C’est bien là le cœur des algorithmes d’apprentissage dits de machine learning, derrière lesquels il n’y a aucune magie autre que la construction automatique de modèles mathématiques en découvrant les liens (corrélations) cachés dans la masse des données qu’on leur fait ingurgiter.

Cet émerveillement (cette sidération même) qui a saisi l’humanité entière en voyant AlphaGo, une IA spécialisée au jeu de go, plier en deux temps trois mouvements le meilleur joueur humain (puis d’ailleurs se battre elle-même, dans une sorte d’extraordinaire mise en abyme), a conduit à un grand trouble. Un grand malentendu même.

De manière assez opportune, l’industrie numérique a réanimé des qualifications anthropomorphiques pour désigner ce traitement massif de données statistiques (intelligence, neurone, apprentissage) et, peut-être, éviter de convoquer les décennies de débat sur les apports des sciences dures. Or, comme le dit Pablo Jensen dans son livre « Pourquoi la société ne se laisse pas mettre en équation ? », il y a des faits têtus dans les sciences naturelles que l’on ne peut ne balayer d’un revers de main, mais quand l’on arrive à traiter de phénomènes sociaux, il est bien plus difficile de trouver des relations stables.

La systématisation de l’application de l’IA dans tous les champs de l’activité humaine relève donc clairement du solutionnisme, dénoncé par Evgeny Morozov dans « Pour tout résoudre, cliquez ici ».

Peut-être faut-il donc revenir aux bases, qualifier ce que l’on voit avec des mots précis et identifier ce que l’histoire nous appris.

Sans s’égarer dans le temps avec notre DeLorean de Retour vers le futur (oui la production d’Amicus Radio dispose d’un budget démentiel), remontons un instant au XVIIIème siècle : le marquis de Condorcet, influencé par les savants de l’Italie du Nord comme Beccaria qui tentent de formaliser le réel, écrit des premiers essais sur les mathématiques sociales  et, déjà, sur la jurisprudence dans un texte inachevé « sur les lois criminelles en France ». Avançons brièvement vers Adolphe Quételet au XIXème siècle cette fois-ci : docteur en mathématiques, il a développé pour sa part la « physique sociale », érigeant l’homme moyen comme valeur centrale. Un brin effrayant peut-être… Auguste Comte réagira à ces idées et développera ce qui allait devenir la sociologie… 

Quels enseignements tirer de cela ? Est-ce qu’il n’y aurait finalement pas une forme de totalitarisme à faire rentrer les humains dans des cases logiques ? L’irrationnel comportement (apparent) de l’humain et ses contradictions ne sont-elles pas mieux régulées par le droit, et sa texture ouverte, que des règles logiques ? 

Jean Lassègue et Antoine Garapon ont traité de la révolution que nous sommes en train de vivre sous l’angle d’une révolution graphique, d’une nouvelle forme d’écriture qui s’imposerait à nous… écriture purement mathématique. 


Ecoutez l’entretien avec Jean Lassègue, chercheur au CNRS et co-auteur avec Antoine Garapon de l’ouvrage “Justice Digitale”, paru aux éditions des PUF

Chronique de l’émission “Intelligence artificielle et procès pénal”

Intelligence artificielle et procès pénal : l’illusion d’un destin ?

Invitée : Clementina Barbaro, chef d’unité au Conseil de l’Europe

Comme les bains de photographie argentique parviennent à révéler l’imperceptible d’une prise de vue, l’intelligence artificielle (IA) nous promet de dévoiler, par le formalisme mathématique et statistique, de l’information dans le canevas des données que nous produisons de plus en plus massivement.

Appliqué au champ de la justice pénale, plusieurs réalisations, déjà fonctionnelles aux Etats-Unis, visent à prévenir la commission d’infractions, notamment par des sortes de cartographies « prédictives », ou à évaluer les risques de réitération d’un individu.

La ville de Santa Cruz a été la première à se doter, en juillet 2011, d’un outil baptisé PredPol (pour predictive policing), qui vise à prédire où et quand un crime va se produire. Il n’y a aucun « precog » derrière tout cela, comme dans le film Minority Report, mais une base de données recensant les infractions passées et la formule magique de notre ère de l’IA : des modèles mathématiques et statistiques – secrets – qui projettent du passé un possible avenir. De telles solutions sont déjà testés dans de nombreux pays européens.

Nous pourrions prendre aussi l’exemple de l’algorithme COMPAS  qui est utilisé de manière effective dans certains États américains afin d’évaluer la dangerosité des individus en vue de leur éventuel placement en détention provisoire ou lors du prononcé d’une condamnation pénale. Cet algorithme n’a rien de fantaisiste : il s’appuie sur des études académiques en criminologie et en sociologie, sur différents modèles statistiques et le traitement d’un questionnaire de 137 entrées, relatif à la personne concernée et à son passé judiciaire sans aucune référence à son origine ethnique. Le système fournit ensuite au juge différents « scores » à un horizon de deux années : risque de récidive, risque de comportement violent et risque de non-comparution pour les situations de placement en détention provisoire.

Toutefois, en mai 2016, les journalistes de l’ONG ProPublica ont analysé l’efficacité des « prédictions » de  COMPAS sur une population de près de 10 000 individus arrêtés dans le comté de Broward (Floride) entre 2013 et 2014. Cette étude a révélé non seulement un taux relativement faible de « prédictions » justes (61%) mais, en procédant à l’analyse approfondie des « faux positifs », elle a par ailleurs établi que les populations afro-américaines étaient pondérées d’un plus fort risque de récidive que les populations blanches. Inversement, les populations blanches ayant effectivement récidivées avaient été deux fois plus classifiées comme étant en risque faible que les populations afro-américaines. 

En d’autres termes, sans inclure l’ethnie des individus ou avoir été spécifiquement conçu pour traiter cette caractéristique, le croisement des données (dont le lieu de résidence) a indirectement surpondéré cet aspect au détriment d’autres facteurs sociaux individuels (éducation, emploi, parcours familial) et a conduit à influencer les juges avec des indicateurs proprement discriminatoires.

Cette perspective, effrayante, est-elle une réalité fonctionnelle ou juste des épiphénomènes, un peu gonflé par la presse ?

Profitons de l’expertise de Clementina Barbaro, qui est chef d’unité au Conseil de l’Europe. Elle a notamment animé les derniers travaux de la CEPEJ sur l’IA dans les systèmes judiciaires et elle intervenue notamment au Sénat, en juin 2018, et dans plusieurs forums européens sur la question !


Ecoutez l’entretien avec Clementina Barbaro, chef d’unité au Conseil de l’Europe