Chronique de l’émission “Intelligence artificielle et procès pénal”

Intelligence artificielle et procès pénal : l’illusion d’un destin ?

Invitée : Clementina Barbaro, chef d’unité au Conseil de l’Europe

Comme les bains de photographie argentique parviennent à révéler l’imperceptible d’une prise de vue, l’intelligence artificielle (IA) nous promet de dévoiler, par le formalisme mathématique et statistique, de l’information dans le canevas des données que nous produisons de plus en plus massivement.

Appliqué au champ de la justice pénale, plusieurs réalisations, déjà fonctionnelles aux Etats-Unis, visent à prévenir la commission d’infractions, notamment par des sortes de cartographies « prédictives », ou à évaluer les risques de réitération d’un individu.

La ville de Santa Cruz a été la première à se doter, en juillet 2011, d’un outil baptisé PredPol (pour predictive policing), qui vise à prédire où et quand un crime va se produire. Il n’y a aucun « precog » derrière tout cela, comme dans le film Minority Report, mais une base de données recensant les infractions passées et la formule magique de notre ère de l’IA : des modèles mathématiques et statistiques – secrets – qui projettent du passé un possible avenir. De telles solutions sont déjà testés dans de nombreux pays européens.

Nous pourrions prendre aussi l’exemple de l’algorithme COMPAS  qui est utilisé de manière effective dans certains États américains afin d’évaluer la dangerosité des individus en vue de leur éventuel placement en détention provisoire ou lors du prononcé d’une condamnation pénale. Cet algorithme n’a rien de fantaisiste : il s’appuie sur des études académiques en criminologie et en sociologie, sur différents modèles statistiques et le traitement d’un questionnaire de 137 entrées, relatif à la personne concernée et à son passé judiciaire sans aucune référence à son origine ethnique. Le système fournit ensuite au juge différents « scores » à un horizon de deux années : risque de récidive, risque de comportement violent et risque de non-comparution pour les situations de placement en détention provisoire.

Toutefois, en mai 2016, les journalistes de l’ONG ProPublica ont analysé l’efficacité des « prédictions » de  COMPAS sur une population de près de 10 000 individus arrêtés dans le comté de Broward (Floride) entre 2013 et 2014. Cette étude a révélé non seulement un taux relativement faible de « prédictions » justes (61%) mais, en procédant à l’analyse approfondie des « faux positifs », elle a par ailleurs établi que les populations afro-américaines étaient pondérées d’un plus fort risque de récidive que les populations blanches. Inversement, les populations blanches ayant effectivement récidivées avaient été deux fois plus classifiées comme étant en risque faible que les populations afro-américaines. 

En d’autres termes, sans inclure l’ethnie des individus ou avoir été spécifiquement conçu pour traiter cette caractéristique, le croisement des données (dont le lieu de résidence) a indirectement surpondéré cet aspect au détriment d’autres facteurs sociaux individuels (éducation, emploi, parcours familial) et a conduit à influencer les juges avec des indicateurs proprement discriminatoires.

Cette perspective, effrayante, est-elle une réalité fonctionnelle ou juste des épiphénomènes, un peu gonflé par la presse ?

Profitons de l’expertise de Clementina Barbaro, qui est chef d’unité au Conseil de l’Europe. Elle a notamment animé les derniers travaux de la CEPEJ sur l’IA dans les systèmes judiciaires et elle intervenue notamment au Sénat, en juin 2018, et dans plusieurs forums européens sur la question !


Ecoutez l’entretien avec Clementina Barbaro, chef d’unité au Conseil de l’Europe

Chronique de l’émission “Intelligence artificielle et intelligence naturelle”

Intelligence artificielle et intelligence naturelle

Invitée : Daniela Piana, professeure de sciences politiques à l’Université de Bologne

Je ne sais pas pour vous, mais cette année j’ai eu l’impression que le sujet de l’intelligence artificielle (l’IA pour les intimes) était à peu près partout. Comme si accoler ces mots à n’importe quel thème était en mesure de le colorer d’une teinte indélébile de modernité. 

Il faut dire que les promesses sont grandes et que la littérature de science-fiction nous a déjà bien acculturé à l’idée que nous sommes sur le point de concevoir des systèmes computationnels aux capacités égalant, surpassant même leurs concepteurs. Or, comme toujours, ce n’est pas du monstre à la Frankenstein dont il faut se méfier, mais plutôt de leurs concepteurs.

L’IA tout d’abord paraît être devenue une réelle marque commerciale. C’est bien là le génie du marketing que de faire rêver : parler d’algorithmes en capacité de produire de représentations statistiques d’un environnement donné n’est en fait pas très sexy (et je vous ai certainement déjà perdu en l’énonçant). Parler d’« apprentissage » le devient plus : en cédant déjà à un tout petit peu d’anthropomorphisme, l’attention s’arrête. On se dirait ainsi que le « machine learning » (apprentissage automatique) singerait les modes d’apprentissage humain : que nenni ! C’est de la corrélation sur des jeux massifs de données ! Et Yann LeCun, célèbre pionnier de l’apprentissage profond (deep learning) nous dit bien que les « neurones formels » de ses machines sont aussi proches d’un neurone biologique que l’aile d’un oiseau est proche d’une aile d’avion.

Et il convient donc d’arriver à rendre objectif ce que peuvent réaliser les mathématiques et les statistiques. Dans des environnements dits « fermés » (comme le jeu de go) les possibilités arrivent à surpasser l’humain : en revanche, comme le souligne Pablo Jensen dans son livre « Pourquoi ne peut-on pas mettre la société en équation », il est beaucoup plus difficile de trouver des relations stables dans les phénomènes sociaux.

Une fois cette clé de compréhension acquise, comment comprendre la fascination exercée par l’IA. Ce ne sont pas les médias qui vont nous y aider et ils continuent même d’une certaine manière à entretenir le trouble : à titre d’exemple l’on pourrait citer un point hebdomadaire sur France Info qui relate les derniers développements de cette technologie. Il y a quelques semaines, le présentateur évoquait de manière accrocheuse que les IA parvenaient maintenant à « détecter les mensonges » dans les plaintes adressées aux policiers à 80%. Assez rapidement, l’annonce s’est dégonflée puisqu’en fait de détection de mensonge, il s’agit de probabilités sur un récit écrit qui réaliserait notamment une corrélation entre des faits trop précisément décrits et des propos mensongers. Cet outil ne serait en réalité déployé qu’à une échelle de test dans une unité de police en Espagne et le discours relayé réunit les arguments commerciaux de la société privée ayant conçu le produit. Et passons sur l’exemple suivant donné par ce journaliste, de garde-frontière dans des aéroports hongrois et lettons, qui repérerait les visages de menteurs.

Dans ce grand n’importe quoi mélangeant corrélation et causalité, probabilité et vérité, il y a un besoin urgent de clarification. L’intelligence artificielle ne serait en réalité qu’un extraordinaire concept marketing labellisé par John Mc Carthy dans les années 50, très éloigné d’une intelligence naturelle.

Max Headroom

La musique d’Art of Noise que vous entendez mettait en scène le premier présentateur conçu en animation en 3D dans le milieu des années 80. Il était baptisé Max Headroom, et, bien que synthétique, il était en réalité animé par les mouvements du visage de l’acteur Matt Frewer.

L’autonomie de ce personnage synthétique n’était donc qu’une illusion… Daniela Piana, vous allez nous aider à y voir plus clair de ce qui distingue cette intelligence dite « artificielle » de ce que vous qualifiez d’ « intelligence naturelle ». Particulièrement si ces assemblages d’algorithmes sont en mesure de mettre au défi les professions du droit, tels que les avocats ou les magistrats.


Ecoutez l’entretien avec Daniela Piana, professeure de sciences politiques à l’Université de Bologne

Chronique de l’émission “Des données réellement à l’abri ?”

Des données réellement à l’abri ?

Invitée : Sophie Kwasny, chef de l’unité de protection des données du Conseil de l’Europe

Et si l’on croisait tout ou partie des fichiers administratifs français pour assurer une meilleure efficacité ? Cette idée (un brin totalitaire) n’est pas contemporaine mais date de 1973 avec un projet, sobrement intitulé par le ministère de l’Intérieur à l’époque SAFARI.

Révélé en 1974 par un article du Monde, ce « système informatisé pour les fichiers administratifs et le répertoire des individus » planifiait d’interconnecter tous les fichiers en s’appuyant sur un identifiant unique déjà existant pour tous : le numéro INSEE, utilisé notamment pour nous identifier à la sécurité sociale.

Loin de susciter une liesse populaire, ce fichage systématique de la population a naturellement provoqué une immense polémique, car tout cela renvoyait à des heures sombres de notre histoire. Visionnaire, la loi informatique et liberté promulguée en 1978 a édicté des principes qui restent contemporains.

Tout le monde connaît maintenant le règlement général de protection des données (RGPD), nouveau cadre européen protecteur des citoyens. Nos boîtes mails ont été noyées de courriers nous signalant la mise en conformité des (très nombreux) détenteurs de nos données personnelles.

Il est en revanche moins connu que ce cadre n’aurait certainement pas vu le jour sans un autre texte, plus méconnu, adopté dès 1981 par le Conseil de l’Europe : la Convention dite « 108 » de protection des personnes à l’égard du traitement automatisé des données à caractère personnel. Ce texte, qui demeure après presque 40 ans le premier instrument juridique international contraignant dans le domaine, a été récemment modernisé : il garantit, évidemment, la protection de la vie privée face aux multiples usages des technologies de l’information tout en facilitant les flux « transfrontières des données ».

Essayons de préciser tout cela avec une invitée de choix : Sophie Kwasny, qui est chef de l’unité « protection des données » du Conseil de l’Europe. Elle a animé les derniers travaux de modernisation et son expertise l’a conduit à recevoir en début 2018 le prix « Michal Serzycki » pour la protection des données en récompense de ses réussites spéciales dans le domaine !


Ecoutez l’entretien avec Sophie Kwasny, chef de l’unité de protection des données du Conseil de l’Europe

Chronique de l’émission “Transhumanisme, seul avenir de l’homme ?”

Transhumanisme, seul avenir de l’homme ?

Invité : Pierre-Jérôme Delage, maître de conférence à l’UFR de Droit et Sciences politiques de Caen, auteur du livre « L’homme augmenté face au droit ».

Vincent Edin, journaliste, affirmait dans un numéro de « Usbek & Rida » qu’avec le transhumanisme et les promesses d’humains immortels, c’était « tout le business model de la transcendance qui était en passe de faire sacrément disrupter ».

Difficile de lui donner tort tant les promesses semblent démiurgiques : remplacer ses organes usés, étendre ses capacités physiques et cognitives avec de nouvelles interfaces seront peut-être un jour à notre portée. Combinez cela avec une connexion globale en temps réel de tous les individus et vous obtenez un monde parfaitement décrit par l’auteur italien Vittorio Catani dans son livre récemment traduit « Le Cinquième Principe » où « celui qui contrôle le logiciel contrôle l’esprit ».

En effet, dans ce livre Vittorio Catani envisageait des conséquences globales à une telle transformation. Dans son monde « La démocratie, ou ce qu’on définissait ainsi, n’apparemment été qu’un étrange phénomène culturel qui a tenu quelques dizaines d’années. » Il continue en décrivant ainsi la lente décomposition de ce modèle de gouvernance : « Je dirais qu’elle a été dépassée par défaut. Comme par le retour à l’ancienne lex mercatoria. En remplaçant la loi par des contrats individuels, la justice par des arbitrages… » De manière moins spéculative, notre invité s’est aussi intéressé aux conséquences très concrètes du transhumanisme…

Et puis faut-il faire la part des choses. L’immortalité restera inatteignable car, comme pour l’intelligence artificielle, le problème n’est pas dans de simples évolutions techniques : il y a une difficulté fondamentale, c’est que nous sommes programmés pour mourir. Vincent Edin citait le psychothérapeute Christophe Fauré dans son article, qui rappelait que « notre société d’hyper-contrôle, de volonté de maîtrise de tous les paramètres du vivant, se berce d’illusions. Si je prévois tout, contrôle tout, anticipe tout je finis par croire que rien ne peut m’arriver. La croyance messianique dans les machines s’inscrit dans ce registre, mais c’est une lourde erreur. La vie c’est l’accident, l’imprévu. »

Ecoutez l’entretien avec Pierre-Jérôme Delage, maître de conférence à l’UFR de Droit et Sciences politiques de Caen, auteur du livre « L’homme augmenté face au droit ».

 

Chronique de l’émission “Réseaux sociaux et professions du droit”

Réseaux sociaux et professions du droit

Invité : Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice.

Plus de deux milliard d’utilisateurs actifs revendiqués par Facebook en 2018 dont 33 millions en France, 330 millions pour Twitter dont 15,6 sur le territoire national, 800 millions pour Instagram dont 16 millions de français : les médias sociaux ont drainés une population de totalement hétérogène et se sont totalement déployés bien au-delà de la population des technophiles… dont le monde des juristes.

Avocats, policiers, gendarmes, magistrats, huissiers, notaires se rencontrent de manière active maintenant depuis plusieurs années, anonymes ou non, et partagent entre eux avec le reste de la « société civile » (dont des journalistes spécialisés en matière judiciaire) sur tout… et rien à la fois.

Car, à n’en pas douter, il y a quelque chose d’extraordinaire dans ce qui s’opère tous les jours dans ce joyeux bazar. Le masque social tombe, évidemment plus pour les anonymes, au profit de l’humain, qui se révèle dans ce qu’il peut y avoir d’anecdotique. Les grands thèmes de débat se révèlent (quel rôle de l’avocat en garde en vue par exemple) dans des échanges cabotins et se croisent avec du banal, du quotidien, qui rappelle que derrière cette mécanique judiciaire il y a surtout des femmes et des hommes, en charge d’une mission extraordinaire, dans son sens étymologique.

Par moment, et toutes proportions gardées, on croirait même s’opérer le même mélange d’idées idéalisé par les francs-maçons. Peu importe l’étiquette sociale, ce qui compte c’est la volonté commune de progrès et le sentiment d’exécuter une mission commune, pour l’intérêt général.

Cette description idéalisée est naturellement immédiatement à confronter aux les limites de l’exercice dont certains ont fait amèrement l’expérience.

La première limite évidente et identifiable est la liberté d’expression qui se confronte aux devoirs de réserve des différentes professions. Peut-on réellement commenter tout et faire part d’un avis bien subjectif sans engager sa profession ? Dans un registre plus trivial, qui oserait déclamer dans un amphithéâtre plein à craquer de centaines de personnes que l’on connaît à peine (voire pas du tout) sa satisfaction d’être enfin vendredi en lâchant un « Thanks God it’s Friday », accompagné d’une animation amusante sur un écran géant. Quel avocat censé, même anonyme, lâcherait une remarque sexiste pour provoquer son monde devant une salle de milliers de personnes ?

Twitter a connu un épisode assez douloureux il y a quelques années de cela avec deux magistrats lors d’une session d’assises, qui ont commenté en direct l’audience… Ces magistrats avaient acquis une bonne réputation dans le sillage d’autres figures comme Maître Eolas, pour leur capacité à humaniser leurs fonctions. Cette action de communication était d’ailleurs plutôt bienfaitrice dans une ambiance où Outreau pesait encore dans la représentation populaire des juges et des procureurs. Mais les commentaires de cette audience, captés par un journaliste dans la salle et bien d’autres leurs milliers d’abonnés, ont révélé ce que l’on peut s’échanger lors des discussions au comptoir du café du Palais… le CSM y a relevé un « manquement aux devoirs de dignité, de discrétion, de réserve et de prudence » et estimait que « l’invocation d’une pratique d’humour sur les réseaux sociaux pour justifier ces message est particulièrement inappropriée s’agissant d’une audience, en l’espèce de la cour d’assises ».

La deuxième limite est la mécanique addictive à l’œuvre avec les réseaux sociaux et participe peut-être à expliciter le dérapage que j’évoquais. Des études auraient démontré que la satisfaction de voir ses contenus « likés », « retweetés » provoquaient de véritables shoots de dopamine. Des chercheurs de l’Université de San Diego pensent commencer à pouvoir affirmer que les réseaux sociaux ont un effet sur le cerveau proche de certaines substances addictives, comme la cigarette. Ofir Turel, professeur en systèmes d’information à l’université de Californie, aurait ainsi prouvé que « l’usage excessif de Facebook est associé à des changements dans le circuit de la récompense ».

C’est un phénomène assez fascinant d’ailleurs que de voir tout le monde rechercher son quart d’heure de célébrité prophétisé par Warhol : chercher le bon mot, le trait d’esprit, pas nécessairement par égotisme mais surtout pris au jeu des échanges et de l’argumentation. Jeu qui s’envenime parfois et où les contrefeux à des remarques maladroites, de l’instant, prennent des proportions qui justifierait le lynchage immédiat de celui qui les aurait tenus. Ce véritable tribunal populaire et permanent est d’ailleurs la source de bien des désamours et de claquages de porte des réseaux sociaux. A l’addiction succède la déception.

Et l’on en vient à la troisième et dernière limite qui touche la communication institutionnelle. Communiquer sur de tels médias est aujourd’hui une profession. On ne peut s’y risquer sans en comprendre les règles spécifiques et les efforts de quelques juridictions à mieux expliquer leur quotidien se sont parfois heurtés à l’intransigeance des premiers occupants des lieux. A un procureur audacieux qui rendait compte de l’activité chargée de son parquet, des esprits – que l’on pourrait qualifier de chagrin – se sont émus de l’effort de promotion de sa capacité répressive. En réalité, ce sont deux mondes qui se rencontraient pour la première fois et le procureur François Molins ne s’y est pas trompé. Il a refusé d’utiliser les réseaux sociaux durant les attentats pour investir une communication institutionnelle plus traditionnelle mais redoutablement efficace et – surtout – adaptée.

Ecoutez l’entretien avec Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice.

 

Chronique de l’émission “L’enquête pénale à l’ère numérique”

L’enquête pénale à l’ère numérique

Invité : David Bénichou, vice-président chargé  du service de l’instruction au tribunal de grande instance de Rennes

Une certaine représentation populaire imagine certainement les enquêteurs équipés d’outils d’investigation extrêmement avancés, d’écrans géants tactiles réalisant des connexions entre toutes les données de l’affaire, dans une lumière savamment travaillé sur fond musical des Who…

La réalité est beaucoup plus… comment dire… rudimentaire et en tous les cas diversifiée. A côté de certains services spécialisés utilisant pour certains aspects, nous le verrons, des applications extrêmement avancées, la masse des enquêtes continue de se dérouler de manière extrêmement classique, à base de croisements et de déductions.

Comment se déroule une enquête pénale du XXIème siècle ? Voilà la question de nous nous poserons – que nous vous poserons David Bénichou.

Pour comprendre l’enquête pénale du XXIème siècle, je vous propose déjà de vous replonger dans l’histoire de l’enquête, et, – permettez-moi cette tentative d’analogie – de procéder tel l’enquêteur à la recherche d’indices pour remonter le fil jusqu’à l’ère « numérique ».

Au 19ème siècle, s’étaient développées officieusement des pratiques d’ « enquête », alors non envisagées par le code d’instruction criminelle de 1808. Enquête « illégale » ou « extralégale », dénoncée pour cela par certains juristes de l’époque, cette forme d’enquête avait malgré tout fini par s’imposer en pratique, en dehors des cas réservés à une autre forme d’enquête dite de flagrance, et s’en différenciait par un esprit de non-coercition à l’égard des personnes concernées. Il fallut pourtant attendre 1959 pour que le code de procédure pénale légalise ces pratiques, intercalant aux articles 75 à 78 du code ce qui sera appelé l’enquête « préliminaire » dans les interstices séparant l’enquête de flagrance et l’instruction judiciaire.

Aujourd’hui, si l’on ouvre le code de procédure pénale, on y trouve toujours inscrit cette distinction entre enquête de flagrance et enquête préliminaire avant que ne soient abordées les investigations dans le cadre de l’instruction.

Mais depuis 1959, l’enquête a continué d’évoluer, au gré des transformations de la criminalité et des réponses procédurales – et politiques – à y apporter. Le délinquant du XXIème siècle n’est plus celui de 1808 ni même du milieu du siècle dernier ! L’enquête pénale du XXIème siècle serait devenue celle de l’ « ère numérique ». Pour autant, il n’est inscrit nulle part dans le code le terme d’enquête « numérique », et en soit, le mot ne revient que très ponctuellement.

Alors à quoi de quoi s’agit-il ? On ne l’entend pas ici au sens premier et « mathématique » du terme, mais davantage le mot renvoie à l’utilisation des technologies de l’information et par extension, « l’ère numérique » à une « culture numérique » que décrivait dans son ouvrage du même nom  Milad Doueihi pour mettre en exergue la transformation de la vision du monde que produit la diffusion des technologies digitales sur leurs utilisateurs.

« Télévision numérique », « photo numérique », « téléphonie numérique »… « Radio numérique » et aujourd’hui, enquête numérique ? Ces transformations concernent effectivement aussi la matière pénale. Délinquants et enquêteurs y sont confrontés, que l’enquête s’opèrent « dans un milieu numérique », soit qu’elle s’effectue avec « des moyens numérique ». Il faut alors distinguer les deux situations.

En effet, l’enquête dans un milieu numérique nécessite des techniques spécifiques pour permettre aux enquêteurs de rechercher les délinquants qui usent, avec stratégie, des « bénéfices » des technologies de l’information et de la communication pour mener à bien leur dessein criminel. Pour autant cela n’implique pas nécessairement de réinventer la procédure qui va avec.

Concernant les outils numériques au service de l’enquête, le changement de paradigme est beaucoup plus profond. Les capacités de traitement de l’informatique ont rendu possible des traitements et des recoupements difficilement accessibles à la cognition humaine. On pense bien sûr en tout premier lieu aux outils d’analyse criminelle utilisées dans l’affaire dite du « petit Grégory » ou encore récemment à l’ordre du jour dans des affaires ayant pu impliquer Nordhal Lelandais.

La physionomie « initiale » de l’enquête a alors progressivement changé, vers un effritement des cadres « classiques » d’enquêtes jusque à aboutir à des règles de procédures finalement dérogatoires liées aux domaines de la délinquance et de la criminalité organisée (parmi lesquels le domaine du trafic de stupéfiants et de la lutte contre le terrorisme). On assiste à la création d’un dispositif légal autorisant une plus grande coercition des moyens d’investigations, et ainsi à une diversification technologique des mesures et outils à la disposition des enquêteurs. Même si certains de ces moyens ne sont réservés qu’à des contentieux spécifiques.

Ecoutez l’entretien avec David Bénichou, vice-président chargé  du service de l’instruction au tribunal de grande instance de Rennes.

 

 

Chronique de l’émission “Blockchain”

Blockchain… mode technologique ou révolution ?

Invitée : Primavera de Filippi, chercheuse au CERSA (unité mixte du CNRS et de l’Université Paris II) et chercheuse associée au Berkman Center for Internet & Society (Université de Harvard)

Il y a parfois dans la vie des concepts qui claquent, qui sonnent bien, fondamentaux même pour notre monde… mais qui sont impossibles à expliquer autour de nous.

Les blockchains entrent assurément dans cette catégorie. Le concept apparaît incompréhensible pour le commun des mortels même si je m’y essaye à toute occasion.  Je commence habituellement en parlant de Bitcoin… là les gens connaissent un peu mais ils s’enferment rapidement dans l’idée que ce n’est qu’une monnaie d’échange dématérialisée et ont du mal à voir d’autres applications concrètes.

Après j’ai une autre astuce pour expliquer que l’on peut faire beaucoup plus de chose avec ce « bazar », terme employé par notre invitée dans sa bio Twitter.

Je prends l’exemple de quelques personnes qui seraient autour d’une table (disons 6), et qui verraient ensemble qu’il y a une feuille de couleur rouge au milieu. Ces personnes seraient ensuite en capacité de témoigner de cela auprès d’autres. Interrogées sur la couleur de la feuille, elles pourraient en témoigner auprès de 6 autres, qui peuvent en parler ensuite chacune à 6 etc. Au final, une communauté entière certifierait de la couleur de la feuille feuille. Et si un petit malin s’amusait à la repeindre en bleu, ou à corrompre 1 maillon de la chaîne, tout le monde pourrait relever la supercherie.

On commence à s’approcher du cœur du sujet même si tout cela reste encore un peu stratosphérique… Il faut commencer en réalité par concevoir les blockchains comme une sorte de registre géant, totalement décentralisé et transparent, dans lequel pourrait être consigné tout type de transaction. De la « cryptomonnaie » comme l’on dit, mais aussi tout échange nécessitant la certification d’un « tiers de confiance » voire même des contrats et l’exécution de ces contrats.

Cela commence à devenir plus concret ? J’espère ! Rajoutons donc une couche de complexité en se posant une question évidente… pourquoi parle-t-on de « chaine de blocs » ?

Je vous arrête tout de suite rien à voir avec des briques en plastiques assemblables à volonté ! (je ne cite pas de marques)

En fait cela renvoie au fonctionnement même de cette technologie, qui assemble des groupes transactions en « blocs » et qui sont certifiées par ces fameuses personnes réunies autour d’une table décrites tout à l’heure… on appelle même ces gentils opérateurs des mineurs ! Là aussi c’est assez imagé et il n’y a pas grand-chose de commun avec le temps des corons (quoique). Les mineurs se trouvent en fait dans les différentes intersections du réseau constitué par tous les participants à la blockchain. Ces intersections (ou nœud) sont des ordinateurs suffisamment puissants dédiés à cette certification. L’originalité vient du fait qu’il n’y a pas qu’une seule autorité de centralisation, mais tout un réseau d’autorités interconnectées sans hiérarchie.

Pour reprendre le principe, on va dire que A veut effectuer une transaction vers B. Cette transaction est ajoutée à plusieurs autres transactions en cours et assemblées dans un bloc. Le bloc est validé par les mineurs (que l’on appelle aussi « nœuds » du réseau, rien de péjoratif hein ? juste pour vous le rappeler) avec des moyens cryptographiques, le bloc est ajouté à la chaîne de blocs, diffusée aux autres noeuds et… B reçoit la transaction de A !

Ouf !!!

A partir de là les potentialités sont énormes, du fait de l’inviolabilité (supposée en tout cas) du système. On peut distinguer 3 grandes catégories d’applications aujourd’hui :

  • Les transferts de monnaies, titres, actions etc
  • Les fonctions de registre (immobilier, industrie, vote même)
  • Les « smarts contracts » qui sont des programmes autonomes qui effectuent automatiquement les termes d’un contrat sans autre intervention humaine

Mais, naturellement, comme toute technologie, il y a tout de même une certaine réflexion à conduire pour en mesurer les enjeux…

Ecoutez l’entretien avec Primavera de Filippi, chercheuse au CERSA (unité mixte du CNRS et de l’Université Paris II) et chercheuse associée au Berkman Center for Internet & Society (Université de Harvard).

 

Chronique de l’émission “Télé-audience”

Corps présent ?

Invité : Christian Licoppe, Professeur de Sociologie des Technologies d’Information et de Communication à Telecom Paris Tech

« Je plaide corps présent ». Celle délicieuse formule indiquant qu’en présence de son client dans la salle d’audience l’avocat envisage de développer largement ses conclusions pour justifier ses honoraires, est-elle appelée à disparaître dans les limbes de l’archéologie judiciaire ?

La visioconférence a en effet fait irruption dans les salles d’audience dès la fin des années 90 pour être « déployée » comme l’on dit aujourd’hui largement dans tous les tribunaux.

Mais quel bilan en dresser à ce stade ? Quelles évolutions en attendre avec la banalisation des moyens de communication vidéo (je pense bien entendu à Skype, Facetime et toutes ces applications embarquées dans nos smartphones qui nous donnent un réel sentiment d’ubiquité) ?

Un récent rapport de l’Institut Montaigne dresse par le menu un ensemble de recommandations pour faire entrer les tribunaux dans l’ère numérique ou, plus exactement, adapter le service public offert à l’actuelle demande en justice… et l’une des premières de ces recommandations invite à recourir à des procédures numérisés ou des échanges vidéos pour un certain nombre de litiges qui seraient adaptés à ce mode de traitement.

Mais s’adresse-t-on de la même manière à un écran qu’à un être humain ? L’architecture des tribunaux et des salles d’audience, qui ne doit rien au hasard, peut-elle transposable (avec le rituel attaché) à un univers dématérialisé.

Car le procès reste la rencontre particulière d’un temps et d’un lieu donnés. Evidemment cet outil technologique promet de ne créer qu’un seul espace-temps en connectant deux lieux hétérogènes, mais ces lieux continuent à compter pour chacun des acteurs du procès.

Dans un procès classique, le rituel se joue comme une mise en scène théâtrale, invitant tous les acteurs à en adopter les codes. Créer de l’ordre à partir du désordre au travers d’un rite s’imposant à tous, tel est l’objectif de  l’audience.

Or, Antoine Garapon rappelait dans « Bien juger » que « La justice est souvent réduite au droit, c’est-à-dire à du texte, est présentée amputée d’une partie d’elle- même. ». Le recours à la visioconférence ne procéderait-il pas de la seule exigence pratique (je n’ai pas dit productiviste) réduisant la rencontre judiciaire à un rendez-vous comme un autre. Voire à un simple échange dématérialisé sur chat judiciaire.

L’autre réflexion a trait à la sémantique de l’image. Les recrutements à l’école nationale des greffes ne requièrent pas (encore) de disposer d’une formation de cadreur ou de réalisateur. Et pourtant… un cadrage n’en vaut pas un autre, la mise en scène emporte du sens. Car l’enjeu n’est pas esthétique mais tient à la neutralité de la transposition de l’image. Une lumière dure sur un visage émacié fera ressortir la dureté d’un individu ; que pourra en penser un jury qui ne verrait plus l’expression corporelle entière ?

On le voit : on ne se trouve pas face à un simple outillage commode pour offrir un nouveau service. On transforme l’acte même de juger.

Ecoutez l’entretien avec Christian Licoppe, Professeur de Sociologie des Technologies d’Information et de Communication à Telecom Paris Tech, sur Amicus Radio.

 

Chronique de l’émission “Open data”

Open data : données ouvertes pour monde ouvert… ou totalitaire ?

Invité : François Paychère, magistrat à la Cour des comptes de Genève

Le XXIème siècle sera transparent ou ne sera pas.

Un vent nouveau semble en effet souffler ces dernières années sur les politiques publiques occidentales, avec un certain nombre de concepts, où le rapport des citoyens avec leurs gouvernants paraît devoir se transformer d’une relation verticale (contrôle / soumission) à un rapport plus horizontal, dans une totale transparence de l’action publique.

La déclaration des droits de l’homme et du citoyen de 1789 en posait évidemment les bases en imposant à tout agent public de rendre compte de son administration. Mais les politiques d’ouverture des données nous conduisent sur un bien autre chemin.

Redéfinissons rapidement quelques concepts utilisés (et parfois maltraités dans les débats) : une première confusion est fréquente entre accès à l’information et accès aux données.

En effet, un certain nombre d’informations publiques, nécessitant une large publicité, bénéficient déjà des nouvelles technologies pour assurer leur diffusion : ainsi Légifrance est le premier canal dématérialisé d’informations certifiées, où l’on trouve non seulement des textes législatifs ou règlementaires, que de la jurisprudence ou des nominations à des emplois publics. Mais cette information unitaire, même disponible sur internet, est totalement distincte de l’accès direct à des données organisées et constituées en base, pouvant être traitées par un ordinateur.

L’open data concerne donc seulement la diffusion de ces bases qui, agglomérées en tout ou partie avec d’autres sources structurées constituent le big data.

La seconde confusion consiste à confondre l’ouverture des données elles-mêmes avec leur moyens de traitement. Nombre de discours sur cette ouverture concernent en réalité les traitements opérés par diverses méthodes avancées que l’on qualifie globalement de data science.  Justice prédictive avec de l’intelligence artificielle, moteurs de recherches avancés avec divers critères, robots juristes sont autant d’applications algorithmiques qui sont nourries de données mais n’ont rien à voir avec la politique d’ouverture elle-même.

Les données c’est le pétrole et donc le carburant du XXIème siècle, les algorithmes le moteur.

L’ouverture de ces données ne s’opère donc pas de manière si anodine que cela : alors oui, quand l’Open Government Partnership (lancé en 2011 sur la base d’un accord multilatéral avec 70 pays à bord, soutenu par le Tides Center, organisation philantropique américaine) déclare solennellement que cette gouvernance 2.0 ou 3.0 (je m’y perds) va favoriser la transparence de l’action publique, prévenir la corruption, associer les citoyens aux politiques publiques, on peut y lire un nouvel achèvement pour la démocratie.

Mais concrètement qui dans la société civile aura les moyens de traiter ces données. Spécifiquement pour les décisions judiciaires, qui va bénéficier directement de l’ouverture de ce marché. Et, même si l’on ne discutera pas aujourd’hui d’une application spécifique, quelles transformations, dans la construction de la jurisprudence par exemple, anticiper ?

Enfin, comment articuler cette ouverture avec le règlement européen sur la protection des données, qui entrera en vigueur le 25 mai 2018 ? Puisque open data ne rime pas nécessairement avec données anonymes… le nom des juges administratifs français (en tout cas de certains présidents de formation de jugement) sont déjà ouverts !

Ecoutez l’entretien de François Paychère, magistrat à la Cour des comptes de Genève, sur Amicus Radio.

Chronique de l’émission “La justice prédictive”

Quel avenir pour la justice dite prédictive ?

Invité : Bruno Cathala, juge à la Cour de cassation

La justice prédictive a été un des grands sujets de buzz de l’année dernière… j’emploie le passé car une expérimentation a pris fin en octobre 2017 dans les cours d’appel de Lille et de Rennes et le constat semble sans… appel : Cela ne servirait à rien. Ou presque.

Il faut dire que les promesses de départ étaient ambitieuses : challenger, comme l’on dit aujourd’hui, l’impartialité du juge, lever le voile sur un avenir rempli d’aléa judiciaire, conseiller – dissuader même – le justiciable d’aller rencontrer un juge car, tout bien pesé, son affaire ne vaudrait pas tripette.

Cet enthousiasme excessif, hérité de la réussite des systèmes prédictifs des pays de common law, s’est heurté à une réalité tout autre sur le continent, qui ne tient pas à la légendaire résistance au changement des français, qui auraient la baguette coincée sous leur bras et leur béret vissé sur la tête.

La machine apprenante, l’intelligence artificielle, ce bazar de silicone qui sait maintenant construire de manière autonome ses propres règles de gestion n’est effet pas très souple aux changements complets de paradigmes et de concepts. Prévoir la météo à plusieurs jours de distance reste complexe par le nombre d’éléments à prendre en compte mais les règles physiques ne sont pas totalement bouleversées au hasard de la volonté des humains. Apprendre à jouer au Go est autrement plus profond que jouer aux échecs mais – là encore – des règles solides servent de fondement.

Que penser de la solidité de la loi et des règles fondatrices du droit continental ? Très simplement que si la loi change, toute la construction jurisprudentielle s’écroule. Donc d’emblée, l’affaire partait mal.

Ajoutons à cela un détail qui n’en est pas un : qu’est-ce que ces machines apprennent exactement en ingurgitant des tonnes d’affaires à l’intérêt jurisprudentiel extrêmement variable (pour ne pas être désagréable avec leurs producteurs).

Rien.

Enfin si, cela peut nourrir des calculs statistiques (nous sommes d’ailleurs plus proches de la prévision que de la prédiction)… mais croire que les intelligences artificielles apprennent ainsi la règle de droit revient à envisager que mon chat – qui est fort sympathique – sait lire l’heure car il anticipe en miaulant le moment de l’arrivée de ses croquettes.

Les concepteurs des intelligences artificielles admettent d’ailleurs volontiers cette limite : ils savent avoir perdu la compréhension de ce qui se passe dans la boîte noire des intelligences artificielles… et d’ailleurs ils ne s’en émeuvent que très modérément !

Pourquoi ?  Car seul le résultat compte ! Par petits pas, test de toutes les possibilités et des milliards de vies consommées, une machine arrive à terminer Super Mario. C’est cela qui compte pour ses concepteurs et non la manière dont elle joue.

Alors on fait quoi de tout cela ? Rien ?

Poursuivez avec l’entretien de Bruno Cathala, juge à la Cour de cassation sur Amicus Radio.