Chronique de l’émission “Les legaltechs disruptent-elles le droit ?”

Un regard sur l’impact des legaltechs sur la transformation du marché du droit

Invité : Thomas Saint-Aubin, directeur général de Séraphin.legal et enseignant en droit des données à l’Ecole de droit de La Sorbonne

Medtech, Edtech, Civictech, regtech… legaltech : les startups spécialisées ne cessent de s’adapter à leur environnement en créant leur propre dénomination.

La novlangue numérique s’y déploie avec force, riche de disruption, où les digital evangelist tentant de convaincre dans des pitchs qu’il est toujours possible de hacker les innovations dans les process… on se fait un call pour organiser un hackathon ?

Le choc est total avec la culture d’un monde du droit, également habitué à un jargon spécifique, mais jargon hérité d’une longue tradition ayant forgé l’identité même des professions, avocats, notaires, huissiers, magistrats, juristes en général. 

Il est intéressant dès lors d’examiner en profondeur en quoi les legaltech innovent, choquent et remettent en cause de manière bien plus profonde que l’on croit les métiers juridiques.

La langue n’est en effet que la partie sensible d’une transformation, portée possiblement par cette culture libertarienne nous venant de la Silicon Valley : le slogan « move fast and break things », animant nombre d’entrepreneurs de l’industrie numérique, risque d’emporter dans un champ régalien des impacts profonds sur les individus et la société.

Comment ne pas disrupter donc au passage nos droits et libertés fondamentales, c’est aussi cela que nous aborderons avec Thomas Saint Aubin.


Ecoutez l’entretien avec Thomas Saint-Aubin, directeur général de Séraphin.legal et enseignant en droit des données à l’Ecole de droit de la Sorbonne

Chronique de l’émission “Histoire de l’informatique pénale”

Un regard sur l’histoire de l’informatique pénale

Invité : Jean-Bernard Desjardins, directeur du greffe du tribunal de grande instance de Paris

Nous avons pris l’habitude d’explorer durant la précédente saison la transformation du droit à l’ère numérique, avec une ambition clairement prospective. Intelligence artificielle, blockchains, règlements de litiges en ligne autant de sujets qui paraissent déjà structurer le quotidien des professions judiciaires.

Pour lancer cette nouvelle saison, nous nous sommes dit qu’un coup d’œil dans le rétroviseur serait certainement riche d’enseignements pour mieux comprendre la dynamique des évolutions à venir. Et en préparant cette émission, nous n’avons été guère déçus. « Tout ce qui est neuf n’est pas nécessairement nouveau » c’est connu.

Mais je vous avoue avoir été véritablement saisi quand je suis tombé sur un texte paru en octobre 1968 dans la Revue internationale de droit comparé, où Jacques Vérin, magistrat et secrétaire de la commission de l’informatique du ministère de la justice, dressait un inventaire des promesses de l’utilisation des calculateurs et ordinateurs. Cinq domaines lui paraissaient alors digne d’intérêt : la gestion administrative et financière, le casier judiciaire, la documentation juridique, les statistiques et la police judiciaire. Il concluait son court texte en ces termes : « Nous sommes loin de l’ordinateur rendant la justice des romans de science-fiction, même si les amendes de composition sont demain traitées électroniquement. Mais le champ d’action de l’informatique dans le fonctionnement de la Justice n’est pas négligeable et l’on peut espérer qu’en délivrant les juges de tâches ingrates, bien loin de mécaniser la Justice, elle contribuera à la rendre plus humaine, ce qui est l’essentiel. » Argumentaire finalement bien contemporain non ?

L’autre évidence dans cette histoire de l’informatique des tribunaux, c’est que les principaux acteurs n’ont pas été que des magistrats, loin de là. Il y a bien sûr eu des informaticiens mais la cheville ouvrière dans les juridictions, qui ont mis en œuvre ces instruments ont été avant tout les greffiers. Ils ont été les premiers témoins de l’arrivée de l’informatique dans les tribunaux, les premiers utilisateurs et souvent les meilleurs promoteurs de cette nouvelle forme d’automatisation. 

Il faut dire que le « clavier » des ordinateurs personnels qui sont rentrés progressivement dans les tribunaux à la fin des années 90 rappelaient furieusement le clavier des machines à écrire… et que les magistrats ne se sont pas majoritairement précipités sur ces machines qui n’étaient perçues, avant tout, que comme une version modernisée des machines électriques.

Les greffiers et leurs encadrants, les greffiers en chef (aujourd’hui directeurs des services de greffes judiciaires), se sont donc rapidement emparés de ces nouvelles technologies et en ont défini les usages d’abord pour leurs besoins de production et de gestion : mise en forme des jugements puis, progressivement, suivi des affaires. L’informatique baptisée « d’initiative locale » a fait éclore dès la fin des années 80 / début 90 des pratiques innovantes, avec le plus souvent la passion des technologies comme seule formation. Les équipes du ministère se sont renforcées de ce que l’on qualifierait aujourd’hui avec un brin de condescendance des « geeks ». Et c’est ainsi que la totale hétérogénéité des matériels, des logiciels, des pratiques a appelé une rationalisation et une centralisation.

Jean-Bernard Desjardins a été l’un des acteurs de cette informatisation, spécialement dans le domaine pénal. Aujourd’hui directeur du greffe du parquet du TGI de Paris, il a exercé assez longtemps en administration centrale et en juridiction pour partager avec nous maintenant son regard sur cette transformation. Peut-être devrions-nous d’ailleurs essayer de mieux capitaliser cette histoire pour construire l’avenir…


Ecoutez l’entretien avec Jean-Bernard Desjardins, directeur du greffe du parquet du tribunal de grande instance de Paris

Les cartes postales des Temps Electriques

L’été 2019 a été l’occasion de diffuser deux extraits du colloque “Un monde judiciaire augmenté par l’intelligence artificielle ?“, organisé le 25 juin 2019 par l’Institut PRESAJE à la Cour de cassation.

> Propos introductifs de Bruno Pireyre, Président de chambre, directeur du service de documentation, des études et du rapport de la Cour de cassation
> Intervention d’Adrien Basdevant, Avocat et co-auteur de l’ouvrage “L’empire des données”

Chronique de l’émission “Véhicules autonomes”

Les véhicules automatisés seront-ils un jour autonomes ?

Invitée : Solën Guezille, avocate et fondatrice de l’ADOC

On a en tête l’image de Pierce Brosnan, dans Demain ne meurt jamais, qui conduit sa voiture avec son smartphone. Un James bond couché… caché, sur la banquette arrière et pilotant son bolide pour prendre la fuite…Et une voiture de l’extérieure vue « sans conducteur ».

Mais que penserait James Bond aujourd’hui d’une voiture qui l’aurait guidé en lui laissant ses deux mains libres, une voiture …autonome… !

Etre autonome, « ne dépendre de personne ». Est-ce bien envisageable quand on parle d’un véhicule ?

Car les véhicules dont nous allons parler aujourd’hui n’iraient-ils pas encore bien au-delà de cette image futuriste qu’incarnait James bond en 1997. Un véhicule capable de rouler sans l’intervention d’un être humain, voilà qui peut faire rêver quand on se souvient des longues heures passées au côté du moniteur d’auto-école pour décrocher le sésame du permis de conduire !

Mais autonome ne veut pourtant pas forcément dire se passer du conducteur, en cela James Bond était précurseur car le célèbre constructeur automobile Ford a déposé l’an dernier le brevet d’un système de pilotage de l’un de ses véhicules à l’aide entièrement d’un écran tactile. Le véhicule autonome pourrait donc être contrôlé par mobile.

Alors que reste-t-il vraiment du rôle du conducteur dans tout ça ?  

Voilà quoi qu’il en soit une révolution qui peut quand même susciter quelques appréhensions… si on imagine un véhicule lancé à pleine vitesse, sans intervention humaine possible. Crainte que l’on aurait aussi finalement face à des pédales de frein qui ne répondraient plus…Parce que là évidemment, c’est l’accident !

On aborde alors une autre problématique découlant du développement des véhicules autonomes. Comment en contrôler le mécanisme ? Comment appréhender la situation accidentelle que le droit a mis plusieurs années à encadrer, en responsabilité civile, pénale, mais aussi en droit des assurances ?

Enfin, au-delà de l’aspect juridique, quelle évolution et quelle acceptation de notre part cela suppose-t-il ? « Sera-t-il plus difficile d’accepter d’être tué par une machine que par un homme ? ».

L’actualité sur le sujet est de plus en plus présente et internationale. Les réticences sont notamment très grandes aux Etats-Unis où se poursuivent de nombreuses expérimentations. On peut citer le cas d’une petite ville d’Arizona où Google teste ses voitures autonomes, et où des habitants ont récemment décidé de manifester leurs craintes et leurs mécontentements en s’en prenant …physiquement aux véhicules ! Pierres jetées sur la carrosserie, pneus crevés, queues de poisson pour pousser la voiture vers le bas-côté… Des gestes incongrus de révolte de l’homme contre une machine mais qui traduisent un malaise profond.

« Objets inanimés avez-vous donc une âme ? » s’interrogeait Alphonse de Lamartine. La question aujourd’hui peut se reposer … Si ce n’est d’ « âme » dont nous parlerons avec notre invité, c’est tout au moins d’une certaine forme d’intelligence, intelligence « artificielle » qui, comme l’intelligence « naturelle », reste faillible.


Ecoutez l’entretien avec Solën Guezille, avocate et fondatrice de l’ADOC

Chronique de l’émission “Droit et mathématiques”

Droit et mathématiques : les frères ennemis ?

Invité : Jean Lassègue, chercheur au CNRS et co-auteur avec Antoine Garapon de l’ouvrage “Justice Digitale”, paru aux éditions des PUF

Questionner le rapport fondamental entre le droit et les mathématiques pourrait paraître surprenant (je ne dis pas dépassé) dans une émission dédiée au numérique.

Pourtant, les développements depuis 2010 d’une marque commerciale « intelligence artificielle » (ou IA) a réactivé l’utilisation massive du formalisme mathématique, plus précisément des statistiques, pour traiter des masses considérables de données avec des prétentions bien connues : modéliser des comportements, des actions non seulement afin de les automatiser (les reproduire) mais peut-être même les anticiper. C’est bien là le cœur des algorithmes d’apprentissage dits de machine learning, derrière lesquels il n’y a aucune magie autre que la construction automatique de modèles mathématiques en découvrant les liens (corrélations) cachés dans la masse des données qu’on leur fait ingurgiter.

Cet émerveillement (cette sidération même) qui a saisi l’humanité entière en voyant AlphaGo, une IA spécialisée au jeu de go, plier en deux temps trois mouvements le meilleur joueur humain (puis d’ailleurs se battre elle-même, dans une sorte d’extraordinaire mise en abyme), a conduit à un grand trouble. Un grand malentendu même.

De manière assez opportune, l’industrie numérique a réanimé des qualifications anthropomorphiques pour désigner ce traitement massif de données statistiques (intelligence, neurone, apprentissage) et, peut-être, éviter de convoquer les décennies de débat sur les apports des sciences dures. Or, comme le dit Pablo Jensen dans son livre « Pourquoi la société ne se laisse pas mettre en équation ? », il y a des faits têtus dans les sciences naturelles que l’on ne peut ne balayer d’un revers de main, mais quand l’on arrive à traiter de phénomènes sociaux, il est bien plus difficile de trouver des relations stables.

La systématisation de l’application de l’IA dans tous les champs de l’activité humaine relève donc clairement du solutionnisme, dénoncé par Evgeny Morozov dans « Pour tout résoudre, cliquez ici ».

Peut-être faut-il donc revenir aux bases, qualifier ce que l’on voit avec des mots précis et identifier ce que l’histoire nous appris.

Sans s’égarer dans le temps avec notre DeLorean de Retour vers le futur (oui la production d’Amicus Radio dispose d’un budget démentiel), remontons un instant au XVIIIème siècle : le marquis de Condorcet, influencé par les savants de l’Italie du Nord comme Beccaria qui tentent de formaliser le réel, écrit des premiers essais sur les mathématiques sociales  et, déjà, sur la jurisprudence dans un texte inachevé « sur les lois criminelles en France ». Avançons brièvement vers Adolphe Quételet au XIXème siècle cette fois-ci : docteur en mathématiques, il a développé pour sa part la « physique sociale », érigeant l’homme moyen comme valeur centrale. Un brin effrayant peut-être… Auguste Comte réagira à ces idées et développera ce qui allait devenir la sociologie… 

Quels enseignements tirer de cela ? Est-ce qu’il n’y aurait finalement pas une forme de totalitarisme à faire rentrer les humains dans des cases logiques ? L’irrationnel comportement (apparent) de l’humain et ses contradictions ne sont-elles pas mieux régulées par le droit, et sa texture ouverte, que des règles logiques ? 

Jean Lassègue et Antoine Garapon ont traité de la révolution que nous sommes en train de vivre sous l’angle d’une révolution graphique, d’une nouvelle forme d’écriture qui s’imposerait à nous… écriture purement mathématique. 


Ecoutez l’entretien avec Jean Lassègue, chercheur au CNRS et co-auteur avec Antoine Garapon de l’ouvrage “Justice Digitale”, paru aux éditions des PUF

Chronique de l’émission “Intelligence artificielle et procès pénal”

Intelligence artificielle et procès pénal : l’illusion d’un destin ?

Invitée : Clementina Barbaro, chef d’unité au Conseil de l’Europe

Comme les bains de photographie argentique parviennent à révéler l’imperceptible d’une prise de vue, l’intelligence artificielle (IA) nous promet de dévoiler, par le formalisme mathématique et statistique, de l’information dans le canevas des données que nous produisons de plus en plus massivement.

Appliqué au champ de la justice pénale, plusieurs réalisations, déjà fonctionnelles aux Etats-Unis, visent à prévenir la commission d’infractions, notamment par des sortes de cartographies « prédictives », ou à évaluer les risques de réitération d’un individu.

La ville de Santa Cruz a été la première à se doter, en juillet 2011, d’un outil baptisé PredPol (pour predictive policing), qui vise à prédire où et quand un crime va se produire. Il n’y a aucun « precog » derrière tout cela, comme dans le film Minority Report, mais une base de données recensant les infractions passées et la formule magique de notre ère de l’IA : des modèles mathématiques et statistiques – secrets – qui projettent du passé un possible avenir. De telles solutions sont déjà testés dans de nombreux pays européens.

Nous pourrions prendre aussi l’exemple de l’algorithme COMPAS  qui est utilisé de manière effective dans certains États américains afin d’évaluer la dangerosité des individus en vue de leur éventuel placement en détention provisoire ou lors du prononcé d’une condamnation pénale. Cet algorithme n’a rien de fantaisiste : il s’appuie sur des études académiques en criminologie et en sociologie, sur différents modèles statistiques et le traitement d’un questionnaire de 137 entrées, relatif à la personne concernée et à son passé judiciaire sans aucune référence à son origine ethnique. Le système fournit ensuite au juge différents « scores » à un horizon de deux années : risque de récidive, risque de comportement violent et risque de non-comparution pour les situations de placement en détention provisoire.

Toutefois, en mai 2016, les journalistes de l’ONG ProPublica ont analysé l’efficacité des « prédictions » de  COMPAS sur une population de près de 10 000 individus arrêtés dans le comté de Broward (Floride) entre 2013 et 2014. Cette étude a révélé non seulement un taux relativement faible de « prédictions » justes (61%) mais, en procédant à l’analyse approfondie des « faux positifs », elle a par ailleurs établi que les populations afro-américaines étaient pondérées d’un plus fort risque de récidive que les populations blanches. Inversement, les populations blanches ayant effectivement récidivées avaient été deux fois plus classifiées comme étant en risque faible que les populations afro-américaines. 

En d’autres termes, sans inclure l’ethnie des individus ou avoir été spécifiquement conçu pour traiter cette caractéristique, le croisement des données (dont le lieu de résidence) a indirectement surpondéré cet aspect au détriment d’autres facteurs sociaux individuels (éducation, emploi, parcours familial) et a conduit à influencer les juges avec des indicateurs proprement discriminatoires.

Cette perspective, effrayante, est-elle une réalité fonctionnelle ou juste des épiphénomènes, un peu gonflé par la presse ?

Profitons de l’expertise de Clementina Barbaro, qui est chef d’unité au Conseil de l’Europe. Elle a notamment animé les derniers travaux de la CEPEJ sur l’IA dans les systèmes judiciaires et elle intervenue notamment au Sénat, en juin 2018, et dans plusieurs forums européens sur la question !


Ecoutez l’entretien avec Clementina Barbaro, chef d’unité au Conseil de l’Europe

Chronique de l’émission “Intelligence artificielle et intelligence naturelle”

Intelligence artificielle et intelligence naturelle

Invitée : Daniela Piana, professeure de sciences politiques à l’Université de Bologne

Je ne sais pas pour vous, mais cette année j’ai eu l’impression que le sujet de l’intelligence artificielle (l’IA pour les intimes) était à peu près partout. Comme si accoler ces mots à n’importe quel thème était en mesure de le colorer d’une teinte indélébile de modernité. 

Il faut dire que les promesses sont grandes et que la littérature de science-fiction nous a déjà bien acculturé à l’idée que nous sommes sur le point de concevoir des systèmes computationnels aux capacités égalant, surpassant même leurs concepteurs. Or, comme toujours, ce n’est pas du monstre à la Frankenstein dont il faut se méfier, mais plutôt de leurs concepteurs.

L’IA tout d’abord paraît être devenue une réelle marque commerciale. C’est bien là le génie du marketing que de faire rêver : parler d’algorithmes en capacité de produire de représentations statistiques d’un environnement donné n’est en fait pas très sexy (et je vous ai certainement déjà perdu en l’énonçant). Parler d’« apprentissage » le devient plus : en cédant déjà à un tout petit peu d’anthropomorphisme, l’attention s’arrête. On se dirait ainsi que le « machine learning » (apprentissage automatique) singerait les modes d’apprentissage humain : que nenni ! C’est de la corrélation sur des jeux massifs de données ! Et Yann LeCun, célèbre pionnier de l’apprentissage profond (deep learning) nous dit bien que les « neurones formels » de ses machines sont aussi proches d’un neurone biologique que l’aile d’un oiseau est proche d’une aile d’avion.

Et il convient donc d’arriver à rendre objectif ce que peuvent réaliser les mathématiques et les statistiques. Dans des environnements dits « fermés » (comme le jeu de go) les possibilités arrivent à surpasser l’humain : en revanche, comme le souligne Pablo Jensen dans son livre « Pourquoi ne peut-on pas mettre la société en équation », il est beaucoup plus difficile de trouver des relations stables dans les phénomènes sociaux.

Une fois cette clé de compréhension acquise, comment comprendre la fascination exercée par l’IA. Ce ne sont pas les médias qui vont nous y aider et ils continuent même d’une certaine manière à entretenir le trouble : à titre d’exemple l’on pourrait citer un point hebdomadaire sur France Info qui relate les derniers développements de cette technologie. Il y a quelques semaines, le présentateur évoquait de manière accrocheuse que les IA parvenaient maintenant à « détecter les mensonges » dans les plaintes adressées aux policiers à 80%. Assez rapidement, l’annonce s’est dégonflée puisqu’en fait de détection de mensonge, il s’agit de probabilités sur un récit écrit qui réaliserait notamment une corrélation entre des faits trop précisément décrits et des propos mensongers. Cet outil ne serait en réalité déployé qu’à une échelle de test dans une unité de police en Espagne et le discours relayé réunit les arguments commerciaux de la société privée ayant conçu le produit. Et passons sur l’exemple suivant donné par ce journaliste, de garde-frontière dans des aéroports hongrois et lettons, qui repérerait les visages de menteurs.

Dans ce grand n’importe quoi mélangeant corrélation et causalité, probabilité et vérité, il y a un besoin urgent de clarification. L’intelligence artificielle ne serait en réalité qu’un extraordinaire concept marketing labellisé par John Mc Carthy dans les années 50, très éloigné d’une intelligence naturelle.

Max Headroom

La musique d’Art of Noise que vous entendez mettait en scène le premier présentateur conçu en animation en 3D dans le milieu des années 80. Il était baptisé Max Headroom, et, bien que synthétique, il était en réalité animé par les mouvements du visage de l’acteur Matt Frewer.

L’autonomie de ce personnage synthétique n’était donc qu’une illusion… Daniela Piana, vous allez nous aider à y voir plus clair de ce qui distingue cette intelligence dite « artificielle » de ce que vous qualifiez d’ « intelligence naturelle ». Particulièrement si ces assemblages d’algorithmes sont en mesure de mettre au défi les professions du droit, tels que les avocats ou les magistrats.


Ecoutez l’entretien avec Daniela Piana, professeure de sciences politiques à l’Université de Bologne

Chronique de l’émission “Des données réellement à l’abri ?”

Des données réellement à l’abri ?

Invitée : Sophie Kwasny, chef de l’unité de protection des données du Conseil de l’Europe

Et si l’on croisait tout ou partie des fichiers administratifs français pour assurer une meilleure efficacité ? Cette idée (un brin totalitaire) n’est pas contemporaine mais date de 1973 avec un projet, sobrement intitulé par le ministère de l’Intérieur à l’époque SAFARI.

Révélé en 1974 par un article du Monde, ce « système informatisé pour les fichiers administratifs et le répertoire des individus » planifiait d’interconnecter tous les fichiers en s’appuyant sur un identifiant unique déjà existant pour tous : le numéro INSEE, utilisé notamment pour nous identifier à la sécurité sociale.

Loin de susciter une liesse populaire, ce fichage systématique de la population a naturellement provoqué une immense polémique, car tout cela renvoyait à des heures sombres de notre histoire. Visionnaire, la loi informatique et liberté promulguée en 1978 a édicté des principes qui restent contemporains.

Tout le monde connaît maintenant le règlement général de protection des données (RGPD), nouveau cadre européen protecteur des citoyens. Nos boîtes mails ont été noyées de courriers nous signalant la mise en conformité des (très nombreux) détenteurs de nos données personnelles.

Il est en revanche moins connu que ce cadre n’aurait certainement pas vu le jour sans un autre texte, plus méconnu, adopté dès 1981 par le Conseil de l’Europe : la Convention dite « 108 » de protection des personnes à l’égard du traitement automatisé des données à caractère personnel. Ce texte, qui demeure après presque 40 ans le premier instrument juridique international contraignant dans le domaine, a été récemment modernisé : il garantit, évidemment, la protection de la vie privée face aux multiples usages des technologies de l’information tout en facilitant les flux « transfrontières des données ».

Essayons de préciser tout cela avec une invitée de choix : Sophie Kwasny, qui est chef de l’unité « protection des données » du Conseil de l’Europe. Elle a animé les derniers travaux de modernisation et son expertise l’a conduit à recevoir en début 2018 le prix « Michal Serzycki » pour la protection des données en récompense de ses réussites spéciales dans le domaine !


Ecoutez l’entretien avec Sophie Kwasny, chef de l’unité de protection des données du Conseil de l’Europe

Chronique de l’émission “Transhumanisme, seul avenir de l’homme ?”

Transhumanisme, seul avenir de l’homme ?

Invité : Pierre-Jérôme Delage, maître de conférence à l’UFR de Droit et Sciences politiques de Caen, auteur du livre « L’homme augmenté face au droit ».

Vincent Edin, journaliste, affirmait dans un numéro de « Usbek & Rida » qu’avec le transhumanisme et les promesses d’humains immortels, c’était « tout le business model de la transcendance qui était en passe de faire sacrément disrupter ».

Difficile de lui donner tort tant les promesses semblent démiurgiques : remplacer ses organes usés, étendre ses capacités physiques et cognitives avec de nouvelles interfaces seront peut-être un jour à notre portée. Combinez cela avec une connexion globale en temps réel de tous les individus et vous obtenez un monde parfaitement décrit par l’auteur italien Vittorio Catani dans son livre récemment traduit « Le Cinquième Principe » où « celui qui contrôle le logiciel contrôle l’esprit ».

En effet, dans ce livre Vittorio Catani envisageait des conséquences globales à une telle transformation. Dans son monde « La démocratie, ou ce qu’on définissait ainsi, n’apparemment été qu’un étrange phénomène culturel qui a tenu quelques dizaines d’années. » Il continue en décrivant ainsi la lente décomposition de ce modèle de gouvernance : « Je dirais qu’elle a été dépassée par défaut. Comme par le retour à l’ancienne lex mercatoria. En remplaçant la loi par des contrats individuels, la justice par des arbitrages… » De manière moins spéculative, notre invité s’est aussi intéressé aux conséquences très concrètes du transhumanisme…

Et puis faut-il faire la part des choses. L’immortalité restera inatteignable car, comme pour l’intelligence artificielle, le problème n’est pas dans de simples évolutions techniques : il y a une difficulté fondamentale, c’est que nous sommes programmés pour mourir. Vincent Edin citait le psychothérapeute Christophe Fauré dans son article, qui rappelait que « notre société d’hyper-contrôle, de volonté de maîtrise de tous les paramètres du vivant, se berce d’illusions. Si je prévois tout, contrôle tout, anticipe tout je finis par croire que rien ne peut m’arriver. La croyance messianique dans les machines s’inscrit dans ce registre, mais c’est une lourde erreur. La vie c’est l’accident, l’imprévu. »

Ecoutez l’entretien avec Pierre-Jérôme Delage, maître de conférence à l’UFR de Droit et Sciences politiques de Caen, auteur du livre « L’homme augmenté face au droit ».

 

Chronique de l’émission “Réseaux sociaux et professions du droit”

Réseaux sociaux et professions du droit

Invité : Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice.

Plus de deux milliard d’utilisateurs actifs revendiqués par Facebook en 2018 dont 33 millions en France, 330 millions pour Twitter dont 15,6 sur le territoire national, 800 millions pour Instagram dont 16 millions de français : les médias sociaux ont drainés une population de totalement hétérogène et se sont totalement déployés bien au-delà de la population des technophiles… dont le monde des juristes.

Avocats, policiers, gendarmes, magistrats, huissiers, notaires se rencontrent de manière active maintenant depuis plusieurs années, anonymes ou non, et partagent entre eux avec le reste de la « société civile » (dont des journalistes spécialisés en matière judiciaire) sur tout… et rien à la fois.

Car, à n’en pas douter, il y a quelque chose d’extraordinaire dans ce qui s’opère tous les jours dans ce joyeux bazar. Le masque social tombe, évidemment plus pour les anonymes, au profit de l’humain, qui se révèle dans ce qu’il peut y avoir d’anecdotique. Les grands thèmes de débat se révèlent (quel rôle de l’avocat en garde en vue par exemple) dans des échanges cabotins et se croisent avec du banal, du quotidien, qui rappelle que derrière cette mécanique judiciaire il y a surtout des femmes et des hommes, en charge d’une mission extraordinaire, dans son sens étymologique.

Par moment, et toutes proportions gardées, on croirait même s’opérer le même mélange d’idées idéalisé par les francs-maçons. Peu importe l’étiquette sociale, ce qui compte c’est la volonté commune de progrès et le sentiment d’exécuter une mission commune, pour l’intérêt général.

Cette description idéalisée est naturellement immédiatement à confronter aux les limites de l’exercice dont certains ont fait amèrement l’expérience.

La première limite évidente et identifiable est la liberté d’expression qui se confronte aux devoirs de réserve des différentes professions. Peut-on réellement commenter tout et faire part d’un avis bien subjectif sans engager sa profession ? Dans un registre plus trivial, qui oserait déclamer dans un amphithéâtre plein à craquer de centaines de personnes que l’on connaît à peine (voire pas du tout) sa satisfaction d’être enfin vendredi en lâchant un « Thanks God it’s Friday », accompagné d’une animation amusante sur un écran géant. Quel avocat censé, même anonyme, lâcherait une remarque sexiste pour provoquer son monde devant une salle de milliers de personnes ?

Twitter a connu un épisode assez douloureux il y a quelques années de cela avec deux magistrats lors d’une session d’assises, qui ont commenté en direct l’audience… Ces magistrats avaient acquis une bonne réputation dans le sillage d’autres figures comme Maître Eolas, pour leur capacité à humaniser leurs fonctions. Cette action de communication était d’ailleurs plutôt bienfaitrice dans une ambiance où Outreau pesait encore dans la représentation populaire des juges et des procureurs. Mais les commentaires de cette audience, captés par un journaliste dans la salle et bien d’autres leurs milliers d’abonnés, ont révélé ce que l’on peut s’échanger lors des discussions au comptoir du café du Palais… le CSM y a relevé un « manquement aux devoirs de dignité, de discrétion, de réserve et de prudence » et estimait que « l’invocation d’une pratique d’humour sur les réseaux sociaux pour justifier ces message est particulièrement inappropriée s’agissant d’une audience, en l’espèce de la cour d’assises ».

La deuxième limite est la mécanique addictive à l’œuvre avec les réseaux sociaux et participe peut-être à expliciter le dérapage que j’évoquais. Des études auraient démontré que la satisfaction de voir ses contenus « likés », « retweetés » provoquaient de véritables shoots de dopamine. Des chercheurs de l’Université de San Diego pensent commencer à pouvoir affirmer que les réseaux sociaux ont un effet sur le cerveau proche de certaines substances addictives, comme la cigarette. Ofir Turel, professeur en systèmes d’information à l’université de Californie, aurait ainsi prouvé que « l’usage excessif de Facebook est associé à des changements dans le circuit de la récompense ».

C’est un phénomène assez fascinant d’ailleurs que de voir tout le monde rechercher son quart d’heure de célébrité prophétisé par Warhol : chercher le bon mot, le trait d’esprit, pas nécessairement par égotisme mais surtout pris au jeu des échanges et de l’argumentation. Jeu qui s’envenime parfois et où les contrefeux à des remarques maladroites, de l’instant, prennent des proportions qui justifierait le lynchage immédiat de celui qui les aurait tenus. Ce véritable tribunal populaire et permanent est d’ailleurs la source de bien des désamours et de claquages de porte des réseaux sociaux. A l’addiction succède la déception.

Et l’on en vient à la troisième et dernière limite qui touche la communication institutionnelle. Communiquer sur de tels médias est aujourd’hui une profession. On ne peut s’y risquer sans en comprendre les règles spécifiques et les efforts de quelques juridictions à mieux expliquer leur quotidien se sont parfois heurtés à l’intransigeance des premiers occupants des lieux. A un procureur audacieux qui rendait compte de l’activité chargée de son parquet, des esprits – que l’on pourrait qualifier de chagrin – se sont émus de l’effort de promotion de sa capacité répressive. En réalité, ce sont deux mondes qui se rencontraient pour la première fois et le procureur François Molins ne s’y est pas trompé. Il a refusé d’utiliser les réseaux sociaux durant les attentats pour investir une communication institutionnelle plus traditionnelle mais redoutablement efficace et – surtout – adaptée.

Ecoutez l’entretien avec Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice.