Changement de cap

Credits: Illustration de l’album Offramp, Pat Metheny, 1982

Pour qui fréquente les réseaux sociaux, il arrive parfois d’y lire des annonces d’utilisateurs signifiant de manière tout à fait solennelle leurs départs de ces plateformes – toujours définitifs et sans appel, bien entendu. Traduction virtuelle du claquage de porte ou du raccrochage au nez, les adeptes de cette pratique entendent ainsi mettre en scène leur prise de distance avec ces réseaux, en dressant même parfois au passage des listes plus ou moins longue de griefs accumulées tout au long de leur vie numérique. Preuve suprême de reconnaissance de notre ère : des « mèmes » ont consacré ces pratiques théâtrales, en rappelant par exemple que les réseaux sociaux ne sont ni une gare, ni un aéroport et que ce n’est pas la peine d’y annoncer son départ (ni son arrivée d’ailleurs).

C’est donc conscient des travers de cette pratique que j’annonce ici, avec beaucoup d’humilité et une sincère reconnaissance à tous mes collègues, amis et relations, la fin de mes activités liées à l’étude de l’impact la transformation numérique en septembre 2021.

Entendons-nous bien sur cette démarche et mes attentes en y cédant : je n’attends évidemment ni hommages (je ne suis pas encore six pieds sous terre), ni éloges vibrants (si jamais certains étaient tentés) ; encore moins de regrets ou d’encouragements à revenir plus tard. Tout va bien pour moi ! Cette décision est la conséquence d’une belle promotion me dirigeant vers de toutes nouvelles responsabilités à caractère administratif et budgétaire au sein de l’organisation intergouvernementale où je suis employé, promotion que j’ai voulue et souhaitée. Mais ce tournant, mûrement préparé et construit, doit aussi – je dois l’admettre – aux impasses, aux questionnements substantiels et aux introspections relatives au sens de ma contribution dans les débats actuels sur la transformation numérique et l’intelligence artificielle (IA).

Voilà quelques années que je m’intéressais à théoriser ces sujets. Depuis 2018, j’ai eu la chance d’en faire une activité à temps plein, mêlant travaux sur des projets de régulations au Conseil de l’Europe, travaux de recherche au sein de l’IHEJ (Institut des Hautes Études sur la Justice) et enseignements à l’Université de Strasbourg (masters 2 cyberjustice, droit de l’économie numérique et commerce électronique). Sans compter mon investissement auprès d’Amicus Radio avec le podcast « Les Temps Électriques » et mon engagement dans des think-tanks, comme l’Institut Sapiens. La publication d’un ouvrage a été l’acmé de cette dynamique, assemblant avec minutie la plupart des analyses que j’avais produites sur le sujet et proposant mes vues sur le contenu d’un traité international sur l’IA[1]. Fruit d’un long travail de collation, de juxtaposition et de mise en perspective, je suis sorti de cet exercice avec quelques convictions claires : le besoin, tout d’abord, d’une réglementation contraignante pour encadrer le développement de l’IA ; la nécessité, ensuite, de ne jamais cesser de préciser et de clarifier les différentes notions et concepts mobilisés dans ce domaine pour nourrir des débats de qualité, afin d’éviter d’alimenter les trop nombreuses confusions et les malentendus tenaces ; enfin, un clair impératif de ralentissement pour (re)prendre le temps de s’entendre sur les objectifs et le sens du monde que nous souhaitons léguer à nos enfants, alors que le marché s’emballe pour tirer profit au plus vite de cette transformation et que des concurrences, multidimensionnelles et aux conséquences incertaines, polarisent les politiques publiques.

Je vous avoue ici avoir beaucoup de mal à me faire une idée de la portée qu’ont pu avoir ces réflexions. Il faut dire que la relation entre la production d’un discours et les effets sur les récepteurs n’est jamais aisée à décrypter. Il faut aussi constater une certaine saturation des discours d’experts dans l’espace public, et j’ai conscience d’y avoir contribué… mais tentons de rester objectifs.

D’un côté, j’ai accompagné un mouvement bien lancé en Europe de régulation des technologies numériques et de l’IA : la Commission européenne a publié en avril 2021 un projet de réglementation[2] et le Conseil de l’Europe est en train de formaliser le sien[3]. Mon « plaidoyer pour une réglementation » a donc bien traduit cette réalité.

D’un autre, j’ai conscience que quelques-uns des principes clés de mon ouvrage ne sont aujourd’hui pas audibles. Par exemple, si les conséquences de l’emploi d’algorithmes sur les individus et la société paraissent suffisamment significatives, il pourrait être imaginé de simplement limiter, voire bannir, le recours à ces technologies pour continuer à y préférer d’autres mécanismes, bien humains, encadrés par de solides garanties procédurales. Cette proportionnalité du recours aux algorithmes paraît bien entendu d’une certaine audace teintée d’inconscience des grands mécanismes du « progrès » qui seraient à l’œuvre pour nombre de spécialistes du numérique. Mais je persiste à penser que l’émergence d’un « Etat des algorithmes », se substituant à l’Etat de droit, et que les impacts environnementaux et sociétaux de la transformation de notre monde en données, traitées par un vaste et – encore – hétérogène système d’algorithmes, ne peuvent être limités qu’en se ménageant des angles morts. Le consensus s’étant dégagé ces dernières années sur le numérique tient pour acquis les bénéfices de cette transformation (qui s’opposerait à l’innovation ?) et aucun des projets de régulation en cours n’a instruit de manière approfondie ce principe de proportionnalité, certainement absurde pour la plupart des experts et décideurs publics. Il y est préféré l’accompagnement de l’accélération en cherchant essentiellement des moyens pour créer de la confiance dans l’exploitation de ces machines, par un savant mélange de mécanismes de sécurité (comme la certification – que j’ai d’ailleurs moi-même soutenu à de multiples reprises), de mécanismes non-contraignants (dont l’éthique – que j’ai souvent critiqué) et de mécanismes fondés sur les droits fondamentaux.

Alors oui, il y a certainement une forme suprême d’élégance à continuer de s’engager avec vigueur en affrontant les vents contraires du consensus ou à s’entêter à dépasser les contradictions de ce monde, dont les siennes en premier. Mais, pour citer Pierre Corcuff (citant lui-même Maurice Merleau Ponty), « être de plain-pied dans son époque, c’est être pris dans quelque chose d’encore confus, de composite, d’ambigu, qui nous colle à la peau et par rapport auquel une distance partielle peut seulement être prise, tant nos adhérences avec ses évidences demeurent prégnantes[4] ». Et je crois qu’il s’agit là de la raison la plus substantielle pour laquelle je ne me sens pas aujourd’hui suffisamment armé pour continuer de monter au front et participer à déconstruire publiquement, avec extrême rigueur, les composantes plurielles de cette transformation numérique.

Kate Crawford, avec son « Atlas of AI », parvient bien mieux à en effleurer la substance, tout en admettant ses propres limites. Sa tentative d’approche systémique, par une cartographie de l’entier processus en œuvre, de l’extraction des minerais pour élaborer le matériel informatique, à son exploitation en utilisant des quantités considérables d’énergie et à son abandon dans des décharges à ciel ouvert, est certainement la première brique essentielle et fondatrice de toute approche critique[5]. Cette vision du système que nous sommes en train de composer m’a semblé aussi saisissante qu’un spationaute saisi pour la première fois par la rotondité de la Terre.

Expliquer que les formalismes mathématiques et statistiques ne permettent pas nécessairement de contribuer à des prises décisions plus neutres et objectives dans des environnements difficilement modélisables, comme le fonctionnement de notre société, est vraisemblablement la seconde brique de cette pensée critique dont se sont brillamment emparés des auteurs comme Cathy O’Neil[6] ou Pablo Jensen[7] (pour ne citer qu’eux).

Étape que j’ai moi-même essayé de traiter avec beaucoup d’humilité dans la perspective de la transformation numérique de la justice, mais pour laquelle j’ai conscience de n’avoir pu prendre qu’une distance partielle, impropre à convaincre mes pairs. Il n’a donc pas suffi de porter dans le débat public les éléments concrets démontrant le contre-sens évident que constitue l’introduction d’algorithmes traitant statistiquement de la jurisprudence pour en inférer des prévisions de décisions de justice. Assez régulièrement, mon discours a été placé à l’une des extrémités du balancier, les innovations audacieuses d’entrepreneurs se trouvant dans l’autre, pour tenter d’en déduire une voie moyenne[8]. Si l’on peut y percevoir une forme de prudence ou de déformation de la pratique judiciaire cherchant à mettre en balance les arguments contradictoires en présence, ce sujet précis, du fait de son impact profond sur l’essence même de l’exercice juridictionnel, mérite selon moi d’entrer dans la complexité des choses pour en invalider durablement l’usage prescriptif/prédictif/quantitatif/actuariel. Alors oui, l’emploi des capacités descriptives de ces algorithmes sur de la jurisprudence, en complément d’autres protocoles scientifiques pour en éclairer le sens, mérite évidemment un investissement de la recherche (en identifiant précisément ce qui est mesuré – et pas nécessairement la décision elle-même, mais la régularité de son formalisme). Il faut toutefois se ressaisir et arrêter de réactiver, avec le vernis de l’IA, d’assez vieux fantasmes pensant que le droit peut être mathématisé. Aucune révolution fondamentale n’est intervenue dans la matière depuis les tentatives de Leibniz ou de Condorcet, et les limites des différents systèmes de logique déontique sont bien connues.

La fin de mes activités liées à l’étude de l’impact de la transformation numérique n’est toutefois pas le bout de la route. Avec modestie, je sais que les pistes que j’ai empruntées sont déjà fréquentées par d’autres : j’avoue que j’aurais dû mal à ne pas y garder un œil, espérant voir se développer largement un esprit critique constructif sur les technologies numériques. De plus, mon propre parcours professionnel a été marqué par de nombreuses alternances de sujets et de disciplines, afin de conserver un peu de vivacité d’esprit et de ne jamais me laisser enfermer dans le confort de mes propres certitudes. Peut-être étais-je arrivé au point d’en avoir trop sur l’IA.

En attendant, il ne me reste plus qu’à me retrousser les manches et m’investir dans mes nouvelles fonctions en concrétisant, là où cela sera nécessaire, le bon usage des systèmes algorithmiques, dans le contexte tout à fait opérationnel de l’ administration d’une organisation intergouvernementale. Moins que de gloser ou de spéculer, se confronter avec humilité à la rugosité du réel sera tout aussi riche d’enseignements.

J’oubliais : ne soyez pas surpris de voir s’égrainer, jusqu’à l’année prochaine, mes dernières réflexions sur la régulation de l’IA. J’ai quelques textes qui sont toujours en cours de publication – pas de « faux départ » donc.

Avec mes sincères et chaleureux remerciements pour m’avoir suivi durant ces années !


[1] Y. Meneceur, L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020

[2] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union – COM(2021) 206 final

[3] Voir le dernier état des travaux sur https://www.coe.int/cahai

[4] P. Corcuff, La grande confusion : Comment l’extrême droite gagne la bataille des idées, Textuel, 2021, p.46

[5] K. Crawford, Atlas of AI : Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021

[6] C. O’Neil, Weapons of Maths Destruction : How Big Data Increases Inequality and Threatens Democracy, Crown, 2016

[7] P. Jensen, Pourquoi la société ne se laisse pas mettre en équation, Seuil, 2018

[8] Je ne développerai pas ici, par souci de concision, les instrumentalisations ou contre interprétations des mes conclusions en la matière, des intervenants citant les nuances de mes écrits pour légitimer l’emploi de ces techniques.

Change of course

Credits: Cover of the LP Offramp, Pat Metheny, 1982

For those who frequent social networks, it sometimes happens that users announce their departure from these platforms in a very solemn manner – always definitive and without appeal, of course. A virtual translation of slamming the door or hanging up on someone, the regulars of this practice intend to stage their distancing from these networks, sometimes even drawing up lists of grievances accumulated throughout their digital life. Supreme proof of recognition of our era: “memes” have enshrined these theatrical practices, reminding us, for example, that social networks are neither a train station nor an airport and that there is no point in announcing one’s departure (or arrival for that matter).

It is therefore aware of the shortcomings of this practice that I hereby announce, with great humility and sincere gratitude to all my colleagues, friends and relations, the end of my activities related to the study of the impact of digital transformation in September 2021.

Let’s be clear about this approach and my expectations in giving in to it: I obviously don’t expect any tributes (I’m not yet six feet under), nor vibrant praise (if some were ever tempted); even less regrets or encouragement to come back later. Everything is fine with me! This decision is the consequence of a nice promotion leading me to brand new responsibilities of an administrative and budgetary nature within the intergovernmental organisation where I am employed, a promotion that I wanted and desired. But this turning point, carefully prepared and constructed, also owes – I must admit – to the impasses, substantial questioning and introspection concerning the meaning of my contribution in the current debates on digital transformation and artificial intelligence (AI).

I have been interested in theorising on these subjects for a few years. Since 2018 I have been lucky enough to make it a full-time activity, mixing work on regulation projects at the Council of Europe, research work at the IHEJ (Institut des Hautes Études sur la Justice) and teaching at the University of Strasbourg (masters 2 cyberjustice, digital economy law and e-commerce). Not to mention my investment in Amicus Radio with the podcast “Les Temps Électriques” and my involvement in think-tanks, such as the Sapiens Institute. The publication of a book was the culmination of this dynamic, bringing together in detail most of the analyses I had produced on the subject and proposing my views on the content of an international treaty on AI[1]. As a result of a long process of collation, juxtaposition and putting into perspective, I came out of this exercise with some clear convictions: the need, first of all, for binding regulations to frame the development of AI; the need, secondly, to never stop specifying and clarifying the various notions and concepts mobilised in this field in order to feed quality debates, so as to avoid fuelling too many confusions and persistent misunderstandings; Finally, there is a clear need to slow down in order to (re)take the time to agree on the objectives and the meaning of the world we wish to leave to our children, while the market is racing to take advantage of this transformation as quickly as possible and multidimensional competition with uncertain consequences is polarising public policies.

I confess that I have a lot of difficulty in forming an idea of the impact of these reflections. It has to be said that the relationship between the production of a discourse and the effects on the receivers is never easy to decipher. It is also necessary to note a certain saturation of expert discourse in the public arena, and I am aware that I have contributed to this… but let us try to remain objective.

On the one hand, I have accompanied a movement well underway in Europe to regulate digital technologies and AI: the European Commission published a draft regulation[2] in April 2021 and the Council of Europe is in the process of formalising its own[3]. My “plea for regulation” has therefore reflected this reality.

On the other hand, I am aware that some of the key principles of my book are not heard today. For example, if the consequences of the use of algorithms on individuals and society seem sufficiently significant, it might be conceivable to simply limit, or even ban, the use of these technologies in order to continue to prefer other, very human, mechanisms framed by solid procedural guarantees. This proportionality in the use of algorithms seems, of course, somewhat audacious, tinged with an unawareness of the great mechanisms of ‘progress’ that are at work. But I still think that the emergence of a “Rule of algorithms“, replacing the rule of law, and that the environmental and societal impacts of the transformation of our world into data, processed by a vast and – still – heterogeneous system of algorithms, can only be limited by leaving some blind spots. The consensus that has emerged in recent years on digital technology takes for granted the benefits of this transformation (who would oppose innovation?) and none of the current regulatory projects has thoroughly investigated this principle of proportionality, which is certainly absurd for most experts and public decision-makers. Instead, they prefer to accompany the acceleration by essentially seeking ways to create trust in the operation of these machines, through a clever mix of security mechanisms (such as certification – which I have myself supported on many occasions), non-binding mechanisms (including ethics – which I have often criticised) and mechanisms based on fundamental rights.

So yes, there is certainly a supreme form of elegance in continuing to engage vigorously with the headwinds of consensus or in stubbornly overcoming the contradictions of this world, including one’s own first. But, to quote Pierre Corcuff (himself quoting Maurice Merleau Ponty), “to be on its time is to be caught up in something still confused, composite, ambiguous, which sticks to our skin and from which a partial distance can only be taken, so much so that our adherences to its obviousness remain prevalent[4]”. And I believe that this is the most substantial reason why I do not feel sufficiently armed today to continue to go to the front and participate in publicly deconstructing, with extreme rigour, the plural components of this digital transformation.

Kate Crawford’s “Atlas of AI” does a much better job of capturing the substance, while admitting its own limitations. Her attempt at a systemic approach, mapping the entire process from the extraction of the minerals to create the hardware, to its exploitation using vast amounts of energy, to its abandonment in open dumps, is certainly the first essential and foundational brick in any critical approach[5]. This vision of the system we are composing seemed to me to be as striking as a spaceman seized for the first time by the rotundity of the Earth.

Explaining that mathematical and statistical formalisms do not necessarily contribute to more neutral and objective decision-making in environments that are difficult to model, such as the functioning of our society, is probably the second brick of this critical thinking that authors such as Cathy O’Neil [6]or Pablo Jensen[7] (to name but a few) have brilliantly seized upon.

I myself have tried to deal with this issue with a great deal of humility from the perspective of the digital transformation of justice, but I am aware that I have only been able to take a partial distance, which is not enough to convince my peers. It was therefore not enough to bring into the public debate the concrete elements demonstrating the obvious counter-intuitive nature of the introduction of algorithms that statistically process case-law in order to forecast legal decisions. Quite regularly, my speech has been placed at one end of the pendulum, with the bold innovations of entrepreneurs at the other, in an attempt to deduce a middle way[8]. If one can perceive in this a form of prudence or deformation of judicial practice seeking to balance the contradictory arguments in presence, this precise subject, because of its profound impact on the very essence of the jurisdictional exercise, deserves in my opinion to enter into the complexity of things in order to durably invalidate the prescriptive/predictive/quantitative/actuarial use. So yes, the use of the descriptive capacities of these algorithms on jurisprudence, in addition to other scientific protocols to shed light on its meaning, obviously deserves an investment in research (by identifying precisely what is being measured – and not necessarily the decision itself, but the regularity of its formalism). However, we need to wake up and stop reactivating, with the veneer of AI, rather old fantasies that law can be mathematised. No fundamental revolution has occurred in this area since the attempts of Leibniz or Condorcet, and the limits of the various systems of deontic logic are well known.

However, the end of my activities related to the study of the impact of digital transformation is not the end of the road. Modestly, I know that the paths I have taken are already being trodden by others: I confess that It would be hard for me not to keep an eye on them, hoping to see a constructive critical spirit on digital technologies develop widely. Moreover, my own career path has been marked by many alternations of subjects and disciplines, in order to keep my mind sharp and never let myself be locked into the comfort of my own certainties. Perhaps I had reached the point of having too much on AI.

In the meantime, all that remains is for me to roll up my sleeves and invest myself in my new duties by putting into practice, where necessary, the proper use of algorithmic systems, in the fully operational context of the administration of an intergovernmental organisation. Less than glossing over or speculating, confronting the roughness of reality with humility will be just as instructive.

I forgot: don’t be surprised to see my latest thoughts on AI regulation running into next year. I have some texts that are still in the process of being published – so no ‘false starts’.

With my sincere and heartfelt thanks for having followed me during these years!


[1] Y. Meneceur, L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020

[2] Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (artificial intelligence legislation) and amending certain Union legislation – COM(2021) 206 final – https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF

[3] See the latest status of work at https://www.coe.int/cahai

[4] P. Corcuff, La grande confusion : Comment l’extrême droite gagne la bataille des idées, Textuel, 2021, p.46

[5] K. Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021

[6] C. O’Neil, Weapons of Maths Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown, 2016

[7]  P. Jensen, Why society cannot be equated, Seuil, 2018

[8] For the sake of brevity, I will not elaborate here on the instrumentalizations or counter-interpretations of my conclusions on the subject, with some speakers citing the nuances of my writings to legitimize the use of these techniques.

La Pastille électrique #1 : le souffle des legaltech

Emission du 14 avril 2021

Invité : Bruno Deffains, professeur de Sciences Economiques à l’Université Paris II Panthéon-Assas et Directeur du Centre de Recherches en Economie et Droit (CRED)

En attendant le monde d’après la pandémie, Les Temps Électriques vous convient à une série exceptionnelle de « Pastilles électriques » sur Amicus-Radio, format court de l’émission, pour rencontrer, au plus près, les acteurs de la transformation numérique de la justice et du droit.

Continuer la lecture de « La Pastille électrique #1 : le souffle des legaltech »

Chronique de l’émission “Gouvernés par les données ?”

Emission du 30 mars 2021

Invité : Adrien Basdevant, avocat et membre du Conseil National du Numérique

Alain Supiot nous alertait en 2015 dans la Gouvernance par les nombres, des conséquences d’un projet scientiste prenant la forme d’une gouvernance par les nombres et qui se déploie sous l’égide de la « globalisation ». La généralisation de dispositifs dits « d’intelligence artificielle » dans tous les recoins de nos vies ne contribue-t-elle pas à composer cette matrice aussi discrète qu’efficace, en captant sans cesse plus de données ? Ce diagnostic n’est-il pas trop alarmiste ?

Discutant il y a peu avec un ami doublement docteur (il se reconnaîtra), j’ai pris conscience de la fragilité de ma conception du monde, pourtant lentement construite depuis des décennies entre droit et informatique.

Continuer la lecture de « Chronique de l’émission “Gouvernés par les données ?” »

La Chronique IA et numérique en stream, 2ème diffusion !

Deuxième émission du stream “La chronique IA et numérique”, qui traite de l’emploi de l’IA dans la justice. En plus d’une brève revue de l’actualité (liens des articles ci-dessous), Yannick Meneceur reprend, en français, le contenu d’une conférence délivrée à l’International Group of Artificial Intelligence (IGOAI).

Continuer la lecture de « La Chronique IA et numérique en stream, 2ème diffusion ! »

La Chronique IA et numérique en stream

Les Temps Electriques, c’est aussi un stream “La chronique IA et numérique” depuis mars 2021. Le stream aborde l’actualité de l’intelligence artificielle et du numérique sous un angle juridique, avec une vocation grand public. En plus d’une revue de l’actualité, il y sera aussi question de l’impact de transformation numérique sur notre société, avec un ton résolument ouvert.

Continuer la lecture de « La Chronique IA et numérique en stream »

La Chronique IA et numérique en stream, 1ère diffusion !

Harold Epineuse, Secrétaire général adjoint de l’IHEJ et expert au Conseil de l’Europe, a été le premier invité du stream “La chronique IA et numérique”. Le stream aborde l’actualité de l’intelligence artificielle et du numérique sous un angle juridique. En plus d’une lecture de l’actualité, il y sera aussi question cette fois-ci de cyberjustice, de transformation numérique du droit et d’un regard au-delà de nos frontières.

Continuer la lecture de « La Chronique IA et numérique en stream, 1ère diffusion ! »

Chronique de l’émission “L’éthique de l’intelligence artificielle”

Des éthiques à l’éthique

Invité : Emmanuel Goffi, philosophe et directeur de l’Observatoire Éthique & Intelligence Artificielle, de l’Institut Sapiens et professeur en éthique de l’IA à aivancity, School for Technology, Business & Society

L’éthique est partout dans les discours sur l’IA, solution universelle à tous les maux redoutés et révélés.

Il semble communément admis dans l’opinion publique que le numérique ne règlera pas tout et que tout problème n’a pas de solution numérique… l’échec de l’application StopCovid en témoigne de manière sensible.

Continuer la lecture de « Chronique de l’émission “L’éthique de l’intelligence artificielle” »

Chronique de l’émission “L’enquête pénale à l’ère numérique… la suite !”

L’enquête dans “le nuage

Invité : David Bénichou, Vice-président chargé du service de l’instruction au tribunal judiciaire de Rennes

Nous nous interrogions il y a quelques temps sur la manière donc se déroulait l’enquête pénale du XXIème siècle et tenté d’écarter l’idée de policiers, de gendarmes et de magistrats analysant dans un environnement futuriste des éléments de preuve sur des cascades d’écrans géants.

Continuer la lecture de « Chronique de l’émission “L’enquête pénale à l’ère numérique… la suite !” »

Chronique de l’émission “Les legaltechs disruptent-elles le droit ?”

Un regard sur l’impact des legaltechs sur la transformation du marché du droit

Invité : Thomas Saint-Aubin, directeur général de Séraphin.legal et enseignant en droit des données à l’Ecole de droit de La Sorbonne

Medtech, Edtech, Civictech, regtech… legaltech : les startups spécialisées ne cessent de s’adapter à leur environnement en créant leur propre dénomination.

La novlangue numérique s’y déploie avec force, riche de disruption, où les digital evangelist tentant de convaincre dans des pitchs qu’il est toujours possible de hacker les innovations dans les process… on se fait un call pour organiser un hackathon ?

Continuer la lecture de « Chronique de l’émission “Les legaltechs disruptent-elles le droit ?” »