Pour en finir avec les fantasmes de l’open data des décisions de justice

L’Assemblée nationale vient d’adopter ce 9 novembre 2018 un amendement extrêmement technique à l’article 19 de la loi de programmation 2019-2022 et de réforme pour la justice, portant sur l’ouverture libre au téléchargement de la base de données de toutes décisions de justice (open data). Cet amendement tranche la question de la mention des noms des magistrats et des fonctionnaires de greffe dans cette base informatique structurée, en posant un principe de publicité, sauf « à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage ».

En témoin extérieur, il n’y aurait là rien d’anormal à ce que les décisions de justice, par nature rendues au nom du peuple français et publiques, portent mention des noms des professionnels ayant concouru à la prise de décision. Ce serait même la traduction numérique d’une obligation connue de publicité des décisions de justice, déjà codifiée[1]. Pourtant, cet amendement cherche à atteindre un autre objectif, non mentionné dans l’exposé des motifs : celui de pouvoir profiler les juges.

1/ Distinguer les finalités propres de la publicité des décisions de justice de celles de l’open data

Clarifions immédiatement le débat afin de prévenir toute confusion : la publicité unitaire des décisions est déjà assurée dans les jugements papiers délivrés aux parties. Les critiques portant sur la mention de noms dans l’open data n’entendent absolument remettre en cause ces dispositions. Par ailleurs, une sélection de décisions de justice sont déjà disponibles de manière dématérialisée et pseudonymisée[2] sur Legifrance.fr (service public de la diffusion du droit par l’internet). Ce moteur de recherche permet par exemple, à l’aide de mots-clés, d’accéder à une version électronique des décisions judiciaires de la Cour de cassation et à une sélection de décisions de degré inférieur. En totale conformité avec les dispositions de la loi informatique et libertés (et au RGPD), le nom des parties est occulté et le nom des professionnels maintenu dans cette publication électronique. Là encore, les débats ne portent pas sur cette situation. Qu’est-ce qu’il y aurait donc de neuf avec l’open data ? Certainement pas une simple extension du nombre de décisions publiées sur Légifrance.

Revenons tout d’abord au changement complet de paradigme opéré par les articles 20 et 21 de la loi pour une République numérique d’octobre 2016, qui ont déjà totalement renversé la logique de publicité des décisions : d’un principe de sélection de décisions présentant un intérêt particulier résultant du décret du 7 août 2002[3], l’idée est désormais de (quasiment) tout rendre public. Mais pas d’un point de vue unitaire avec une interface de moteur de recherche comme Légifrance comme moyen d’accès, mais d’un point de vue global et systémique : au sens strict, l’open data c’est une base de données informatique brute, librement téléchargeable, et dont la licence autorise à en réemployer son contenu sans le paiement d’une redevance à son producteur. Il faut donc bien distinguer les obligations de publicité des décisions, déjà remplies par les juridictions lors de la délivrance des jugements papiers (et de manière compréhensible pour les citoyens sur Légifrance), avec les objectifs propres de l’open data des décisions de justice : rendre accessibles à tous les opérateurs (publics et privés) des données pouvant être retraitées informatiquement à volonté. Et quand on parle d’accessibilité, on ne parle pas d’intelligibilité. Ces bases de données brutes sont en effet totalement incompréhensibles pour la plupart des citoyens et ne présentent d’intérêt que pour des techniciens sachant les retraiter. On qualifie souvent les données de pétrole du XXIème siècle : l’open data est d’une certaine manière du pétrole brut gratuit à destination de raffineurs. Prêter des vertus de transparence à l’open data, c’est donc d’abord espérer que des tiers puissent s’en saisir pour créer du sens et de la valeur.

2/ Comprendre le sens et la valeur du traitement du nom des juges par des algorithmes

Et c’est bien là que se sont situés les débats postérieurs à la loi pour une République numérique, clarifiés par une mission d’étude et de préfiguration confiée au professeur Loïc Cadiet (dont les conclusions ont été rendues en novembre 2017[4]). Si cette ouverture de données ne concernait que des données non-nominatives, il n’y aurait guère de difficulté. Mais les possibilités de traitement et de croisement de noms ainsi classifiés dans une base de données rendent extrêmement sensible la question. Et le fait qu’il s’agisse de noms de professionnels, comme les magistrats, dont il convient de garantir l’indépendance et l’impartialité rend encore plus délicate cette question.

Les débats ont fait rage et tout semble s’y être mélangé. D’abord la confusion entre l’obligation de publicité et les objectifs propres de l’open data, venant de l’incompréhension totale du terme lui-même (certains ont pensé débattre des algorithmes de traitement, d’autres ont cru qu’il s’agissait de supprimer le nom des magistrats des décisions accessibles de manière unitaire sans imaginer qu’il s’agissait en réalité de la question de livrer tout le coffre au trésor, c’est-à-dire une base de données nominative). Ensuite en alimentant des soupçons corporatistes sur les magistrats qui ne résisteraient que pour éviter de rendre des comptes. Enfin, les affirmations, approximatives, de l’Assemblée nationale selon lesquelles la précédente rédaction de cet article par le Sénat aurait eu « pour effet d’empêcher l’open data des décisions de justice » en ce que « elle imposerait un objectif impossible à atteindre, sauf à effacer des parties entières des décisions de justice avant leur diffusion au public, ce qui rendrait les décisions de justice illisibles et inexploitables ». Il était question d’au moins pseudonymiser le nom des juges, non de l’anonymiser ! Tout cela a habilement occulté la question centrale qui aurait pourtant dû être traitée avant toute autre considération. Quel est le sens et la valeur du traitement d’une telle donnée nominative ?

L’exploitation des noms des présidents de formation de jugement des juridictions administratives (déjà partiellement en open data) avait pourtant permis de percevoir l’inanité d’un indicateur nominatif du taux de rejet de recours contre les obligations de quitter le territoire français[5]. Il paraissait non seulement improbable de penser isoler la tendance décisionnelle d’un président d’une formation juridictionnelle collégiale (dont la composition est par essence variable dans le temps) mais, surtout, la corrélation établie peinait à révéler une réelle cause. D’un point de vue scientifique, en effet, expliquer un comportement humain (celui d’un juge), revient à déterminer les mécanismes de causalité ayant conduit à ce comportement en présence d’un certain nombre de données contextuelles. Cela nécessite la constitution préalable d’un cadre interprétatif, constitué par les hypothèses ou points de vue adoptés par les différentes disciplines des sciences sociales[6]. Or, la seule corrélation statistique entre deux événements est insuffisante pour expliquer les facteurs réellement causatifs[7]. Appliqué au droit et aux décisions judiciaires, on mesure immédiatement ce qu’il peut y avoir de scientifiquement erroné et d’idéologique dans l’ambition de tenter de rendre objective la décision des juges grâce à des algorithmes moulinant de l’open data. Fournir une véritable explication d’un jugement nécessiterait une analyse beaucoup plus fine des données de chaque affaire et ne saurait naître spontanément d’une masse de liens lexicaux dans lesquels figure le nom d’un magistrat. Par exemple, le fait qu’un juge aux affaires familiales fixe statistiquement davantage la résidence habituelle d’un enfant chez la mère dans un ressort déterminé ne traduit pas nécessairement un parti-pris de ce magistrat en faveur des femmes, mais s’explique davantage par l’existence de facteurs sociaux-économiques et culturels propres à la population de sa juridiction[8].

3/ Et si la structuration des tuyaux de l’open data était la toute une première priorité ?

Les juges ne cherchent donc pas à être encagoulés comme l’affirmait le Canard Enchaîné le 25 avril 2018, ils n’ont pas à rougir pas de leurs décisions. Mais ils craignent des explications faussées et biaisées des décisions de justice qu’ils rendent. Car un profilage des juges qui confondrait outrancièrement corrélation et causalité viendrait profiter à des grands opérateurs économiques, à même de manipuler (dans tous les sens du terme) cette information… et probablement au détriment des citoyens que nous sommes.  

L’on perd malheureusement de vue la toute première priorité dans cette affaire : arriver à structurer les tuyaux de l’open data, puisque, à ce jour, ils n’existent que très partiellement. Il y a là un défi technique majeur à parvenir tout simplement à regrouper toutes les décisions judiciaires dans un format nativement numérique et à les pseudonymiser, défi pour lequel il conviendrait avant tout de donner des moyens substantiels au ministère de la justice, à la Cour de cassation et aux juridictions. Bien sûr, les éditeurs et des legaltechs préféreraient des flux « intègres » (c’est-à-dire des décisions dont les données nominatives ne seraient pas occultées) pour opérer eux-mêmes une pseudonymisation, mais il sera bien temps d’ouvrir progressivement les vannes de ce que l’on déverse dans la jungle numérique une fois que l’on aura clarifié, par un travail scientifique rigoureux soucieux de l’intérêt général, si l’on peut arriver à donner du sens et de la valeur à ces données sans compromettre quelques principes fondamentaux.


Les présents développements focalisent principalement sur les décisions judiciaires et le nom des magistrats – les problèmes demeurent identiques en ce qui concerne les décisions des juridictions administratives et il ne sera mentionné que l’expérience menée par le sitesupralegem.fr ; les enjeux spécifiques de la présence du nom des greffiers, des avocats ou d’autres professionnels ne seront pas développés ici mais demeurent également à questionner.

[1] L’article 454 du Code de procédure civile par exemple dispose : « Le jugement est rendu au nom du peuple français. Il contient l’indication : de la juridiction dont il émane ;  du nom des juges qui en ont délibéré ; de sa date ; du nom du représentant du ministère public s’il a assisté aux débats ; du nom du secrétaire ; des nom, prénoms ou dénomination des parties ainsi que de leur domicile ou siège social ; le cas échéant, du nom des avocats ou de toute personne ayant représenté ou assisté les parties ; en matière gracieuse, du nom des personnes auxquelles il doit être notifié. »

[2] La pseudonymisation ou « anonymisation réversible » consiste à remplacer un attribut par un autre dans un enregistrement. La personne physique n’est donc plus directement identifiable par son nom (qui est remplacé par exemple par un X…) mais elle est toujours susceptible d’être identifiée indirectement, par croisement de plusieurs données.

[3] Article R. 433-3 du code de l’organisation judiciaire

[4] L’open data des décisions de justice, mission d’études et de préfiguration sur l’ouverture au public des décisions de justice, Rapport à Madame la garde des Sceaux, ministre de la justice, novembre 2017 : http://www.justice.gouv.fr/publication/open_data_rapport.pdf

[5] M. Benesty, L’impartialité des juges mise à mal par l’intelligence artificielle in Village de la justice, Tribunes et point de vue du 24 mars 2016 ; www.village-justice.com/articles/impartialite-certains-juges-mise,21760.html – le contenu du site Supralegem.fr n’est désormais plus accessible et l’adresse redirige vers dalloz.fr

[6] Sur cette question, V. N. Regis, Juger, est-ce interpréter ? : Cahiers Philosophiques, Canopé éd., 2016, n° 147, p. 36-37.

[7] Voir le site internet Spurious Correlation qui recense un grand nombre de corrélations fallacieuses, tel qu’un taux de correspondance à plus de 99% entre 2000 et 2009 entre le nombre divorces dans l’Etat du Maine et la consommation de margarine par habitant – http://tylervigen.com/spurious-correlations

[8] Pour de plus amples développements, voir Y. Meneceur, Quel avenir pour une justice prédictive : JCP G 2018, doctr.190.

Petite histoire de l’intelligence artificielle…

Ce que nous enseignent les trois âges d’or de l’IA

L’intelligence artificielle (IA) est une discipline jeune d’une soixante d’années, qui est un ensemble de sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle, informatique) qui ambitionne d’imiter les capacités cognitives d’un être humain. Initiés dans le souffle de la seconde guerre mondiale, ses développements sont intimement liés à ceux de l’informatique et ont conduit les ordinateurs à réaliser des tâches de plus en plus complexes, qui ne pouvaient être auparavant que déléguées à un humain.

Cette automatisation demeure toutefois loin d’une intelligence humaine au sens strict, ce qui rend la dénomination critiquable pour certains experts. Le stade ultime de leurs recherches (une IA « forte », c’est-à-dire en capacité de contextualiser des problèmes spécialisés très différents de manière totalement autonome) n’est absolument pas comparable aux réalisations actuelles (des IA « faibles » ou « modérées », extrêmement performantes dans leur domaine d’entraînement). L’IA « forte », qui ne s’est encore matérialisée qu’en science-fiction, nécessiterait des progrès en recherche fondamentale (et non de simples améliorations de performance) pour être en capacité de modéliser le monde dans son ensemble.

Depuis 2010, la discipline connaît toutefois un nouvel essor du fait, principalement, de l’amélioration considérable de la puissance de calcul des ordinateurs et d’un accès à des quantités massives de données.

Les promesses, renouvelées, et les inquiétudes, parfois fantasmées, complexifient une compréhension objective du phénomène. De brefs rappels historiques peuvent contribuer à situer la discipline et éclairer les débats actuels.

1940-1960 : Naissance de l’IA dans le sillage de la cybernétique

L’époque entre 1940 et 1960 a été fortement marquée par la conjonction de développements technologiques (dont la seconde guerre mondiale a été un accélérateur) et la volonté de comprendre comment faire se rejoindre le fonctionnement des machines et des êtres organiques . Ainsi pour Norbert Wiener, pionnier de la cybernétique, l’objectif était d’unifier la théorie mathématique, l’électronique et l’automatisation en tant que « théorie entière de la commande et de la communication, aussi bien chez l’animal que dans la machine » [1]. Juste auparavant, un premier modèle mathématique et informatique du neurone biologique (neurone formel) avait été mis au point par Warren McCulloch et Walter Pitts dès 1943[2].

Début 1950, John Von Neumann et Alan Turing ne vont pas créer le terme d’IA mais vont être les pères fondateurs de la technologie qui la sous-tend : ils ont opéré la transition entre les calculateurs à la logique décimale du XIXème siècle (qui traitaient donc des valeurs de 0 à 9) et des machines à la logique binaire (qui s’appuient sur l’algèbre booléenne, traitant des chaines plus ou moins importantes de 0 ou de 1[3]). Les deux chercheurs ont ainsi formalisé l’architecture de nos ordinateurs contemporains et ont démontré qu’il s’agissait là d’une machine universelle, capable d’exécuter ce qu’on lui programme. Turing posera bien en revanche pour la première fois la question de l’éventuelle intelligence d’une machine dans son célèbre article de 1950 « Computing Machinery and Intelligence[4] » et a décrit un « jeu de l’imitation », où un humain devrait arriver à distinguer lors d’un dialogue par téléscripteur s’il converse avec un homme ou une machine. Pour polémique que soit cet article (ce « test de Turing » n’apparaît pas qualifiant pour nombre d’experts), il sera souvent cité comme étant à la source du questionnement de la limite entre l’humain et la machine.

La paternité du  terme « IA » pourrait être attribué à John McCarthy du MIT (Massachusetts Institute of Technology), terme que Marvin Minsky (université de Carnegie-Mellon) définit comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». La conférence durant l’été 1956 au Dartmouth College (financée par le Rockefeller Institute) est considérée comme fondatrice de la discipline. De manière anecdotique, il convient de relever le grand succès d’estime de ce qui n’était pas une conférence mais plutôt un atelier de travail. Seulement six personnes, dont McCarthy et Minsky, étaient restées présentes de manière constante tout au long de ces travaux (qui s’appuyaient essentiellement sur des développements basés sur de la logique formelle).

Il s’agissait peut-être là d’un signal. Si la technologie demeurait fascinante et remplie de promesse (voir notamment dans le domaine judiciaire l’article de Reed C.Lawlor, avocat au barreau de Californie, de 1963 « What Computers Can Do : Analysis and Prediction of Judicial Decisions »), l’engouement est retombé au début des années 1960. Les machines disposaient en effet de très peu de mémoire, rendant malaisé l’utilisation d’un langage informatique. On y retrouvait toutefois déjà certains fondements encore présents aujourd’hui comme les arbres de recherche de solution pour résoudre des problèmes : l’IPL, information processing language,  avait permis ainsi d’écrire dès 1956 le programme LTM (logic theorist machine) qui visait à démontrer des théorèmes mathématiques.

Herbert Simon, économiste et sociologue, a eu beau prophétiser en 1957 que l’IA arriverait à battre un humain aux échecs dans les  10 années qui suivraient, l’IA est entrée alors dans un premier hiver. La vision de Simon s’avérera pourtant juste… 30 années plus tard.

 

1980-1990 : Les systèmes experts

En 1968 Stanley Kubrick réalisera le film « 2001 l’Odyssée de l’espace » où un ordinateur – HAL 9000 (distant que d’une seule lettre de celles d’IBM) résume en lui-même toute la somme de questions éthiques posées par l’IA : arrivée à un haut niveau de sophistication, celle-ci représentera-t-elle un bien pour l’humanité ou un danger ? L’impact du film ne sera naturellement pas scientifique mais il contribuera à vulgariser le thème, tout comme l’auteur de science-fiction Philip K. Dick, qui ne cessera de s’interroger si, un jour, les machines éprouveront des émotions (Les androïdes rêvent-ils de moutons électriques ?).

C’est avec l’avènement des premiers microprocesseurs fin 1970 que l’IA reprend un nouvel essor et entre dans l’âge d’or des systèmes experts.

La voie avait été en réalité ouverte au MIT dès 1965 avec DENDRAL (système expert spécialisé dans la chimie moléculaire) et à l’université de Stanford en 1972 avec MYCIN (système spécialisé dans le diagnostic des maladies du sang et la prescription de médicaments). Ces systèmes s’appuyaient sur un « moteur d’inférence », qui était programmé pour être un miroir logique d’un raisonnement humain. En entrant des données, le moteur fournissait ainsi des réponses d’un haut niveau d’expertise.

Les promesses laissaient envisager un développement massif mais l’engouement retombera à nouveau fin 1980, début 1990. La programmation de telles connaissances demandait en réalité beaucoup d’efforts et à partir de 200 à 300 règles, il y avait un effet « boîte noire » où l’on ne savait plus bien comment la machine raisonnait. La mise au point et la maintenance devenaient ainsi extrêmement problématiques et – surtout – on arrivait à faire plus vite et aussi bien d’autres manières moins complexes, moins chères. Il faut rappeler que dans les années 1990, le terme d’intelligence artificielle était presque devenu tabou et des déclinaisons plus pudiques étaient même entrées dans le langage universitaire, comme « informatique avancée ».

Le succès en mai 1997 de Deep Blue (système expert d’IBM) au jeu d’échec contre Garry Kasparov concrétisera 30 ans plus tard la prophétie de 1957 d’Herbert Simon mais ne permettra pas de soutenir les financements et les développements de cette forme d’IA. Le fonctionnement de Deep Blue s’appuyait en effet sur un algorithme systématique de force brute, où tous les coups envisageables étaient évalués et pondérés. La défaite de l’humain est restée très symbolique dans l’histoire mais Deep Blue n’était en réalité parvenu à ne traiter qu’un périmètre très limité (celui des règles du jeu d’échec), très loin de la capacité à modéliser la complexité du monde.

L’histoire n’était pas encore terminée…

Depuis 2010 : un nouvel essor à partir des données massives et d’une nouvelle puissance de calcul

Deux facteurs expliquent le nouvel essor de la discipline aux alentours de 2010.

  • L’accès tout d’abord à des volumes massifs des données. Pour pouvoir utiliser des algorithmes de classification d’image et de reconnaissance d’un chat par exemple, il fallait auparavant réaliser soi-même un échantillonnage. Aujourd’hui, une simple recherche sur Google permet d’en trouver des millions.
  • Ensuite la découverte de la très grande efficacité des processeurs de cartes graphiques des ordinateurs pour accélérer le calcul des algorithmes d’apprentissage. Le processus étant très itératif, cela pouvait prendre des semaines avant 2010 pour traiter l’intégralité d’un échantillonnage. La puissance de calcul de ces cartes, (capables de plus de mille milliards d’opérations par seconde) a permis un progrès considérable pour un coût financier restreint (moins de 1000 euros la carte).

Ce nouvel attirail technologique a permis quelques succès publics significatifs et a relancé les financements : en 2011, Watson, l’IA d’IBM, remportera les parties contre 2 champions du « Jeopardy ! ». En 2012, Google X (laboratoire de recherche de Google) arrivera à faire reconnaître à une IA des chats sur une vidéo. Plus de 16 000 processeurs ont été utilisés pour cette dernière tâche, mais le potentiel est alors extraordinaire : une machine arrive à apprendre à distinguer quelque chose. En 2016, AlphaGO (IA de Google spécialisée dans le jeu de Go) battra le champion d’Europe (Fan Hui) et le champion du monde (Lee Sedol) puis elle-même (AlphaGo Zero). Précisons que le jeu de Go a une combinatoire bien plus importante que les échecs (plus que le nombre de particules dans l’univers) et qu’il n’est pas possible d’avoir des résultats aussi significatifs en force brute (comme pour Deep Blue en 1997).

D’où vient ce miracle ? D’un changement complet de paradigme par rapport aux systèmes experts. L’approche est devenue inductive : il ne s’agit plus de coder les règles comme pour les systèmes experts, mais de laisser les ordinateurs les découvrir seuls par corrélation et classification, sur la base d’une quantité massive de données.

Parmi les techniques d’apprentissage machine (machine learning),  c’est celle de l’apprentissage profond (deep learning) qui paraît la plus prometteuse pour un certain nombre d’application (dont la reconnaissance de voix ou d’images). Dès 2003, Geoffrey Hinton (de l’Université de Toronto), Yoshua Bengio (de l’Université de Montréal) et Yann LeCun (de l’Université de New York) avaient décidé de démarrer un programme de recherche pour remettre au goût du jour les réseaux neuronaux. Des expériences menées simultanément à Microsoft, Google et IBM avec l’aide du laboratoire de Toronto de Hinton ont alors démontré que ce type d’apprentissage parvenait à diminuer de moitié les taux d’erreurs pour la reconnaissance vocale. Des résultats similaires ont été atteints par l’équipe de Hinton pour la reconnaissance d’image.

Du jour au lendemain, une grande majorité des équipes de recherche se sont tournées vers cette technologie aux apports incontestables. Ce type d’apprentissage a aussi permis des progrès considérables pour la reconnaissance de texte, mais, d’après les experts comme Yann LeCun, il y a encore beaucoup de chemin à parcourir pour produire des systèmes de compréhension de texte. Les agents conversationnels illustrent bien ce défi : nos smartphones savent déjà retranscrire une instruction mais ne parviennent pas la contextualiser pleinement et à analyser nos intentions.

Et après… quels enjeux ?

Le premier enjeu est technique et formel. Les équipes de recherches continuent à investir de nouvelles approches d’apprentissage, en miroir de la manière dont l’humain apprend. Nul doute que l’apprentissage machine en sera simplifié et rendu plus accessible.

Le second enjeu est politique et de fond. Le traitement de forts volumes de données révèlent les biais qui y sont cachés (masculin / féminin, riche / pauvre, etc). Croisés avec d’autres paramètres sensibles (appartenance politique, religion, maladie, délinquance), des résultats catastrophiques sont prévisibles. L’algorithme COMPAS aux Etats-Unis et HART en Grande-Bretagne, censés évaluer le risque de récidive des individus, pondèrent négativement les populations les plus précaires et de certaines origines ethniques. Non parce qu’ils ont été conçus pour cela, mais parce que ces biais n’ont pas été neutralisés lors de leur conception et que le résultat a une vocation prescriptive. Ce qui en fait un système déterministe socialement.

Il ne faut donc pas craindre dans un immédiat (même lointain) l’IA « forte », prédite par Stephen Hawking, Elon Musk ou celle des écrivains de science-fiction, qui se coderait plus vite que la génétique biologique et qui éradiquerait l’humanité. La capacité de mise en relation des IA avec le monde  réel est très faible car elle n’a finalement que très peu de capteurs : elle vit d’une certaine manière en autiste dans ses modèles spécialisés de données, qui sont ne sont que très peu mis en relation entre eux ou avec le monde réel.

Il faut en revanche craindre le « solutionnisme », tel que défini par Evgeny Moroz[5]. Si les résultats de l’IA sont spectaculaires dans certains domaines bien précis, il en est d’autres où l’utilisation de ces technologies requiert une grande prudence à traduire par une approche pluridisciplinaire, mêlant ingénierie informatique et sciences sociales. Les enjeux sociétaux et les problèmes individuels ne peuvent évidemment pas trouver de solution aussi simpliste et universelle par les seules nouvelles technologies. On peut imaginer que pour certains concepteurs, cherchant des applications financièrement rentables, « tout ressemble à un clou » parce qu’ils ont à leur disposition ce qu’ils pensent être un marteau universel. La difficulté en tant que tel ne vient d’ailleurs moins des solutions proposées (parfois pertinentes), mais du fait d’apporter des réponses avant même d’avoir compris l’entier problème et d’avoir posé toutes les questions.

L’histoire qui reste à écrire n’est donc pas le futur brillant prédit par Raymond Kurzweil, imaginant un transhumanisme éloignant le genre humain de ses vicissitudes grâce aux seules technologies. Elle n’est certainement pas celle qui serait bâtie par des luddites modernes, refusant tout apport des technologies par simple réaction à un monde nouveau et inconfortable. Imaginons plutôt, comme toujours, une histoire de conquête qui sera inévitablement parsemée d’événements sombres pour arriver à circonscrire ce que ces technologies ont de meilleur.

Animateur des Temps Electriques


Aller plus loin ?


Notes

[1] Le concept est développé dans son ouvrage en 1948 « Cybernetics or Control and Communication in the Animal and the Machine »

[2] Le neurone formel est un neurone binaire, dont la sortie vaut 0 ou 1. Le calcul est effectué sur la base d’une somme pondérée de ses entrées (d’une valeur provenant d’autres neurones, donc 0 ou 1), sur laquelle est appliquée une fonction d’activation à seuil. Si la somme pondérée est au-dessus d’une certaine valeur, la sortie du neurone est 1, sinon elle vaut 0.

[3] Les ordinateurs actuels, dont certainement le vôtre, manipulent de manière tout à fait commune une chaîne de 64 valeurs binaires (bits).

[4] Mind, octobre 1950.

[5] E. Morozov, Pour tout résoudre, cliquez ici, FYP éditions, 2014.