Pour en finir avec les fantasmes de l’open data des décisions de justice

L’Assemblée nationale vient d’adopter ce 9 novembre 2018 un amendement extrêmement technique à l’article 19 de la loi de programmation 2019-2022 et de réforme pour la justice, portant sur l’ouverture libre au téléchargement de la base de données de toutes décisions de justice (open data). Cet amendement tranche la question de la mention des noms des magistrats et des fonctionnaires de greffe dans cette base informatique structurée, en posant un principe de publicité, sauf « à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage ».

En témoin extérieur, il n’y aurait là rien d’anormal à ce que les décisions de justice, par nature rendues au nom du peuple français et publiques, portent mention des noms des professionnels ayant concouru à la prise de décision. Ce serait même la traduction numérique d’une obligation connue de publicité des décisions de justice, déjà codifiée[1]. Pourtant, cet amendement cherche à atteindre un autre objectif, non mentionné dans l’exposé des motifs : celui de pouvoir profiler les juges.

1/ Distinguer les finalités propres de la publicité des décisions de justice de celles de l’open data

Clarifions immédiatement le débat afin de prévenir toute confusion : la publicité unitaire des décisions est déjà assurée dans les jugements papiers délivrés aux parties. Les critiques portant sur la mention de noms dans l’open data n’entendent absolument remettre en cause ces dispositions. Par ailleurs, une sélection de décisions de justice sont déjà disponibles de manière dématérialisée et pseudonymisée[2] sur Legifrance.fr (service public de la diffusion du droit par l’internet). Ce moteur de recherche permet par exemple, à l’aide de mots-clés, d’accéder à une version électronique des décisions judiciaires de la Cour de cassation et à une sélection de décisions de degré inférieur. En totale conformité avec les dispositions de la loi informatique et libertés (et au RGPD), le nom des parties est occulté et le nom des professionnels maintenu dans cette publication électronique. Là encore, les débats ne portent pas sur cette situation. Qu’est-ce qu’il y aurait donc de neuf avec l’open data ? Certainement pas une simple extension du nombre de décisions publiées sur Légifrance.

Revenons tout d’abord au changement complet de paradigme opéré par les articles 20 et 21 de la loi pour une République numérique d’octobre 2016, qui ont déjà totalement renversé la logique de publicité des décisions : d’un principe de sélection de décisions présentant un intérêt particulier résultant du décret du 7 août 2002[3], l’idée est désormais de (quasiment) tout rendre public. Mais pas d’un point de vue unitaire avec une interface de moteur de recherche comme Légifrance comme moyen d’accès, mais d’un point de vue global et systémique : au sens strict, l’open data c’est une base de données informatique brute, librement téléchargeable, et dont la licence autorise à en réemployer son contenu sans le paiement d’une redevance à son producteur. Il faut donc bien distinguer les obligations de publicité des décisions, déjà remplies par les juridictions lors de la délivrance des jugements papiers (et de manière compréhensible pour les citoyens sur Légifrance), avec les objectifs propres de l’open data des décisions de justice : rendre accessibles à tous les opérateurs (publics et privés) des données pouvant être retraitées informatiquement à volonté. Et quand on parle d’accessibilité, on ne parle pas d’intelligibilité. Ces bases de données brutes sont en effet totalement incompréhensibles pour la plupart des citoyens et ne présentent d’intérêt que pour des techniciens sachant les retraiter. On qualifie souvent les données de pétrole du XXIème siècle : l’open data est d’une certaine manière du pétrole brut gratuit à destination de raffineurs. Prêter des vertus de transparence à l’open data, c’est donc d’abord espérer que des tiers puissent s’en saisir pour créer du sens et de la valeur.

2/ Comprendre le sens et la valeur du traitement du nom des juges par des algorithmes

Et c’est bien là que se sont situés les débats postérieurs à la loi pour une République numérique, clarifiés par une mission d’étude et de préfiguration confiée au professeur Loïc Cadiet (dont les conclusions ont été rendues en novembre 2017[4]). Si cette ouverture de données ne concernait que des données non-nominatives, il n’y aurait guère de difficulté. Mais les possibilités de traitement et de croisement de noms ainsi classifiés dans une base de données rendent extrêmement sensible la question. Et le fait qu’il s’agisse de noms de professionnels, comme les magistrats, dont il convient de garantir l’indépendance et l’impartialité rend encore plus délicate cette question.

Les débats ont fait rage et tout semble s’y être mélangé. D’abord la confusion entre l’obligation de publicité et les objectifs propres de l’open data, venant de l’incompréhension totale du terme lui-même (certains ont pensé débattre des algorithmes de traitement, d’autres ont cru qu’il s’agissait de supprimer le nom des magistrats des décisions accessibles de manière unitaire sans imaginer qu’il s’agissait en réalité de la question de livrer tout le coffre au trésor, c’est-à-dire une base de données nominative). Ensuite en alimentant des soupçons corporatistes sur les magistrats qui ne résisteraient que pour éviter de rendre des comptes. Enfin, les affirmations, approximatives, de l’Assemblée nationale selon lesquelles la précédente rédaction de cet article par le Sénat aurait eu « pour effet d’empêcher l’open data des décisions de justice » en ce que « elle imposerait un objectif impossible à atteindre, sauf à effacer des parties entières des décisions de justice avant leur diffusion au public, ce qui rendrait les décisions de justice illisibles et inexploitables ». Il était question d’au moins pseudonymiser le nom des juges, non de l’anonymiser ! Tout cela a habilement occulté la question centrale qui aurait pourtant dû être traitée avant toute autre considération. Quel est le sens et la valeur du traitement d’une telle donnée nominative ?

L’exploitation des noms des présidents de formation de jugement des juridictions administratives (déjà partiellement en open data) avait pourtant permis de percevoir l’inanité d’un indicateur nominatif du taux de rejet de recours contre les obligations de quitter le territoire français[5]. Il paraissait non seulement improbable de penser isoler la tendance décisionnelle d’un président d’une formation juridictionnelle collégiale (dont la composition est par essence variable dans le temps) mais, surtout, la corrélation établie peinait à révéler une réelle cause. D’un point de vue scientifique, en effet, expliquer un comportement humain (celui d’un juge), revient à déterminer les mécanismes de causalité ayant conduit à ce comportement en présence d’un certain nombre de données contextuelles. Cela nécessite la constitution préalable d’un cadre interprétatif, constitué par les hypothèses ou points de vue adoptés par les différentes disciplines des sciences sociales[6]. Or, la seule corrélation statistique entre deux événements est insuffisante pour expliquer les facteurs réellement causatifs[7]. Appliqué au droit et aux décisions judiciaires, on mesure immédiatement ce qu’il peut y avoir de scientifiquement erroné et d’idéologique dans l’ambition de tenter de rendre objective la décision des juges grâce à des algorithmes moulinant de l’open data. Fournir une véritable explication d’un jugement nécessiterait une analyse beaucoup plus fine des données de chaque affaire et ne saurait naître spontanément d’une masse de liens lexicaux dans lesquels figure le nom d’un magistrat. Par exemple, le fait qu’un juge aux affaires familiales fixe statistiquement davantage la résidence habituelle d’un enfant chez la mère dans un ressort déterminé ne traduit pas nécessairement un parti-pris de ce magistrat en faveur des femmes, mais s’explique davantage par l’existence de facteurs sociaux-économiques et culturels propres à la population de sa juridiction[8].

3/ Et si la structuration des tuyaux de l’open data était la toute une première priorité ?

Les juges ne cherchent donc pas à être encagoulés comme l’affirmait le Canard Enchaîné le 25 avril 2018, ils n’ont pas à rougir pas de leurs décisions. Mais ils craignent des explications faussées et biaisées des décisions de justice qu’ils rendent. Car un profilage des juges qui confondrait outrancièrement corrélation et causalité viendrait profiter à des grands opérateurs économiques, à même de manipuler (dans tous les sens du terme) cette information… et probablement au détriment des citoyens que nous sommes.  

L’on perd malheureusement de vue la toute première priorité dans cette affaire : arriver à structurer les tuyaux de l’open data, puisque, à ce jour, ils n’existent que très partiellement. Il y a là un défi technique majeur à parvenir tout simplement à regrouper toutes les décisions judiciaires dans un format nativement numérique et à les pseudonymiser, défi pour lequel il conviendrait avant tout de donner des moyens substantiels au ministère de la justice, à la Cour de cassation et aux juridictions. Bien sûr, les éditeurs et des legaltechs préféreraient des flux « intègres » (c’est-à-dire des décisions dont les données nominatives ne seraient pas occultées) pour opérer eux-mêmes une pseudonymisation, mais il sera bien temps d’ouvrir progressivement les vannes de ce que l’on déverse dans la jungle numérique une fois que l’on aura clarifié, par un travail scientifique rigoureux soucieux de l’intérêt général, si l’on peut arriver à donner du sens et de la valeur à ces données sans compromettre quelques principes fondamentaux.


Les présents développements focalisent principalement sur les décisions judiciaires et le nom des magistrats – les problèmes demeurent identiques en ce qui concerne les décisions des juridictions administratives et il ne sera mentionné que l’expérience menée par le sitesupralegem.fr ; les enjeux spécifiques de la présence du nom des greffiers, des avocats ou d’autres professionnels ne seront pas développés ici mais demeurent également à questionner.

[1] L’article 454 du Code de procédure civile par exemple dispose : « Le jugement est rendu au nom du peuple français. Il contient l’indication : de la juridiction dont il émane ;  du nom des juges qui en ont délibéré ; de sa date ; du nom du représentant du ministère public s’il a assisté aux débats ; du nom du secrétaire ; des nom, prénoms ou dénomination des parties ainsi que de leur domicile ou siège social ; le cas échéant, du nom des avocats ou de toute personne ayant représenté ou assisté les parties ; en matière gracieuse, du nom des personnes auxquelles il doit être notifié. »

[2] La pseudonymisation ou « anonymisation réversible » consiste à remplacer un attribut par un autre dans un enregistrement. La personne physique n’est donc plus directement identifiable par son nom (qui est remplacé par exemple par un X…) mais elle est toujours susceptible d’être identifiée indirectement, par croisement de plusieurs données.

[3] Article R. 433-3 du code de l’organisation judiciaire

[4] L’open data des décisions de justice, mission d’études et de préfiguration sur l’ouverture au public des décisions de justice, Rapport à Madame la garde des Sceaux, ministre de la justice, novembre 2017 : http://www.justice.gouv.fr/publication/open_data_rapport.pdf

[5] M. Benesty, L’impartialité des juges mise à mal par l’intelligence artificielle in Village de la justice, Tribunes et point de vue du 24 mars 2016 ; www.village-justice.com/articles/impartialite-certains-juges-mise,21760.html – le contenu du site Supralegem.fr n’est désormais plus accessible et l’adresse redirige vers dalloz.fr

[6] Sur cette question, V. N. Regis, Juger, est-ce interpréter ? : Cahiers Philosophiques, Canopé éd., 2016, n° 147, p. 36-37.

[7] Voir le site internet Spurious Correlation qui recense un grand nombre de corrélations fallacieuses, tel qu’un taux de correspondance à plus de 99% entre 2000 et 2009 entre le nombre divorces dans l’Etat du Maine et la consommation de margarine par habitant – http://tylervigen.com/spurious-correlations

[8] Pour de plus amples développements, voir Y. Meneceur, Quel avenir pour une justice prédictive : JCP G 2018, doctr.190.

Chronique de l’émission « Transhumanisme, seul avenir de l’homme ? »

Transhumanisme, seul avenir de l’homme ?

Invité : Pierre-Jérôme Delage, maître de conférence à l’UFR de Droit et Sciences politiques de Caen, auteur du livre « L’homme augmenté face au droit ».

Vincent Edin, journaliste, affirmait dans un numéro de « Usbek & Rida » qu’avec le transhumanisme et les promesses d’humains immortels, c’était « tout le business model de la transcendance qui était en passe de faire sacrément disrupter ».

Difficile de lui donner tort tant les promesses semblent démiurgiques : remplacer ses organes usés, étendre ses capacités physiques et cognitives avec de nouvelles interfaces seront peut-être un jour à notre portée. Combinez cela avec une connexion globale en temps réel de tous les individus et vous obtenez un monde parfaitement décrit par l’auteur italien Vittorio Catani dans son livre récemment traduit « Le Cinquième Principe » où « celui qui contrôle le logiciel contrôle l’esprit ».

En effet, dans ce livre Vittorio Catani envisageait des conséquences globales à une telle transformation. Dans son monde « La démocratie, ou ce qu’on définissait ainsi, n’apparemment été qu’un étrange phénomène culturel qui a tenu quelques dizaines d’années. » Il continue en décrivant ainsi la lente décomposition de ce modèle de gouvernance : « Je dirais qu’elle a été dépassée par défaut. Comme par le retour à l’ancienne lex mercatoria. En remplaçant la loi par des contrats individuels, la justice par des arbitrages… » De manière moins spéculative, notre invité s’est aussi intéressé aux conséquences très concrètes du transhumanisme…

Et puis faut-il faire la part des choses. L’immortalité restera inatteignable car, comme pour l’intelligence artificielle, le problème n’est pas dans de simples évolutions techniques : il y a une difficulté fondamentale, c’est que nous sommes programmés pour mourir. Vincent Edin citait le psychothérapeute Christophe Fauré dans son article, qui rappelait que « notre société d’hyper-contrôle, de volonté de maîtrise de tous les paramètres du vivant, se berce d’illusions. Si je prévois tout, contrôle tout, anticipe tout je finis par croire que rien ne peut m’arriver. La croyance messianique dans les machines s’inscrit dans ce registre, mais c’est une lourde erreur. La vie c’est l’accident, l’imprévu. »

Ecoutez l’entretien avec Pierre-Jérôme Delage, maître de conférence à l’UFR de Droit et Sciences politiques de Caen, auteur du livre « L’homme augmenté face au droit ».

 

Chronique de l’émission « Réseaux sociaux et professions du droit »

Réseaux sociaux et professions du droit

Invité : Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice.

Plus de deux milliard d’utilisateurs actifs revendiqués par Facebook en 2018 dont 33 millions en France, 330 millions pour Twitter dont 15,6 sur le territoire national, 800 millions pour Instagram dont 16 millions de français : les médias sociaux ont drainés une population de totalement hétérogène et se sont totalement déployés bien au-delà de la population des technophiles… dont le monde des juristes.

Avocats, policiers, gendarmes, magistrats, huissiers, notaires se rencontrent de manière active maintenant depuis plusieurs années, anonymes ou non, et partagent entre eux avec le reste de la « société civile » (dont des journalistes spécialisés en matière judiciaire) sur tout… et rien à la fois.

Car, à n’en pas douter, il y a quelque chose d’extraordinaire dans ce qui s’opère tous les jours dans ce joyeux bazar. Le masque social tombe, évidemment plus pour les anonymes, au profit de l’humain, qui se révèle dans ce qu’il peut y avoir d’anecdotique. Les grands thèmes de débat se révèlent (quel rôle de l’avocat en garde en vue par exemple) dans des échanges cabotins et se croisent avec du banal, du quotidien, qui rappelle que derrière cette mécanique judiciaire il y a surtout des femmes et des hommes, en charge d’une mission extraordinaire, dans son sens étymologique.

Par moment, et toutes proportions gardées, on croirait même s’opérer le même mélange d’idées idéalisé par les francs-maçons. Peu importe l’étiquette sociale, ce qui compte c’est la volonté commune de progrès et le sentiment d’exécuter une mission commune, pour l’intérêt général.

Cette description idéalisée est naturellement immédiatement à confronter aux les limites de l’exercice dont certains ont fait amèrement l’expérience.

La première limite évidente et identifiable est la liberté d’expression qui se confronte aux devoirs de réserve des différentes professions. Peut-on réellement commenter tout et faire part d’un avis bien subjectif sans engager sa profession ? Dans un registre plus trivial, qui oserait déclamer dans un amphithéâtre plein à craquer de centaines de personnes que l’on connaît à peine (voire pas du tout) sa satisfaction d’être enfin vendredi en lâchant un « Thanks God it’s Friday », accompagné d’une animation amusante sur un écran géant. Quel avocat censé, même anonyme, lâcherait une remarque sexiste pour provoquer son monde devant une salle de milliers de personnes ?

Twitter a connu un épisode assez douloureux il y a quelques années de cela avec deux magistrats lors d’une session d’assises, qui ont commenté en direct l’audience… Ces magistrats avaient acquis une bonne réputation dans le sillage d’autres figures comme Maître Eolas, pour leur capacité à humaniser leurs fonctions. Cette action de communication était d’ailleurs plutôt bienfaitrice dans une ambiance où Outreau pesait encore dans la représentation populaire des juges et des procureurs. Mais les commentaires de cette audience, captés par un journaliste dans la salle et bien d’autres leurs milliers d’abonnés, ont révélé ce que l’on peut s’échanger lors des discussions au comptoir du café du Palais… le CSM y a relevé un « manquement aux devoirs de dignité, de discrétion, de réserve et de prudence » et estimait que « l’invocation d’une pratique d’humour sur les réseaux sociaux pour justifier ces message est particulièrement inappropriée s’agissant d’une audience, en l’espèce de la cour d’assises ».

La deuxième limite est la mécanique addictive à l’œuvre avec les réseaux sociaux et participe peut-être à expliciter le dérapage que j’évoquais. Des études auraient démontré que la satisfaction de voir ses contenus « likés », « retweetés » provoquaient de véritables shoots de dopamine. Des chercheurs de l’Université de San Diego pensent commencer à pouvoir affirmer que les réseaux sociaux ont un effet sur le cerveau proche de certaines substances addictives, comme la cigarette. Ofir Turel, professeur en systèmes d’information à l’université de Californie, aurait ainsi prouvé que « l’usage excessif de Facebook est associé à des changements dans le circuit de la récompense ».

C’est un phénomène assez fascinant d’ailleurs que de voir tout le monde rechercher son quart d’heure de célébrité prophétisé par Warhol : chercher le bon mot, le trait d’esprit, pas nécessairement par égotisme mais surtout pris au jeu des échanges et de l’argumentation. Jeu qui s’envenime parfois et où les contrefeux à des remarques maladroites, de l’instant, prennent des proportions qui justifierait le lynchage immédiat de celui qui les aurait tenus. Ce véritable tribunal populaire et permanent est d’ailleurs la source de bien des désamours et de claquages de porte des réseaux sociaux. A l’addiction succède la déception.

Et l’on en vient à la troisième et dernière limite qui touche la communication institutionnelle. Communiquer sur de tels médias est aujourd’hui une profession. On ne peut s’y risquer sans en comprendre les règles spécifiques et les efforts de quelques juridictions à mieux expliquer leur quotidien se sont parfois heurtés à l’intransigeance des premiers occupants des lieux. A un procureur audacieux qui rendait compte de l’activité chargée de son parquet, des esprits – que l’on pourrait qualifier de chagrin – se sont émus de l’effort de promotion de sa capacité répressive. En réalité, ce sont deux mondes qui se rencontraient pour la première fois et le procureur François Molins ne s’y est pas trompé. Il a refusé d’utiliser les réseaux sociaux durant les attentats pour investir une communication institutionnelle plus traditionnelle mais redoutablement efficace et – surtout – adaptée.

Ecoutez l’entretien avec Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice.

 

IA et droits de l’homme

Le Conseil de l’Europe vient d’ouvrir le premier portail européen portant sur l’intelligence artificielle (IA) et ses implications en ce qui concerne les droits de l’homme, la démocratie et l’Etat de droit.

Ce site recense tous les travaux actuellement en cours au sein de l’organisation internationale, dans ses différents comités, commissions et organes. Il propose de plus des articles de vulgarisation visant à contribuer une meilleure connaissance du phénomène et de ne céder ni à un alarmisme excessif, ni au solutionnisme qui habite encore de trop nombreux discours. 

Ce portail aura également vocation à communiquer sur la partie de l’agenda stratégique du Conseil de l’Europe à l’horizon 2028 portant sur l’IA.

Le Conseil de l’Europe invite également tous les acteurs de l’IA (secteur privé, secteur public, recherche) à utiliser le hashtag #CoE4AI pour signaler leurs initiatives de développement de solutions nativement conçues pour se mettre en conformité avec les valeurs défendues par l’institution.

Intelligence artificielle et infractions pénales

Quel est l’impact des IA en matière de cybercriminalité, de cybersécurité et d’infractions involontaires ?

Les potentialités des sciences, technologies et techniques de traitement des données qualifiées d’intelligence artificielle (IA) ouvrent des perspectives redoutées et redoutables en matière de cybercriminalité. Attaques automatisées, coordonnées, recherches automatiques de failles, l’IA constitue un véritable arsenal de guerre numérique, avec des bénéfices qui n’ont rien de virtuel pour leurs auteurs.

Mais l’on parle moins souvent des potentialités de l’IA pour lutter plus efficacement contre les menaces existantes et à venir : combinée à des analystes humains, l’IA est en mesure d’aider à déjouer, voire à anticiper, des attaques contre les systèmes et de protéger leurs utilisateurs.

D’une manière générale, l’élément moral des infractions volontaires dans le cyberespace n’est pas complexe à appréhender juridiquement (la recherche et l’exploitation d’éléments matériels le sont certainement plus). La question de la responsabilité est en revanche beaucoup plus épineuse s’agissant de faits relevant du champ des infractions involontaires : quel responsabilité rechercher lorsqu’au Japon un bras robot écrase un ouvrier sur son passage ou une voiture autonome renverse un piéton aux Etats-Unis ? … les exemples ne manquent pas et risquent se multiplier dans un proche avenir. Les instruments juridiques actuels paraissent-ils satisfaisants pour appréhender le phénomène ou conviendrait-il, au contraire, de concevoir de nouvelles législations spécifiques ?


L’IA au service de la sécurité des systèmes d’information

Avec la disponibilité d’un nombre croissant de données numériques, une quantité considérable d’informations personnelles et financières ont été exposées à de potentielles exploitations frauduleuses[1]. Qu’il s’agisse des formes classiques de criminalité sur internet (escroqueries par exemple) ou de nouvelles formes (intrusion dans des systèmes d’information), ces infractions ont conduit à des pertes économiques considérables. Selon une étude d’Accenture en 2017, le coût moyen d’une atteinte à la vie privée a été chiffré à 11,7 millions de dollars, soit une hausse de 23 % par rapport à l’année précédente. Ce constat est à enrichir d’un autre dressé cette fois-ci par IBM en 2014 : 95% de la cybercriminalité résulte d’une erreur humaine. Malgré les technologies de sécurité avancées disponibles aujourd’hui, la plupart des pirates continuent de cibler les vulnérabilités du comportement humain, et pas seulement celles, techniques, des systèmes et des réseaux.

L’IA constitue donc une opportunité pour mieux gérer les risques, non pas de manière totalement autonome, mais en appui à des compétences, bien humaines, en cybersécurité. Le laboratoire d’informatique et d’intelligence artificielle du MIT a ainsi mis au point une « plate-forme de cybersécurité adaptative » dénommée AI² qui améliore ses performances dans le temps par la combinaison d’apprentissage machine (machine learning) et des apports d’analystes en sécurité[2]. Concrètement, AI² bâtit des modèles comportementaux significatifs d’attaques et tente ensuite de les prédire en détectant des activités suspectes. Il présente ensuite ces activité à des analystes humains qui confirment quels événements sont des attaques réelles, et intègre cette rétroaction dans ses modèles pour les ensembles suivants de données.

Une autre potentialité de l’IA est la possibilité de faciliter les investigations et l’identification des cybercriminels. Dudu Mimran, directeur des technologies (CTO) du Telekom Innovation Laboratories en Israël, relevait dans un discours devant l’OCDE que l’amélioration des méthodes d’investigation et d’identification « souffre de sous-investissements parce qu’elle manque de viabilité commerciale »[3]. Cette difficulté, bien connue des spécialistes, s’explique au vu du nombre extrêmement important de variables à étudier, dont les fragments de code malveillants et la recherche d’éventuelles références identifiant des cybercriminels (références culturelles ou politiques par exemple). Cet expert suggère d’augmenter substantiellement le financement de la recherche en IA, dans le but de développer des systèmes « intelligents » parvenant à une meilleure identification d’auteurs d’infractions par corrélation des différentes traces, tout en ne perdant pas de vue la potentielle confidentialité des données traitées. De même, il ne réduit pas cette lutte à une démarche purement technique et il encourage à la mise en place d’un réseau mondial de renseignement, bien humain, en capacité de suivre les menaces, en réunissant des chercheurs, le monde des affaires et les autorités gouvernementales.


L’IA et l’automatisation de la cybercriminalité

La Convention sur la cybercriminalité du Conseil de l’Europe (« Convention de Budapest ») distingue deux grandes catégories de faits : les atteintes à des systèmes de traitement automatisé de données et les infractions de droit commun facilitées par un environnement numérique[4].

S’agissant de la première catégorie, l’IA est en capacité de renforcer l’automatisation de modes d’attaques directes de systèmes d’information (« scan » pour identifier et exploiter les vulnérabilités techniques) ou indirecte en volant auprès d’opérateurs humains les informations nécessaires pour accéder à un système (enregistrement de données à l’insu de l’utilisateur ou ingénierie sociale telle que le « fishing »). L’objectif de telles attaques, communément appelées « piratage informatique », est souvent de dérober des données sensibles (identifiants de cartes de paiement par exemple) ou de bloquer purement et simplement le fonctionnement d’un système (déni de service).

Depuis quelques années ce dernier type d’attaque est utilisé pour des fins de chantage et illustre bien une  seconde catégorie de cybercriminalité telle que définie par la Convention de Budapest : des faits de droit commun, facilités par les technologies numériques. Là encore, l’IA peut servir à automatiser des tentatives d’escroqueries, de fraudes, mais également produire des contre-mesures pour protéger le stockage et la distribution de matériel illégal, comme la pornographie juvénile et des contenus violant les droits d’auteur. D’autres types d’infractions seraient aussi à considérer, comme les manipulations boursières ou les modifications volontaires de comportement d’IA par d’autres IA à des fins criminelles ou délictuelles (les ingénieurs ne sont pas capables de déchiffrer complètement le code produit par les technologies d’apprentissage profond – deep learning… la prévention de leur manipulation devra passer par différentes méthodes pour s’assurer de l’intégrité de fonctionnement).

Pavel Gladyshev, professeur à l’University College Dublin, donne un dernier de criminalité facilité par l’IA dans un de ses articles récents[5] : l’application Deepfake altère les photographies et les vidéos numériques en remplaçant automatiquement le visage d’une personne par un autre. Bien qu’elle ait été créée à l’origine pour le divertissement d’adultes, la technologie a clairement le potentiel de produire de fausses vidéos montrant, par exemple, des politiciens assister à des réunions inexistantes ou s’engageant dans des activités qui pourraient nuire à leur réputation.


Le régime de responsabilité des infractions commises avec ou par des IA

Il est encore périlleux de tenter d’élaborer des règles de droit alors que nous sommes encore dans une phase de transition technologique, dont on suppose l’avenir sans réellement le connaître. Les réflexions sur la définition d’un régime de responsabilité quand des IA sont en jeux peuvent toutefois commencer s’appuyer ce que sont clairement ces systèmes : ce sont des modèles mathématiques créés par des humains pour exécuter des tâches complexes et qui se trouvent assignés lors de leur conception une fonction précise.

La question d’une prétendue « volonté » autonome d’une IA (et des robots fonctionnant sur la base d’IA) est immédiatement à écarter s’agissant d’infractions volontaires commises ou commanditées par des humains. Il faudra se garder de tout anthropomorphisme et il ne sera pas question de rechercher une conscience et un élément intentionnel dans une agrégation de systèmes ou un algorithme : il conviendra de revenir systématiquement à l’agent humain qui a utilisé ou assemblé ces systèmes avec l’intention de commettre une infraction. En d’autres termes, la question n’est pas différentes d’autres outils utilisés à des fins infractionnelles et ces systèmes, mêmes s’ils renvoient à un imaginaire de science-fiction, n’édulcorent en rien la responsabilité directe d’un agent humain[6]. Une IA utilisée pour attaquer en « force brute » un serveur ou détecter ses failles techniques n’est guère différente du marteau piqueur utilisé pour attaquer le coffre-fort d’une banque : nul n’aura à l’esprit de rechercher la responsabilité de l’outil de chantier ou de son fabricant.

Une certaine confusion semble toutefois exister pour les systèmes ayant commis des dommages relevant du champ des infractions involontaires. Le décès causé en mars 2018 par une voiture autonome exploitée par Uber en Arizona a marqué les esprits et a illustré que les difficultés ne proviennent de l’absence d’un cadre juridique adapté, mais, encore une fois, d’une incompréhension de ce que sont réellement les IA aujourd’hui. Les premières investigations semblent démontrer qu’un réglage « trop souple » pour éviter des freinages intempestifs a contribué à la survenance de l’accident, en plus d’une possible inaction d’un agent de contrôle humain. Le régime des infractions involontaires est à même d’appréhender ce type de situation avec une certaine acuité : les réglages opérés sur le freinage constituent-ils un manquement à une obligation de prudence ou de sécurité ? L’agent de contrôle humain, à bord du véhicule, était-il concentré sur sa tâche ? Dans ce cas, même si le contexte est nouveau, il n’y a rien que les juristes ou des juges ne sauraient traiter avec les instruments existants.

En revanche, la recherche de responsabilité risque de se complexifier quand différentes technologies sont agrégées (robotique, IA, big data, blockchain par exemple) et/ou si la machine a procédé à une phase autonome d’apprentissage (comme l’apprentissage profond ou deep learning)  : une certaine dilution du rôle des différents acteurs sera à craindre au détriment de la victime du dommage. En matière civile la définition d’une personnalité juridique spécifique est soutenue par le Parlement européen[7] mais se trouve critiquée car elle alimenterait la confusion sur la nature réelle des IA et ne représenterait au final un intérêt que pour les fabricants eux-mêmes (qui pourraient plus aisément dégager leur responsabilité en s’appuyant sur des mécanismes d’indemnisation [8]). En matière pénale, une telle construction juridique fictive pourrait aussi présenter un intérêt s’agissant de dommages involontaires ou inattendus présentant un certain degré de gravité mais, là encore, il ne s’agit pas de déresponsabiliser les concepteurs, bien humains, sur les conséquences potentielles de leurs actions. En toute hypothèse, faudrait-il peut-être procéder par étape avant de légiférer spécifiquement ? Il paraîtrait en effet opportun de définir tout d’abord ce qui pourrait être, en l’état de l’art, un cadre pertinent de sécurité et de prudence pour la conception et l’utilisation de tels systèmes complexes et d’évaluer ensuite s’il est nécessaire de faire évoluer – ou non – le régime actuel des infractions involontaires (qui distingue bien entre les liens de causalité directe ou indirecte et impose de caractériser soit une faute simple, soit une faute délibérée ou caractérisée en fonction de la nature de ce lien de causalité).

Animateur des Temps Electriques


Aller plus loin ?

Intelligence artificielle et cybercriminalité : interviews lors de la conférence « Octopus 2018 » du Conseil de l’Europe

Infographie de la société GEMALTO sur les failles de sécurité

 


Notes

[1] Voir à titre d’illustration l’infographie de la société Gemalto, ci-dessus.

[2] Voir par exemple l’article de vulgarisation publié sur le site d’information du MIT : http://news.mit.edu/2016/ai-system-predicts-85-percent-cyber-attacks-using-input-human-experts-0418

[3] D. Mimran, Risks of Artificial Intelligence on Society, 27 octobre 2017 : https://www.dudumimran.com/2017/10/risks-artificial-intelligence-society.html/

[4] Convention sur la cybercriminalité du Conseil de l’Europe, 23 novembre 2001 : http://www.europarl.europa.eu/meetdocs/2014_2019/documents/libe/dv/7_conv_budapest_/7_conv_budapest_fr.pdf

[5] P. Gladyshev, Artificial Intelligence and cybercrime, Eolas Magazine, 29 mars 2018 : http://www.eolasmagazine.ie/artificial-intelligence-and-cybercrime/

[6] G. Hallevy, The Criminal Liability of Artificial Intelligence Entities, 15 février 2010 : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096

[7] Le Parlement propose également de réfléchir à des formes d’assurances pour les clients, voir par exemple M. Delvaux, Un cadre légal en matière de robotique est nécessaire, 12 janvier 2017 : http://www.europarl.europa.eu/news/fr/headlines/economy/20170109STO57505/mady-delvaux-un-cadre-legal-en-matiere-de-robotique-est-necessaire

[8] L. Neuer, Entretien avec Nathalie Nevejans, « Responsabilité des robots : appliquons nos règles de droit », L’Express, 11 avril 2017 : http://www.lepoint.fr/chroniqueurs-du-point/laurence-neuer/responsabilite-des-robots-appliquons-nos-regles-de-droit-11-04-2017-2118933_56.php

Petite histoire de l’intelligence artificielle…

Ce que nous enseignent les trois âges d’or de l’IA

L’intelligence artificielle (IA) est une discipline jeune d’une soixante d’années, qui est un ensemble de sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle, informatique) qui ambitionne d’imiter les capacités cognitives d’un être humain. Initiés dans le souffle de la seconde guerre mondiale, ses développements sont intimement liés à ceux de l’informatique et ont conduit les ordinateurs à réaliser des tâches de plus en plus complexes, qui ne pouvaient être auparavant que déléguées à un humain.

Cette automatisation demeure toutefois loin d’une intelligence humaine au sens strict, ce qui rend la dénomination critiquable pour certains experts. Le stade ultime de leurs recherches (une IA « forte », c’est-à-dire en capacité de contextualiser des problèmes spécialisés très différents de manière totalement autonome) n’est absolument pas comparable aux réalisations actuelles (des IA « faibles » ou « modérées », extrêmement performantes dans leur domaine d’entraînement). L’IA « forte », qui ne s’est encore matérialisée qu’en science-fiction, nécessiterait des progrès en recherche fondamentale (et non de simples améliorations de performance) pour être en capacité de modéliser le monde dans son ensemble.

Depuis 2010, la discipline connaît toutefois un nouvel essor du fait, principalement, de l’amélioration considérable de la puissance de calcul des ordinateurs et d’un accès à des quantités massives de données.

Les promesses, renouvelées, et les inquiétudes, parfois fantasmées, complexifient une compréhension objective du phénomène. De brefs rappels historiques peuvent contribuer à situer la discipline et éclairer les débats actuels.

1940-1960 : Naissance de l’IA dans le sillage de la cybernétique

L’époque entre 1940 et 1960 a été fortement marquée par la conjonction de développements technologiques (dont la seconde guerre mondiale a été un accélérateur) et la volonté de comprendre comment faire se rejoindre le fonctionnement des machines et des êtres organiques . Ainsi pour Norbert Wiener, pionnier de la cybernétique, l’objectif était d’unifier la théorie mathématique, l’électronique et l’automatisation en tant que « théorie entière de la commande et de la communication, aussi bien chez l’animal que dans la machine » [1]. Juste auparavant, un premier modèle mathématique et informatique du neurone biologique (neurone formel) avait été mis au point par Warren McCulloch et Walter Pitts dès 1943[2].

Début 1950, John Von Neumann et Alan Turing ne vont pas créer le terme d’IA mais vont être les pères fondateurs de la technologie qui la sous-tend : ils ont opéré la transition entre les calculateurs à la logique décimale du XIXème siècle (qui traitaient donc des valeurs de 0 à 9) et des machines à la logique binaire (qui s’appuient sur l’algèbre booléenne, traitant des chaines plus ou moins importantes de 0 ou de 1[3]). Les deux chercheurs ont ainsi formalisé l’architecture de nos ordinateurs contemporains et ont démontré qu’il s’agissait là d’une machine universelle, capable d’exécuter ce qu’on lui programme. Turing posera bien en revanche pour la première fois la question de l’éventuelle intelligence d’une machine dans son célèbre article de 1950 « Computing Machinery and Intelligence[4] » et a décrit un « jeu de l’imitation », où un humain devrait arriver à distinguer lors d’un dialogue par téléscripteur s’il converse avec un homme ou une machine. Pour polémique que soit cet article (ce « test de Turing » n’apparaît pas qualifiant pour nombre d’experts), il sera souvent cité comme étant à la source du questionnement de la limite entre l’humain et la machine.

La paternité du  terme « IA » pourrait être attribué à John McCarthy du MIT (Massachusetts Institute of Technology), terme que Marvin Minsky (université de Carnegie-Mellon) définit comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». La conférence durant l’été 1956 au Dartmouth College (financée par le Rockefeller Institute) est considérée comme fondatrice de la discipline. De manière anecdotique, il convient de relever le grand succès d’estime de ce qui n’était pas une conférence mais plutôt un atelier de travail. Seulement six personnes, dont McCarthy et Minsky, étaient restées présentes de manière constante tout au long de ces travaux (qui s’appuyaient essentiellement sur des développements basés sur de la logique formelle).

Il s’agissait peut-être là d’un signal. Si la technologie demeurait fascinante et remplie de promesse (voir notamment dans le domaine judiciaire l’article de Reed C.Lawlor, avocat au barreau de Californie, de 1963 « What Computers Can Do : Analysis and Prediction of Judicial Decisions »), l’engouement est retombé au début des années 1960. Les machines disposaient en effet de très peu de mémoire, rendant malaisé l’utilisation d’un langage informatique. On y retrouvait toutefois déjà certains fondements encore présents aujourd’hui comme les arbres de recherche de solution pour résoudre des problèmes : l’IPL, information processing language,  avait permis ainsi d’écrire dès 1956 le programme LTM (logic theorist machine) qui visait à démontrer des théorèmes mathématiques.

Herbert Simon, économiste et sociologue, a eu beau prophétiser en 1957 que l’IA arriverait à battre un humain aux échecs dans les  10 années qui suivraient, l’IA est entrée alors dans un premier hiver. La vision de Simon s’avérera pourtant juste… 30 années plus tard.

 

1980-1990 : Les systèmes experts

En 1968 Stanley Kubrick réalisera le film « 2001 l’Odyssée de l’espace » où un ordinateur – HAL 9000 (distant que d’une seule lettre de celles d’IBM) résume en lui-même toute la somme de questions éthiques posées par l’IA : arrivée à un haut niveau de sophistication, celle-ci représentera-t-elle un bien pour l’humanité ou un danger ? L’impact du film ne sera naturellement pas scientifique mais il contribuera à vulgariser le thème, tout comme l’auteur de science-fiction Philip K. Dick, qui ne cessera de s’interroger si, un jour, les machines éprouveront des émotions (Les androïdes rêvent-ils de moutons électriques ?).

C’est avec l’avènement des premiers microprocesseurs fin 1970 que l’IA reprend un nouvel essor et entre dans l’âge d’or des systèmes experts.

La voie avait été en réalité ouverte au MIT dès 1965 avec DENDRAL (système expert spécialisé dans la chimie moléculaire) et à l’université de Stanford en 1972 avec MYCIN (système spécialisé dans le diagnostic des maladies du sang et la prescription de médicaments). Ces systèmes s’appuyaient sur un « moteur d’inférence », qui était programmé pour être un miroir logique d’un raisonnement humain. En entrant des données, le moteur fournissait ainsi des réponses d’un haut niveau d’expertise.

Les promesses laissaient envisager un développement massif mais l’engouement retombera à nouveau fin 1980, début 1990. La programmation de telles connaissances demandait en réalité beaucoup d’efforts et à partir de 200 à 300 règles, il y avait un effet « boîte noire » où l’on ne savait plus bien comment la machine raisonnait. La mise au point et la maintenance devenaient ainsi extrêmement problématiques et – surtout – on arrivait à faire plus vite et aussi bien d’autres manières moins complexes, moins chères. Il faut rappeler que dans les années 1990, le terme d’intelligence artificielle était presque devenu tabou et des déclinaisons plus pudiques étaient même entrées dans le langage universitaire, comme « informatique avancée ».

Le succès en mai 1997 de Deep Blue (système expert d’IBM) au jeu d’échec contre Garry Kasparov concrétisera 30 ans plus tard la prophétie de 1957 d’Herbert Simon mais ne permettra pas de soutenir les financements et les développements de cette forme d’IA. Le fonctionnement de Deep Blue s’appuyait en effet sur un algorithme systématique de force brute, où tous les coups envisageables étaient évalués et pondérés. La défaite de l’humain est restée très symbolique dans l’histoire mais Deep Blue n’était en réalité parvenu à ne traiter qu’un périmètre très limité (celui des règles du jeu d’échec), très loin de la capacité à modéliser la complexité du monde.

L’histoire n’était pas encore terminée…

Depuis 2010 : un nouvel essor à partir des données massives et d’une nouvelle puissance de calcul

Deux facteurs expliquent le nouvel essor de la discipline aux alentours de 2010.

  • L’accès tout d’abord à des volumes massifs des données. Pour pouvoir utiliser des algorithmes de classification d’image et de reconnaissance d’un chat par exemple, il fallait auparavant réaliser soi-même un échantillonnage. Aujourd’hui, une simple recherche sur Google permet d’en trouver des millions.
  • Ensuite la découverte de la très grande efficacité des processeurs de cartes graphiques des ordinateurs pour accélérer le calcul des algorithmes d’apprentissage. Le processus étant très itératif, cela pouvait prendre des semaines avant 2010 pour traiter l’intégralité d’un échantillonnage. La puissance de calcul de ces cartes, (capables de plus de mille milliards d’opérations par seconde) a permis un progrès considérable pour un coût financier restreint (moins de 1000 euros la carte).

Ce nouvel attirail technologique a permis quelques succès publics significatifs et a relancé les financements : en 2011, Watson, l’IA d’IBM, remportera les parties contre 2 champions du « Jeopardy ! ». En 2012, Google X (laboratoire de recherche de Google) arrivera à faire reconnaître à une IA des chats sur une vidéo. Plus de 16 000 processeurs ont été utilisés pour cette dernière tâche, mais le potentiel est alors extraordinaire : une machine arrive à apprendre à distinguer quelque chose. En 2016, AlphaGO (IA de Google spécialisée dans le jeu de Go) battra le champion d’Europe (Fan Hui) et le champion du monde (Lee Sedol) puis elle-même (AlphaGo Zero). Précisons que le jeu de Go a une combinatoire bien plus importante que les échecs (plus que le nombre de particules dans l’univers) et qu’il n’est pas possible d’avoir des résultats aussi significatifs en force brute (comme pour Deep Blue en 1997).

D’où vient ce miracle ? D’un changement complet de paradigme par rapport aux systèmes experts. L’approche est devenue inductive : il ne s’agit plus de coder les règles comme pour les systèmes experts, mais de laisser les ordinateurs les découvrir seuls par corrélation et classification, sur la base d’une quantité massive de données.

Parmi les techniques d’apprentissage machine (machine learning),  c’est celle de l’apprentissage profond (deep learning) qui paraît la plus prometteuse pour un certain nombre d’application (dont la reconnaissance de voix ou d’images). Dès 2003, Geoffrey Hinton (de l’Université de Toronto), Yoshua Bengio (de l’Université de Montréal) et Yann LeCun (de l’Université de New York) avaient décidé de démarrer un programme de recherche pour remettre au goût du jour les réseaux neuronaux. Des expériences menées simultanément à Microsoft, Google et IBM avec l’aide du laboratoire de Toronto de Hinton ont alors démontré que ce type d’apprentissage parvenait à diminuer de moitié les taux d’erreurs pour la reconnaissance vocale. Des résultats similaires ont été atteints par l’équipe de Hinton pour la reconnaissance d’image.

Du jour au lendemain, une grande majorité des équipes de recherche se sont tournées vers cette technologie aux apports incontestables. Ce type d’apprentissage a aussi permis des progrès considérables pour la reconnaissance de texte, mais, d’après les experts comme Yann LeCun, il y a encore beaucoup de chemin à parcourir pour produire des systèmes de compréhension de texte. Les agents conversationnels illustrent bien ce défi : nos smartphones savent déjà retranscrire une instruction mais ne parviennent pas la contextualiser pleinement et à analyser nos intentions.

Et après… quels enjeux ?

Le premier enjeu est technique et formel. Les équipes de recherches continuent à investir de nouvelles approches d’apprentissage, en miroir de la manière dont l’humain apprend. Nul doute que l’apprentissage machine en sera simplifié et rendu plus accessible.

Le second enjeu est politique et de fond. Le traitement de forts volumes de données révèlent les biais qui y sont cachés (masculin / féminin, riche / pauvre, etc). Croisés avec d’autres paramètres sensibles (appartenance politique, religion, maladie, délinquance), des résultats catastrophiques sont prévisibles. L’algorithme COMPAS aux Etats-Unis et HART en Grande-Bretagne, censés évaluer le risque de récidive des individus, pondèrent négativement les populations les plus précaires et de certaines origines ethniques. Non parce qu’ils ont été conçus pour cela, mais parce que ces biais n’ont pas été neutralisés lors de leur conception et que le résultat a une vocation prescriptive. Ce qui en fait un système déterministe socialement.

Il ne faut donc pas craindre dans un immédiat (même lointain) l’IA « forte », prédite par Stephen Hawking, Elon Musk ou celle des écrivains de science-fiction, qui se coderait plus vite que la génétique biologique et qui éradiquerait l’humanité. La capacité de mise en relation des IA avec le monde  réel est très faible car elle n’a finalement que très peu de capteurs : elle vit d’une certaine manière en autiste dans ses modèles spécialisés de données, qui sont ne sont que très peu mis en relation entre eux ou avec le monde réel.

Il faut en revanche craindre le « solutionnisme », tel que défini par Evgeny Moroz[5]. Si les résultats de l’IA sont spectaculaires dans certains domaines bien précis, il en est d’autres où l’utilisation de ces technologies requiert une grande prudence à traduire par une approche pluridisciplinaire, mêlant ingénierie informatique et sciences sociales. Les enjeux sociétaux et les problèmes individuels ne peuvent évidemment pas trouver de solution aussi simpliste et universelle par les seules nouvelles technologies. On peut imaginer que pour certains concepteurs, cherchant des applications financièrement rentables, « tout ressemble à un clou » parce qu’ils ont à leur disposition ce qu’ils pensent être un marteau universel. La difficulté en tant que tel ne vient d’ailleurs moins des solutions proposées (parfois pertinentes), mais du fait d’apporter des réponses avant même d’avoir compris l’entier problème et d’avoir posé toutes les questions.

L’histoire qui reste à écrire n’est donc pas le futur brillant prédit par Raymond Kurzweil, imaginant un transhumanisme éloignant le genre humain de ses vicissitudes grâce aux seules technologies. Elle n’est certainement pas celle qui serait bâtie par des luddites modernes, refusant tout apport des technologies par simple réaction à un monde nouveau et inconfortable. Imaginons plutôt, comme toujours, une histoire de conquête qui sera inévitablement parsemée d’événements sombres pour arriver à circonscrire ce que ces technologies ont de meilleur.

Animateur des Temps Electriques


Aller plus loin ?


Notes

[1] Le concept est développé dans son ouvrage en 1948 « Cybernetics or Control and Communication in the Animal and the Machine »

[2] Le neurone formel est un neurone binaire, dont la sortie vaut 0 ou 1. Le calcul est effectué sur la base d’une somme pondérée de ses entrées (d’une valeur provenant d’autres neurones, donc 0 ou 1), sur laquelle est appliquée une fonction d’activation à seuil. Si la somme pondérée est au-dessus d’une certaine valeur, la sortie du neurone est 1, sinon elle vaut 0.

[3] Les ordinateurs actuels, dont certainement le vôtre, manipulent de manière tout à fait commune une chaîne de 64 valeurs binaires (bits).

[4] Mind, octobre 1950.

[5] E. Morozov, Pour tout résoudre, cliquez ici, FYP éditions, 2014.

Chronique de l’émission « L’enquête pénale à l’ère numérique »

L’enquête pénale à l’ère numérique

Invité : David Bénichou, vice-président chargé  du service de l’instruction au tribunal de grande instance de Rennes

Une certaine représentation populaire imagine certainement les enquêteurs équipés d’outils d’investigation extrêmement avancés, d’écrans géants tactiles réalisant des connexions entre toutes les données de l’affaire, dans une lumière savamment travaillé sur fond musical des Who…

La réalité est beaucoup plus… comment dire… rudimentaire et en tous les cas diversifiée. A côté de certains services spécialisés utilisant pour certains aspects, nous le verrons, des applications extrêmement avancées, la masse des enquêtes continue de se dérouler de manière extrêmement classique, à base de croisements et de déductions.

Comment se déroule une enquête pénale du XXIème siècle ? Voilà la question de nous nous poserons – que nous vous poserons David Bénichou.

Pour comprendre l’enquête pénale du XXIème siècle, je vous propose déjà de vous replonger dans l’histoire de l’enquête, et, – permettez-moi cette tentative d’analogie – de procéder tel l’enquêteur à la recherche d’indices pour remonter le fil jusqu’à l’ère « numérique ».

Au 19ème siècle, s’étaient développées officieusement des pratiques d’ « enquête », alors non envisagées par le code d’instruction criminelle de 1808. Enquête « illégale » ou « extralégale », dénoncée pour cela par certains juristes de l’époque, cette forme d’enquête avait malgré tout fini par s’imposer en pratique, en dehors des cas réservés à une autre forme d’enquête dite de flagrance, et s’en différenciait par un esprit de non-coercition à l’égard des personnes concernées. Il fallut pourtant attendre 1959 pour que le code de procédure pénale légalise ces pratiques, intercalant aux articles 75 à 78 du code ce qui sera appelé l’enquête « préliminaire » dans les interstices séparant l’enquête de flagrance et l’instruction judiciaire.

Aujourd’hui, si l’on ouvre le code de procédure pénale, on y trouve toujours inscrit cette distinction entre enquête de flagrance et enquête préliminaire avant que ne soient abordées les investigations dans le cadre de l’instruction.

Mais depuis 1959, l’enquête a continué d’évoluer, au gré des transformations de la criminalité et des réponses procédurales – et politiques – à y apporter. Le délinquant du XXIème siècle n’est plus celui de 1808 ni même du milieu du siècle dernier ! L’enquête pénale du XXIème siècle serait devenue celle de l’ « ère numérique ». Pour autant, il n’est inscrit nulle part dans le code le terme d’enquête « numérique », et en soit, le mot ne revient que très ponctuellement.

Alors à quoi de quoi s’agit-il ? On ne l’entend pas ici au sens premier et « mathématique » du terme, mais davantage le mot renvoie à l’utilisation des technologies de l’information et par extension, « l’ère numérique » à une « culture numérique » que décrivait dans son ouvrage du même nom  Milad Doueihi pour mettre en exergue la transformation de la vision du monde que produit la diffusion des technologies digitales sur leurs utilisateurs.

« Télévision numérique », « photo numérique », « téléphonie numérique »… « Radio numérique » et aujourd’hui, enquête numérique ? Ces transformations concernent effectivement aussi la matière pénale. Délinquants et enquêteurs y sont confrontés, que l’enquête s’opèrent « dans un milieu numérique », soit qu’elle s’effectue avec « des moyens numérique ». Il faut alors distinguer les deux situations.

En effet, l’enquête dans un milieu numérique nécessite des techniques spécifiques pour permettre aux enquêteurs de rechercher les délinquants qui usent, avec stratégie, des « bénéfices » des technologies de l’information et de la communication pour mener à bien leur dessein criminel. Pour autant cela n’implique pas nécessairement de réinventer la procédure qui va avec.

Concernant les outils numériques au service de l’enquête, le changement de paradigme est beaucoup plus profond. Les capacités de traitement de l’informatique ont rendu possible des traitements et des recoupements difficilement accessibles à la cognition humaine. On pense bien sûr en tout premier lieu aux outils d’analyse criminelle utilisées dans l’affaire dite du « petit Grégory » ou encore récemment à l’ordre du jour dans des affaires ayant pu impliquer Nordhal Lelandais.

La physionomie « initiale » de l’enquête a alors progressivement changé, vers un effritement des cadres « classiques » d’enquêtes jusque à aboutir à des règles de procédures finalement dérogatoires liées aux domaines de la délinquance et de la criminalité organisée (parmi lesquels le domaine du trafic de stupéfiants et de la lutte contre le terrorisme). On assiste à la création d’un dispositif légal autorisant une plus grande coercition des moyens d’investigations, et ainsi à une diversification technologique des mesures et outils à la disposition des enquêteurs. Même si certains de ces moyens ne sont réservés qu’à des contentieux spécifiques.

Ecoutez l’entretien avec David Bénichou, vice-président chargé  du service de l’instruction au tribunal de grande instance de Rennes.

 

 

La mécanique addictive des réseaux sociaux

Du totalitarisme du lien numérique

Twitter, Facebook, Tumblr, Instagram, Pinterest, Flickr, Google+, YouTube, Foursquare … Jamais nous n’avons eu autant d’opportunité de tisser des liens et d’être informé dans des temps aussi courts.

Plus de deux milliard d’utilisateurs actifs revendiqués par Facebook en 2018 dont 33 millions en France, 330 millions pour Twitter dont 15,6 sur le territoire national, 800 millions pour Instagram dont 16 millions de français : les médias sociaux ont drainés une population totalement hétérogène et se sont totalement déployés bien au-delà de la population des technophiles… dont le monde des juristes.

 

A l’évidence, une telle facilité de mise en relation étend les champs du possible. L’information devient mondiale et immédiatement disponible sans frein et les gouvernements ont bien du mal à la filtrer. Ces outils font tomber les masques des classes sociales, mettent en relation des corps de métiers différents ou antagonistes, révèlent des facettes inédites de chaque personnalité. Une quasi franc-maçonnerie à la cooptation simple, ouverte et publique.

Une telle agrégation d’informations génère toutefois de nouveaux risques, tels que la surexposition de sa vie personnelle ou professionnelle ou des atteintes flagrantes à la protection de sa vie privée… Il y a quelques années, la dénonciation par un journaliste de magistrats ayant commenté une audience pénale via Twitter illustre les dangers de la possible confusion entre les sphères publique et privée induite par ces dispositifs immatériels. Jamais ces professionnels n’auraient formulés de telles remarques avec un mégaphone dans un amphithéâtre plein à craquer. Quant au journaliste, il a peut-être lui-même donné substance et publicité à des propos qui auraient pu rester cloisonnés  aux seuls « followers » des magistrats, noyés dans l’océan des millions de tweets.

Dans un autre registre, l’affaire Cambridge Analytica, révélant les tentatives d’influence sur l’opinion lors d’élections à l’aide de données collectées sur Facebook ou l’amende prononcée par la CNIL à l’encontre de Google (et la réticence de ces derniers à exécuter la décision administrative) démontrent à quel point ces sociétés s’affranchissent des contraintes légales de protection des données dans l’objectif de réaliser des profits. Dans ce contexte, leur « Don’t be evil » paraît bien incantatoire.

Ces limites ne sont guère surprenantes. Le vent libertaire des pionniers de l’internet a cédé la place à la recherche de profits financiers substantiels. Profits générés si nécessaire en perfectionnant des fonctionnalités de plus en plus addictives afin de fidéliser une audience et transformer les individus en objets marchands.

1/ La mise en scène numérique d’un individu idéalisé

La construction de sa personnalité numérique est le premier acte de tout acteur de réseau social : choix méticuleux du pseudonyme, de l’image de présentation (PP ou Profil Picture), de la biographie. D’emblée, l’utilisateur est conduit à se mettre en scène, à se définir, comme tout produit marketing, et à se vendre.

Ainsi défini en véritable « marque », il va élaborer progressivement un contenu ad hoc pour accroître son audience (« followers », « amis », « abonnés ») et les interactions positives avec elle (« likes », « favoris », …). La mécanique ainsi constituée va alimenter l’ego de l’intéressé en le présentant comme de plus en plus populaire, donc digne d’intérêt.

Cette véritable réification porte en elle les germes de la déception pour des personnalités qui ont déjà une faible estime d’elle-même ou un besoin important d’attention. La construction d’une personnalité numérique gomme en effet les défauts connus (ou supposés), pour tendre à une image idéalisée. Cette démarche ne tend pas à produire une image lisse : le contenu produit par l’utilisateur pourra être provoquant, caustique, cynique… L’objectif consiste plutôt à créer un costume numérique à l’image du rôle que l’on souhaite tenir dans un monde a priori vierge de préjugés.

Cet univers n’est évidemment pas à l’abri de toute la palette des comportements et sentiments humains. L’instantanéité et la portée de la diffusion démultiplient les interactions et leurs conséquences : violence verbale, vulgarité, jalousie, superficialité avec des liens qui se nouent ou se dénouent le temps de l’appui sur le bouton d’une souris, le plus souvent abrité par l’anonymat de son pseudonyme.

L’investissement des plus talentueux / chanceux / opportunistes / déjà connus trouvera un écho auprès de relais à forts potentiels de démultiplication (journalistes, pairs déjà reconnus dans le milieu)… La majorité des autres restera noyée dans le magma binaire de petits cercles de connaissances et leur déception primera s’ils étaient à la recherche dans ces réseaux d’une source d’alimentation pour leur ego. Une déception au moins proportionnelle à l’investissement consenti.

2/ Les réseaux sociaux, un miroir déformant et uniformisant

Les acteurs réguliers des réseaux sociaux ne pourront contester avoir eu une certaine satisfaction à voir croître le nombre d’individus en lien avec le contenu produit. Qu’il s’agisse de commenter en direct une émission de télé-réalité ou de poster des photos d’animaux (les chatons restent une valeur sûre d’internet), les chances d’interaction augmentent en investissant des lieux communs.

Ces mêmes acteurs vous diront combien ils ont pu être déçu lorsque la publication de certains contenus leur ont fait perdre de l’audience, à la suite de publications plus polémiques, plus personnelles ou d’un cliché raté.

Comme toute marchandise, la personnalité numérique se meurt si elle ne se renouvelle pas. Les contacts se lassent de contenus trop similaires et deviennent progressivement indifférents. De plus, le temps sur les réseaux sociaux est si court que les textes, photos ou vidéos sont avalées dans l’océan des « timelines » en quelques secondes. Le paradigme moderne deviendrait presque « Je suis liké donc je suis » auquel lui répondrait le « Unfollowé, je ne suis plus ».

Un constat paradoxal en découle : l’uniformisation du récit de nos vies (une timeline en support de la description des trajets de vie) ou de nos images (images génériques avec les mêmes filtres1) rend difficile toute singularisation et conduit à une perte inéluctable d’intérêt.

Face à cette situation, certains arrivent même à mettre en scène leur propre fin numérique déçus de ne pas avoir trouvé avec ces outils reconnaissance ou attention durables. La mécanique est assez finalement assez simpliste et se retrouve chez certaines personnalités en construction (adolescents) ou en voie de dépression. L’objectif est de provoquer parmi le cercle de contacts réguliers des témoignages de reconnaissances, qui réamorcent progressivement la dose d’ego vidée par l’indifférence progressive et réassurent.

Dans ces cas la frénésie de contact, la sociabilité à l’extrême revient au final à remplir un vide avec peu de choses, à s’étourdir et à perdre le contact avec la réalité : les amis dans la poche avec le smartphone deviennent plus importants que la famille ou l’environnement réel et le cycle de vie numérique (voir ci-dessous) produit une stratégie permanente d’échec.

La fréquence du changement de photographie de profil est également un indicateur intéressant de la détresse sociale numérique. Car, comme le logotype d’une marque, la « PP » doit accrocher et synthétiser la personnalité cachée derrière ces quelques pixels. Mais pour vendre quoi au juste ?

Il convient en effet de se demander à qui profite réellement cette masse de matière non structurée gérée par des moyens informatiques considérables… Les médias sociaux sont des vecteurs évidents de développement pour des entreprises souhaitant capter l’attention d’une population jeune, urbaine, souvent dotée de moyens financiers satisfaisants. Mais les réels bénéficiaires sont les créateurs mêmes des réseaux sociaux.

3/ Les gagnants : les créateurs des réseaux qui font commerce de notre personnalité numérique

« Si c’est gratuit, vous êtes le produit »2. Cette citation – pourtant connue – n’a finalement éveillé aucune réaction de masse. Comme si le totalitarisme embarqué par les nouvelles technologies était neutralisé par les bénéfices déjà évoqués.

Comme si la facilitation de contacts entre individus était susceptible de justifier un profilage, un fichage sans précédent par des entreprises à but lucratif.

Que concédons-nous ainsi à ces individus en leur confiant une masse insoupçonnée de données – même sous pseudonyme (qui se révèle souvent vain avec les croisements sophistiqués issus de l’intelligence artificielle) ?

Ni plus ni moins qu’une forme abstraite de notre personnalité, une forme certes dématérialisée (et qui n’aliène donc pas directement notre liberté d’aller et venir) mais une forme susceptible d’avoir un impact très concret.

Quand les assureurs croiseront leurs données avec ces réseaux dans un pays où l’informatique et les libertés ne sont jamais questionnées et que l’on vous refusera un emprunt pour des raisons obscures, quand vous ne serez pas retenus pour un emploi sur le fondement de raisons a priori objectives et en réalité très subjectives, il sera bien tard. Les profils « à risque », subversifs (ou jugés comme tels) seront mis au banc d’une société transparente… Car si vous n’avez rien à cacher, pourquoi devriez-vous craindre une totale transparence ?

Et pire ! L’homme numérique se pense « libre d’interagir, dégagé des limitations du monde physique ». Il se trouve en réalité contraint d’être toujours connecté pour « rester dans la course et maîtriser un réel qui lui échappe »3.

Le pire des totalitarismes se met donc en place : une masse consentante à une surveillance globale et permanente.

Animateur des Temps Electriques

A venir : Guillaume Didier, directeur conseil en communication, magistrat en disponibilité et ancien porte-parole du ministère de la justice, sera l’invité des Temps Electriques (numéro 6) pour évoquer l’utilisation des réseaux sociaux dans le monde judiciaire.

 


Notes

1 « Instagram : et la photo dans tout ça ? » – LesInrockuptibles, Jean-Max Colard, 26 juin 2013
Voir la vidéo d’Adesiasprod – http://adesias.fr
Quatrième de couverture de « L’emprise numérique, Comment internet et les nouvelles technologies ont colonisé nos vies » – Cédric Biagini – éditions l’Echappée

Chronique de l’émission « Blockchain »

Blockchain… mode technologique ou révolution ?

Invitée : Primavera de Filippi, chercheuse au CERSA (unité mixte du CNRS et de l’Université Paris II) et chercheuse associée au Berkman Center for Internet & Society (Université de Harvard)

Il y a parfois dans la vie des concepts qui claquent, qui sonnent bien, fondamentaux même pour notre monde… mais qui sont impossibles à expliquer autour de nous.

Les blockchains entrent assurément dans cette catégorie. Le concept apparaît incompréhensible pour le commun des mortels même si je m’y essaye à toute occasion.  Je commence habituellement en parlant de Bitcoin… là les gens connaissent un peu mais ils s’enferment rapidement dans l’idée que ce n’est qu’une monnaie d’échange dématérialisée et ont du mal à voir d’autres applications concrètes.

Après j’ai une autre astuce pour expliquer que l’on peut faire beaucoup plus de chose avec ce « bazar », terme employé par notre invitée dans sa bio Twitter.

Je prends l’exemple de quelques personnes qui seraient autour d’une table (disons 6), et qui verraient ensemble qu’il y a une feuille de couleur rouge au milieu. Ces personnes seraient ensuite en capacité de témoigner de cela auprès d’autres. Interrogées sur la couleur de la feuille, elles pourraient en témoigner auprès de 6 autres, qui peuvent en parler ensuite chacune à 6 etc. Au final, une communauté entière certifierait de la couleur de la feuille feuille. Et si un petit malin s’amusait à la repeindre en bleu, ou à corrompre 1 maillon de la chaîne, tout le monde pourrait relever la supercherie.

On commence à s’approcher du cœur du sujet même si tout cela reste encore un peu stratosphérique… Il faut commencer en réalité par concevoir les blockchains comme une sorte de registre géant, totalement décentralisé et transparent, dans lequel pourrait être consigné tout type de transaction. De la « cryptomonnaie » comme l’on dit, mais aussi tout échange nécessitant la certification d’un « tiers de confiance » voire même des contrats et l’exécution de ces contrats.

Cela commence à devenir plus concret ? J’espère ! Rajoutons donc une couche de complexité en se posant une question évidente… pourquoi parle-t-on de « chaine de blocs » ?

Je vous arrête tout de suite rien à voir avec des briques en plastiques assemblables à volonté ! (je ne cite pas de marques)

En fait cela renvoie au fonctionnement même de cette technologie, qui assemble des groupes transactions en « blocs » et qui sont certifiées par ces fameuses personnes réunies autour d’une table décrites tout à l’heure… on appelle même ces gentils opérateurs des mineurs ! Là aussi c’est assez imagé et il n’y a pas grand-chose de commun avec le temps des corons (quoique). Les mineurs se trouvent en fait dans les différentes intersections du réseau constitué par tous les participants à la blockchain. Ces intersections (ou nœud) sont des ordinateurs suffisamment puissants dédiés à cette certification. L’originalité vient du fait qu’il n’y a pas qu’une seule autorité de centralisation, mais tout un réseau d’autorités interconnectées sans hiérarchie.

Pour reprendre le principe, on va dire que A veut effectuer une transaction vers B. Cette transaction est ajoutée à plusieurs autres transactions en cours et assemblées dans un bloc. Le bloc est validé par les mineurs (que l’on appelle aussi « nœuds » du réseau, rien de péjoratif hein ? juste pour vous le rappeler) avec des moyens cryptographiques, le bloc est ajouté à la chaîne de blocs, diffusée aux autres noeuds et… B reçoit la transaction de A !

Ouf !!!

A partir de là les potentialités sont énormes, du fait de l’inviolabilité (supposée en tout cas) du système. On peut distinguer 3 grandes catégories d’applications aujourd’hui :

  • Les transferts de monnaies, titres, actions etc
  • Les fonctions de registre (immobilier, industrie, vote même)
  • Les « smarts contracts » qui sont des programmes autonomes qui effectuent automatiquement les termes d’un contrat sans autre intervention humaine

Mais, naturellement, comme toute technologie, il y a tout de même une certaine réflexion à conduire pour en mesurer les enjeux…

Ecoutez l’entretien avec Primavera de Filippi, chercheuse au CERSA (unité mixte du CNRS et de l’Université Paris II) et chercheuse associée au Berkman Center for Internet & Society (Université de Harvard).

 

L’intelligence artificielle : du réenchantement au désenchantement ?

De la nécessité d’une science avec conscience

Souvenons-nous des années 80 et 90 : quelques mots étaient en capacité d’enchanter n’importe quel film, histoire ou livre d’une couleur d’avant-garde. Le nombre « 2000 », les ordinateurs personnels, « l’» internet, les autoroutes de l’information, les systèmes experts et… déjà l’intelligence artificielle (IA). A leur seule évocation, ces termes arrivaient à peupler les esprits de voitures volantes, de machines dépassant leurs concepteurs pour les anéantir, d’êtres humains hybridés avec des robots.

En ce qui concerne l’IA, il semble d’ailleurs que la résurgence de nouveaux espoirs réponde à des cycles trentenaires (1950, 1980 et maintenant 2010) où a succédé à l’enthousiasme des pionniers la déception des praticiens.

Qu’en dire en 2018 ?

Peut-être que l’IA a longtemps été une science d’avenir, qu’elle l’est encore et qu’elle risque de le rester si l’on écoute Yarden Katz. Ce jeune chercheur à la Harvard Medical School estime en effet que l’actuelle « révolution de l’IA » est fabriquée de toute pièce pour promouvoir en réalité un projet de gouvernance global par les nombres. Il résume en une caractéristique ce qu’il considère comme une prétendue « ère » : le « manque de conscience » (thoughtlessness) à ne réduire l’humain qu’à son seul comportement dans une société quantifiée[1].

D’autres auteurs en France ou à l’étranger nous avertissent des mêmes dangers[2]. Faut-il voir dans ces propos la résistance d’un ancien monde contre la transformation en cours, une critique politique du projet néo-libéral cachée sous des atours technologiques ou une objectivation bienvenue dans cette nouvelle période d’enthousiasme (d’exaltation ?).

Tentons de revenir sur quelques constats factuels pour tenter de définir ce qui se cache derrière la « hype de l’IA » [3] et évoquer le risque de total discrédit si les promesses à nouveau formulées ne parviennent pas à être remplies. Au final, les approches transdisciplinaires souvent réclamées ne devraient-elles pas se concrétiser au travers d’une nouvelle formalisation des savoirs dotée d’une solide conscience ?

1/ L’IA : de quoi parle-t-on exactement ?

La croissance exponentielle de l’efficacité du traitement informatique des données est à distinguer totalement des progrès considérables restant à réaliser par la recherche fondamentale pour modéliser une intelligence aussi agile que l’intelligence humaine. Certains avaient cru pouvoir la réduire à « 10 millions de règles[4] » : des chercheurs comme Yann LeCun affirment aujourd’hui que l’IA se heurte en réalité à une bonne représentation du monde, qui est une question « fondamentale scientifique et mathématique, pas une question de technologie[5] ». Une dichotomie est donc parfois réalisée entre l’« IA forte » de science-fiction (généraliste, auto-apprenante et adaptable de manière autonome à des contextes tout à fait différents), et les IA « faibles » ou « modérées » actuelles, ultra-spécialisées et non-adaptables de manière totalement autonome à des changements complets de paradigme[6]. Cette distinction ne clarifie toutefois pas ce que l’on entend par « intelligence » et alimente nombre de malentendus et de fantasmes, entretenus et véhiculés par les médias (qui peinent à décrypter les discours commerciaux et à vulgariser des concepts complexes).

Commençons par rappeler que les mécanismes actuellement mis en œuvre sous le terme « IA » sont pluriels et ne sont pas réellement nouveaux[7]. Ce qui l’est, c’est leur synergie et leur efficacité de traitement, rendues possibles par la performance des processeurs actuels et la baisse du coût de stockage de quantité considérable de données.

Pour être plus précis, cet assemblage de sciences et techniques (matérialisé par différentes classes d’algorithmes, en annexe) a contourné de manière extrêmement astucieuse les limites des anciens systèmes experts, qui exigeaient de programmer a priori des règles logiques de traitement de données pour imiter un raisonnement.Les approches actuelles sont inductives : l’idée est de réunir un nombre suffisant de données d’entrée et de résultats attendus en sortie afin de rechercher de manière (plus ou moins) automatisée les règles pouvant les lier. Cette recherche automatisée est ce que l’on qualifie d’apprentissage dans les algorithmes d’ « apprentissage machine » (machine learning) et se trouve formalisée dans un modèle décrivant mathématiquement les relations découvertes.  

L’objectif pour les ingénieurs n’est pas de comprendre les règles ou modèles automatiquement construits par l’ordinateur mais de s’assurer que la machine arrive à reproduire de mieux en mieux les résultats attendus, si nécessaire avec toujours plus de données par des phases successives d’ « apprentissage ».

2/ Les trois clés possibles de compréhension de l’IA

Tentons de reformuler les concepts esquissés précédemment :

  • l’IA n’est pas un objet unique et homogène : il s’agit en réalité d’un assemblage de sciences et techniques (mathématiques, statistiques, probabilités, neurobiologie, informatique) en capacité de traiter des données pour concevoir des tâches très complexes de traitement informatique ;
  • le moteur de l’IA ne produit pas de l’intelligence en soi mais fonctionne par une approche inductive : l’idée est d’associer de manière plus ou moins automatisée un ensemble d’observations (entrées) à un ensemble de résultats possibles (sorties) à l’aide de diverses propriétés pré-configurées ;
  • la fiabilité du modèle (ou fonction) construit sur cette base dépend fortement de la qualité des données utilisées et du choix de la technique d’apprentissage automatisée (machine learning).

Le concept d’IA est donc globalement à démystifier si l’on s’en tient à une interprétation stricte du mot « intelligence ». Nous avons affaire à des machines mathématiques, statistiques et probabilistes complexes et non des répliques (même sommaires) du cerveau humain (qui inclut des processus perceptifs, l’apprentissage, l’auto-organisation, l’adaptation). Prenons l’une de sous-classes du machine learning, les réseaux de neurones : si leur conception est bien inspirée des neurones biologiques, leur fonctionnement est en réalité fortement optimisé par des méthodes probabilistes dites bayésiennes. En d’autres termes, ces réseaux sont aussi comparables à de réels neurones que les « animatronics » de Disneyland sont similaires à des humains.

3/ Comment prévenir le risque de discrédit lorsque les promesses ne seront tenues

Le problème majeur, s’il y en avait un à qualifier, c’est la confusion entretenue entre les succès incontestables de l’IA dans des champs bien précis d’application et leur transposition dans des champs pour lesquels son utilisation apparaît comme bien plus contestable.

Lors d’une récente conférence tenue à Bologne sur la Cyberjustice, un jeune avocat italien affirmait que toutes les disciplines des sciences sociales pouvaient désormais être modélisées par l’IA[8]. La toute-puissance des méthodes inductives flottait dans l’air et à l’entendre la modélisation du monde dans son entier était à portée… Le « manque de conscience »  dénoncé par Yarden Katz était pourtant bien plus présent dans la salle que la révolution annoncée puisqu’il n’y avait personne du milieu académique pour partager avec lui les conclusions déjà citées de Yann LeCun ou l’interroger sur les raisons pour lesquelles Auguste Comte avait rompu avec la « physique sociale » pour parler de « sociologie »[9]. Certaines des entreprises commercialisant des services bâtis sur l’IA paraissent souvent négliger ces acquis, peut-être par méconnaissance, peut-être aussi pour ne pas décourager leurs sponsors financiers…

Évoquons toutefois quelques aspects pour lesquels tout concepteur d’IA devrait avoir des réponses pour démontrer les mesures qu’il a pu prendre… en conscience et pour ne pas discréditer la matière.

La cohérence des données analysées devrait tout d’abord pouvoir être démontrée : l’un des défauts de l’IA, c’est le risque de concevoir des modèles avec des données d’entrée et des résultats a priori de même nature mais en réalité légèrement discordants. Parvenir à constituer des jeux de données cohérents pour faire décoller une fusée, analyser une image ou jouer au go est un objectif complexe mais réalisable (pour le go, il s’agit de pierres noires, blanches, 19 lignes sur 19, des règles de jeu claires). Les sciences sociales posent de toutes autres difficultés de collecte : il est même parfois impossible de s’assurer que les résultats mesurés empiriquement procèdent exactement des mêmes causes. En ce sens, la réduction des biais dans les données utilisées pour l’apprentissage est un prérequis indispensable : des données biaisées produiront des modèles biaisés, qui reproduiront des résultats biaisés. Ceci étant dit, réunir des données sans biais est un exercice qui est peut-être impossible. Aleš Završnik, professeur associé à la faculté de droit de Ljubljana, affirmait lors d’une conférence à l’école polytechnique fédérale de Zurich (ETH) que nous en sommes réduits en réalité à choisir entre les biais purement humains ou les biais humains transférés dans les machines[10].

Citons aussi le phénomène du data snooping ou du data dredging, qui est à l’origine de nombreuses approximations[11]. Ces termes qualifient la sélection (dans un grand nombre de données et de résultats) d’un échantillon présentant à lui seul des associations statistiquement significatives, échantillon réemployé ensuite pour confirmer cette hypothèse. Pour résumer, cela revient à tirer une série de balles dans un mur puis dessiner ensuite une cible autour pour confirmer que vous l’avez bien touché. C’est aussi ce que les mathématiciens Cristian Sorin Callude et Giuseppe Longo dénoncent comme étant « le déluge des corrélations fallacieuses dans le big data »[12]. Tout résultat statistique serait en réalité à élargir à d’autres échantillons pour être vérifié et surtout ne pas fonder à lui seul des conclusions : ils pourrait être recoupés avec d’autres sciences ou techniques pour confirmer sa plausibilité[13].

Enfin, l’effet performatif est parfaitement connu mais en général non traité : un système apprenant sur la base de résultats qu’il contribue à produire risque fort de s’autoalimenter et de n’être représentatif que de lui-même. Le problème est aujourd’hui souvent identifié mais aucune solution concrète n’est proposée.

Les travers propres à l’interprétation des résultats produits par l’IA (renforcement des discriminations sur des facteurs ethniques, économiques, sociaux) ne seront pas développés ici mais justifient une réelle évaluation transdisciplinaire (économique, sociale, sociologique, philosophique, juridique) par des comités éthiques avant de mettre en œuvre tout traitement relatif à des individus[14]. Chaque cas d’utilisation de l’IA serait donc à considérer de manière globale pour le qualifier, peut-être aussi au travers d’une science spécifique à construire ? Iyad Rahwan et Manuel Cebrian, chercheurs au MIT, invitent à bâtir une nouvelle discipline scientifique relative au comportement des machines[15]. En écho, Nicolas Nova rappelait dans sa lettre d’information Lagniappe du 13 mai 2018, que les Sciences & Technologies Studies (STS) répondent déjà à ce besoin et que l’on pourrait plutôt s’interroger  sur les raisons pour lesquelles les ingénieurs, les scientifiques, les chercheurs des différents champs semblent parfois s’ignorer les uns les autres[16]. Le manque réciproque de connaissances épistémologiques est une évidente possibilité.

Les promesses renouvelées durant ces dernières années visant à bâtir une réelle  IA ne seront donc vraisemblablement pas tenues. Une fois la « hype » dissipée, la déception qui y succédera risque fort de compromettre le financement de nouveaux projets de recherche ou de nouvelles réalisations alors même que des potentialités existent dans des champs bien précis[17]. Le concept d’IA est donc à objectiver et à démystifier de manière urgente non pour résister aux changements de notre monde mais de manière à ne pas compromettre l’extraordinaire potentiel de cette puissance nouvelle de calcul à cause de discours hâtifs et exaltés, aux motifs pour le moins variables.

Animateur des Temps Electriques


Aller plus loin ?

Les différentes classes d’algorithme constituant l’IA et l’apprentissage machine



Notes

[1] Yarden Katz, Manufacturing an Artificial Intelligence Revolution, SSRN, 17 novembre 2017 – Consulté sur le site SSRN le 14 mai 2018 : https://ssrn.com/abstract=3078224 ou http://dx.doi.org/10.2139/ssrn.3078224

[2] Citons par exemple en France Dominique Cardon, Eric Sadin, Adrien Basdevant et Eric Mignard, Antoine Garapon et Jean Lassègue ; en Europe les travaux d’Aleš Završnik – Voir la rubrique Bibliographie de ce blog

[3] Emmanuel Barthe, Intelligence artificielle en droit : derrière la « hype », la réalité – Consulté sur le blog precisement.org le 10 mai 2018 : http://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html

[4] Douglas Lenat, chercheur en intelligence artificielle et directeur de la société Cycorp

[5] Yann LeCun, Qu’est-ce que l’intelligence artificielle, Collège de France – Consulté sur le site du collège de France le 16 juin 2017 : https://www.college-de-france.fr/media/yann-lecun/UPL4485925235409209505_Intelligence_Artificielle______Y._LeCun.pdf

[6] Distinction notamment réalisée par John Searle dans les années 1980, où il différencie un système qui aurait un esprit (au sens philosophique) et pourrait produire de la pensée d’un système qui ne peut qu’agir (même s’il donne l’impression de pouvoir penser)

[7] Le théorème de Thomas Bayes, étendus par Pierre-Simon Laplace, date du XVIIIème  siècle ; les bases des réseaux neuronaux ont été développées dans les années 1940 par Warren McCulloch and Walter Pitts (Created a computational model for neural networks based on mathematics and algorithms called threshold logic, 1943)

[8] Atelier de travail « Vers une cyberjustice », tenu les 10 et 11 mai 2018 à Bologne (Italie) à l’initiative de l’IRSIG-CNR (Istituto di Ricerca sui Sistimi Giudiziari – Consiglio Nazionale delle Ricerche)

[9] « La réduction des faits sociaux à des formules mathématiques et à des indicateurs inquiétait déjà plusieurs philosophes, écrivains et hommes de science, qui y voyaient un risque de moralisation de la vie sociale par l’algèbre et les  calculs » Adrien Basdevant, Jean-Pierre Mignard, L’empire des données, Don Quichotte, 2018, p. 40.

[10] Conférence « Justice automatisée : algorithms, big data et justice pénale » (Automated Justice: Algorithms, Big Data and Criminal Justice Systems) tenue le 20 avril 2018 à l’école polytechnique fédérale de Zurich (ETH) – Présentation accessible sur le site internet de l’université (anglais seulement) : https://www.video.ethz.ch/speakers/collegium-helveticum/digital-societies/automated_justice/84c3f617-8784-4203-b7a8-50a176811933.html

[11] Voir par exemple l’article de Regina Nuzzo, Statistical errors, Nature, vol. 506, 13 février 2014  – article consulté le 14 mai 2018 accessible par le lien suivant (anglais seulement) :  http://sisne.org/Disciplinas/PosGrad/MetRedCient/Statistical%20errors%20(p-values).pdf

[12] Théorie dite de « Ramsey », citée par Cristian Sorin Calude et Giuseppe Longo dans La toile que nous voulons, p.156, collectif, Institut de Recherche et d’Innovation, FYP éditions ; théorie développée dans l’étude de Ronald L. Graham, Joel H. Spencer – Ramsey Theory, Scientific American, vol.263, n°1, juillet 1990, p112-117

[13] Regina Nuzzo, Statiscal errors, déjà cité.

[14] Par exemple le renforcement des discriminations tel qu’en témoigne le logiciel COMPAS aux Etats-Unis ou HART en Grande-Bretagne qui prétendent évaluer la risque de récidive des personnes mises en cause dans des affaires pénales

[15] Iyad Rahwan, Manuel Cebrian, Machine Behavior needs to be academic discipline, Nautilus, 29 mars 2018 – Consulté le site Nautilus le 14 mai 2018 (anglais seulement) : http://nautil.us/issue/58/self/machine-behavior-needs-to-be-an-academic-discipline

[16] Nicolas Nova est chercheur et Professeur associé à la Haute École d’art et de design à Genève, sa lettre d’information est accessible à l’adresse suivante : https://tinyletter.com/nicolasnova

[17] Voir notamment les propos de Michael I. Jordan dans Le Monde, 1er décembre 2015, où il estime notamment que « le battage médiatique autour des possibilités excitantes de l’analyse du big data est trop important. Les attentes actuelles dépassent de loin la réalité de ce que l’on peut obtenir. Le problème est que lorsque de telles attentes ne sont pas remplies tout de suite, la déception engendrée peut jeter un discrédit sur l’ensemble même du secteur. » – Consulté sur le site du Monde le 11 mai 2018 : http://www.lemonde.fr/sciences/article/2015/12/01/michael-jordan-une-approche-transversale-est-primordiale-pour-saisir-le-monde-actuel_4821327_1650684.html