La langue des probables

Crédits : Créé avec Dall-E

Les larges modèles de langage (LLM, large language models), mis en lumière avec ChatGPT, ont redéfini le paysage contemporain de l’intelligence artificielle, en concentrant autour de leur développement tous les espoirs de la discipline. La production automatisée et très convaincante d’écrits, mais également d’images, de vidéos, de musiques n’a pas tardé à provoquer une réelle sidération collective, mêlant espoirs fantasmatiques, critiques alarmistes et appels à la raison.

Continuer la lecture de « La langue des probables »

Réglementation de l’intelligence artificielle : une perspective transatlantique

Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada

Crédits : Getty Images

L’encadrement du développement de l’intelligence artificielle (« IA ») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.

Continuer la lecture de « Réglementation de l’intelligence artificielle : une perspective transatlantique »

Réglementations européennes de l’intelligence artificielle : la tentation du pragmatisme

Les droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires en Europe

[Mise à jour du 10 mars 2023] L’examen en parallèle des deux projets d’instruments juridiques contraignants sur l’intelligence artificielle provenant de l’Union européenne (Proposition de réglement sur l’intelligence artificielle – RIA ou « AI act ») et du Conseil de l’Europe (projet de convention [cadre] sur l’IA) nous rend sensible la place accordée aux droits humains à l’ère numérique. Si la proposition de la Commission européenne a déjà été abondamment commentée, et critiquée sur cet aspect, le projet du Conseil de l’Europe est susceptible d’apporter une brique d’importance relative aux droits de l’Homme, à la démocratie et à l’État de droit à l’ensemble des textes internationaux dans la matière.

L’objet de cet article, qui s’intègre dans un ensemble de recherche plus vaste sur la régulation internationale et européenne de l’IA (thèse à soutenir durant l’année 2023), est de documenter l’évolution de la place accordée aux droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires irriguant le continent européen.

> Sollicitez l’article en prépublication (version 2.1 du 10 mars 2023) sur contact.ym[at]pm.me

L’automne de l’intelligence artificielle

Un billet publié par Hugues Delabarre en octobre 2022 dans un groupe Facebook sur l’intelligence artificielle titrait « Pourquoi l’IA ne suscite plus l’engouement des foules ». En partant d’un constat technique (la stagnation du nombre des membres de ce groupe et la baisse du nombre de vues), il y développe des arguments méritant toute notre attention. L’auteur écarte tout d’abord l’idée que nous serions entrés dans un nouvel « hiver » de l’IA mais soutient qu’au vu des promesses démesurées des dernières années non tenues, la raison aurait repris le dessus. Il y affirme aussi que la banalisation du numérique et de l’IA, saisis par les pouvoirs publics, seraient devenus les outils idéaux d’une société de surveillance de masse et conclut par le constat que l’on aurait vendu un « futur qui n’existe pas ». Il cite les véhicules autonomes promis comme toujours prochainement matures en 2018 (n’étant toujours pas au point), le robot Tesla nécessitant une assistance bien humaine, le quantique cherchant des applications concrètes et le « métavers » surfant à son tour sur le haut de la vague de la hype.

Continuer la lecture de « L’automne de l’intelligence artificielle »

Repenser la justice sociale en contexte d’IA : défis majeurs

Texte préparé et présenté dans le cadre de la conférence internationale organisée par la Chaire Justice sociale et intelligence artificielle – Fondation Abeona / ENS / OBVIA le 31 mai 2022, à l’ENS Ulm

Présenté le 31 mai 2022 à l’ENS (Paris) – Ce texte a déjà fait l’objet d’une publication dans la revue Éthique publique, vol. 23, n° 2 (2021) [1] – Accessible sur https://doi.org/10.4000/ethiquepublique.6323

ENS Ulm, 31 mai 2022

Les trois grands défis posés par la gouvernance de l’intelligence artificielle et de la transformation numérique

La célérité avec laquelle notre société et nos modes de vie se transforment sous l’effet des technologies numériques est tout à fait inédite. L’intelligence artificielle (« IA[2] ») est certainement l’un principaux moteurs de cette transformation, au cœur d’un nombre croissant de services qui peuplent déjà notre quotidien. Ce terme « d’IA », dont le contenu a substantiellement évolué depuis sa création en 1955[3], a été réenchanté depuis le début des années 2010 et désigne désormais les divers algorithmes d’apprentissage automatique (machine learning, comme l’apprentissage profond – deep learning), dont les résultats des traitements sont apparus comme particulièrement spectaculaires non seulement pour la reconnaissance d’images ou de sons, mais aussi pour le traitement du langage naturel.

Continuer la lecture de « Repenser la justice sociale en contexte d’IA : défis majeurs »

Jurimétrie : l’aléa judiciaire dirigé

De la certitude des prédictions à l’incertitude des probabilités

Texte préparé et présenté dans le cadre du colloque « L’intelligence artificielle et la fonction de juger », organisé à la Cour de cassation le 21 avril 2022 par l’Institut de recherche pour un droit attractif de l’Université Sorbonne Paris Nord (IRDA) et le Centre de droit civil des affaires et du contentieux économique (CEDCACE), axe justice judiciaire, amiable et numérique de l’Université Paris Nanterre

Texte publié le 22 avril 2022 et révisé le 24 avril 2022

La résurgence de l’intelligence artificielle (« IA[1] ») dans notre quotidien depuis le début des années 2010 doit beaucoup à la science statistique. Les différentes méthodes d’apprentissage automatique empruntent en effet nombre d’approches de la discipline, en traitant et en interprétant de grands ensembles de données. Les résultats remarquables obtenus, notamment pour la reconnaissance d’images ou de sons, ont conduit à un vif enthousiasme des entrepreneurs qui ont cherché à en généraliser l’application. Le secteur de la justice n’a pas échappé à cette évolution en France, essentiellement à l’initiative de très dynamiques startups spécialisées dans le droit (legaltechs), qui ont affiné leurs offres depuis le milieu des années 2010.

Continuer la lecture de « Jurimétrie : l’aléa judiciaire dirigé »

Quelle est la probabilité qu’une IA précise à 99% reconnaisse un individu ? Spoiler : ce n’est pas 9 chances sur 10

Les discussions sur l’emploi de la reconnaissance faciale[1] dans les espaces publics par les forces de l’ordre paraissent toujours particulièrement sensibles et ont fortement animé la préparation du projet de règlement sur l’intelligence artificielle (IA) de la Commission européenne paru en avril 2021. Outre la volonté des gouvernements de disposer d’outils de meilleurs outils de prévention de la criminalité, on voit qu’il est aussi question de mettre de l’ordre dans les pratiques d’opérateurs privés qui inquiètent l’opinion publique et ont conduit à des réactions des autorités de protection des données[2].

Continuer la lecture de « Quelle est la probabilité qu’une IA précise à 99% reconnaisse un individu ? Spoiler : ce n’est pas 9 chances sur 10 »

Une IA plus performante que les humains pour [%insérer ici ce que vous voulez%]

Guide pratique à l’attention de rédacteurs paresseux souhaitant meubler leurs colonnes avec les exploits de l’intelligence artificielle

Durant la dernière décennie, l’intelligence artificielle (IA) s’est taillé une place de choix parmi les sujets « serpents de mer » du journalisme. Présentée comme pouvant résoudre des catégories sans cesse plus vastes de tâches complexes et de problèmes dans notre société, cette technologie est invariablement présentée dans les articles destinés au grand public comme étant sur le point d’apporter ses bénéfices à l’humanité pour « sauver des vies », « rendre plus efficaces et fiables » nos décisions et ringardiser l’expertise humaine, tout en agitant le spectre de la déshumanisation et de la robotisation. Pas de quoi faire avancer substantiellement les débats donc.

Continuer la lecture de « Une IA plus performante que les humains pour [%insérer ici ce que vous voulez%] »

Le piège de la définition juridique de l’intelligence artificielle

En avril 2021, la Commission européenne posait, dans son projet de réglementation sur l’intelligence artificielle (« IA »), une définition de cette technologie[1] dont les mérites, et les défauts, ont été largement débattus. Trop large pour certains, trop précise pour d’autres, il semble que les dernières orientations du Conseil de l’Union européenne tendent maintenant à en restreindre le champ pour concentrer les efforts réglementaires sur les dernières technologies en vogue[2].

Continuer la lecture de « Le piège de la définition juridique de l’intelligence artificielle »