La démarche scientifique disruptée par l’intelligence artificielle ?

Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ?

Crédits : Image générée avec Adobe Express Beta

Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche fondamentale est maintenant présentée comme le tout nouveau terrain d’application prometteur. Se plaçant sur un tout autre terrain que Chris Anderson et sa fin de la théorie[1], des chercheurs du Northwestern Institute on Complex Systems affirment dans deux articles parus dans la revue Proceedings of the National Academy of Sciences (PNAS) en 2020[2] et 2023[3] que ces algorithmes apprenants pourraient être utilisés pour prédire quelles études scientifiques ne seraient pas susceptibles d’être reproductibles.

Continuer la lecture de « La démarche scientifique disruptée par l’intelligence artificielle ? »

Réglementation de l’intelligence artificielle : une perspective transatlantique

Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada

Crédits : Getty Images

L’encadrement du développement de l’intelligence artificielle (« IA ») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.

Continuer la lecture de « Réglementation de l’intelligence artificielle : une perspective transatlantique »

Réglementations européennes de l’intelligence artificielle : la tentation du pragmatisme

Les droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires en Europe

[Mise à jour du 10 mars 2023] L’examen en parallèle des deux projets d’instruments juridiques contraignants sur l’intelligence artificielle provenant de l’Union européenne (Proposition de réglement sur l’intelligence artificielle – RIA ou « AI act ») et du Conseil de l’Europe (projet de convention [cadre] sur l’IA) nous rend sensible la place accordée aux droits humains à l’ère numérique. Si la proposition de la Commission européenne a déjà été abondamment commentée, et critiquée sur cet aspect, le projet du Conseil de l’Europe est susceptible d’apporter une brique d’importance relative aux droits de l’Homme, à la démocratie et à l’État de droit à l’ensemble des textes internationaux dans la matière.

L’objet de cet article, qui s’intègre dans un ensemble de recherche plus vaste sur la régulation internationale et européenne de l’IA (thèse à soutenir durant l’année 2023), est de documenter l’évolution de la place accordée aux droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires irriguant le continent européen.

> Sollicitez l’article en prépublication (version 2.1 du 10 mars 2023) sur contact.ym[at]pm.me

L’automne de l’intelligence artificielle

Un billet publié par Hugues Delabarre en octobre 2022 dans un groupe Facebook sur l’intelligence artificielle titrait « Pourquoi l’IA ne suscite plus l’engouement des foules ». En partant d’un constat technique (la stagnation du nombre des membres de ce groupe et la baisse du nombre de vues), il y développe des arguments méritant toute notre attention. L’auteur écarte tout d’abord l’idée que nous serions entrés dans un nouvel « hiver » de l’IA mais soutient qu’au vu des promesses démesurées des dernières années non tenues, la raison aurait repris le dessus. Il y affirme aussi que la banalisation du numérique et de l’IA, saisis par les pouvoirs publics, seraient devenus les outils idéaux d’une société de surveillance de masse et conclut par le constat que l’on aurait vendu un « futur qui n’existe pas ». Il cite les véhicules autonomes promis comme toujours prochainement matures en 2018 (n’étant toujours pas au point), le robot Tesla nécessitant une assistance bien humaine, le quantique cherchant des applications concrètes et le « métavers » surfant à son tour sur le haut de la vague de la hype.

Continuer la lecture de « L’automne de l’intelligence artificielle »

Repenser la justice sociale en contexte d’IA : défis majeurs

Texte préparé et présenté dans le cadre de la conférence internationale organisée par la Chaire Justice sociale et intelligence artificielle – Fondation Abeona / ENS / OBVIA le 31 mai 2022, à l’ENS Ulm

Présenté le 31 mai 2022 à l’ENS (Paris) – Ce texte a déjà fait l’objet d’une publication dans la revue Éthique publique, vol. 23, n° 2 (2021) [1] – Accessible sur https://doi.org/10.4000/ethiquepublique.6323

ENS Ulm, 31 mai 2022

Les trois grands défis posés par la gouvernance de l’intelligence artificielle et de la transformation numérique

La célérité avec laquelle notre société et nos modes de vie se transforment sous l’effet des technologies numériques est tout à fait inédite. L’intelligence artificielle (« IA[2] ») est certainement l’un principaux moteurs de cette transformation, au cœur d’un nombre croissant de services qui peuplent déjà notre quotidien. Ce terme « d’IA », dont le contenu a substantiellement évolué depuis sa création en 1955[3], a été réenchanté depuis le début des années 2010 et désigne désormais les divers algorithmes d’apprentissage automatique (machine learning, comme l’apprentissage profond – deep learning), dont les résultats des traitements sont apparus comme particulièrement spectaculaires non seulement pour la reconnaissance d’images ou de sons, mais aussi pour le traitement du langage naturel.

Continuer la lecture de « Repenser la justice sociale en contexte d’IA : défis majeurs »

Jurimétrie : l’aléa judiciaire dirigé

De la certitude des prédictions à l’incertitude des probabilités

Texte préparé et présenté dans le cadre du colloque « L’intelligence artificielle et la fonction de juger », organisé à la Cour de cassation le 21 avril 2022 par l’Institut de recherche pour un droit attractif de l’Université Sorbonne Paris Nord (IRDA) et le Centre de droit civil des affaires et du contentieux économique (CEDCACE), axe justice judiciaire, amiable et numérique de l’Université Paris Nanterre

Texte publié le 22 avril 2022 et révisé le 24 avril 2022

La résurgence de l’intelligence artificielle (« IA[1] ») dans notre quotidien depuis le début des années 2010 doit beaucoup à la science statistique. Les différentes méthodes d’apprentissage automatique empruntent en effet nombre d’approches de la discipline, en traitant et en interprétant de grands ensembles de données. Les résultats remarquables obtenus, notamment pour la reconnaissance d’images ou de sons, ont conduit à un vif enthousiasme des entrepreneurs qui ont cherché à en généraliser l’application. Le secteur de la justice n’a pas échappé à cette évolution en France, essentiellement à l’initiative de très dynamiques startups spécialisées dans le droit (legaltechs), qui ont affiné leurs offres depuis le milieu des années 2010.

Continuer la lecture de « Jurimétrie : l’aléa judiciaire dirigé »

Quelle est la probabilité qu’une IA précise à 99% reconnaisse un individu ? Spoiler : ce n’est pas 9 chances sur 10

Les discussions sur l’emploi de la reconnaissance faciale[1] dans les espaces publics par les forces de l’ordre paraissent toujours particulièrement sensibles et ont fortement animé la préparation du projet de règlement sur l’intelligence artificielle (IA) de la Commission européenne paru en avril 2021. Outre la volonté des gouvernements de disposer d’outils de meilleurs outils de prévention de la criminalité, on voit qu’il est aussi question de mettre de l’ordre dans les pratiques d’opérateurs privés qui inquiètent l’opinion publique et ont conduit à des réactions des autorités de protection des données[2].

Continuer la lecture de « Quelle est la probabilité qu’une IA précise à 99% reconnaisse un individu ? Spoiler : ce n’est pas 9 chances sur 10 »

Une IA plus performante que les humains pour [%insérer ici ce que vous voulez%]

Guide pratique à l’attention de rédacteurs paresseux souhaitant meubler leurs colonnes avec les exploits de l’intelligence artificielle

Durant la dernière décennie, l’intelligence artificielle (IA) s’est taillé une place de choix parmi les sujets « serpents de mer » du journalisme. Présentée comme pouvant résoudre des catégories sans cesse plus vastes de tâches complexes et de problèmes dans notre société, cette technologie est invariablement présentée dans les articles destinés au grand public comme étant sur le point d’apporter ses bénéfices à l’humanité pour « sauver des vies », « rendre plus efficaces et fiables » nos décisions et ringardiser l’expertise humaine, tout en agitant le spectre de la déshumanisation et de la robotisation. Pas de quoi faire avancer substantiellement les débats donc.

Continuer la lecture de « Une IA plus performante que les humains pour [%insérer ici ce que vous voulez%] »

Yannick Meneceur reçoit le Prix du Cercle Montesquieu 2021

L’ouvrage de Yannick Meneceur « L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne », publié aux éditions Bruylant, a reçu le 8 septembre 2021 le Prix du Cercle Montesquieu 2021. Le prix a été remis en clôture des #débatsduCercle2021, par Laure Lavorel, Présidente du Cercle et Matthieu Juglar, président de Droit Comme un H !

Référence en matière d’ouvrages juridiques, le Prix du Cercle Montesquieu récompense, chaque année depuis 1997, les meilleurs ouvrages en droit des affaires ou sur la gestion des fonctions juridiques.

Ce prix constitue une reconnaissance de l’intérêt porté aux débats sur la constitution d’un cadre juridique pour le développement de cette technologie, fondé sur les droits de l’homme, la démocratie et l’État de droit.

Le Prix du Cercle Montesquieu 2020 avait été décerné à l’ouvrage Blockchain et actif numérique de Dominique Legeais, paru aux éditions LexisNexis.


Mots de remerciements

Mesdames, Messieurs,

C’est un privilège de recevoir aujourd’hui ce prix des mains d’un avocat aussi renommé que Maître Matthieu Juglar et un honneur d’avoir été distingué par le jury du Cercle placé sous la présidence de Bénédicte Wautelet.

Je vous adresse mes plus profonds remerciements qui ont une résonnance, je vous l’assure, tout à fait particulière, quand je me replace dans les années 1980, dans ma banlieue toulousaine et que je revois mes parents prendre sur leurs très modestes économies pour m’offrir mon tout premier ordinateur.

Cette récompense est naturellement à partager avec mon éditeur, Bruylant et le Groupe Larcier, représenté aujourd’hui par Paul-Etienne Pimont et Nicolas Cassart ainsi qu’avec le directeur de la collection Micro Droit Macro Droit, mon collègue et ami Thomas Cassuto. Sans leur confiance, ni celle de l’Institut PRESAJE, ce travail n’aurait jamais pu voir le jour.

Je ne peux également omettre de mentionner Antoine Garapon, ancien magistrat et auteur bien connu, dont l’érudition n’a cessé de nourrir mes réflexions et qui a eu la gentillesse de rédiger une préface. Je me dois aussi de remercier Jan Kleijssen, mieux connu des sphères européennes et internationales que françaises, qui est aujourd’hui l’un des artisans acharnés d’une réglementation de l’intelligence artificielle et qui livre, en postface, sa vision d’une nouvelle architecture juridique pour accompagner la transformation numérique.

Étant la dernière barrière avec la clôture de cette longue journée de débats, je n’ajouterai donc pas de longs propos et je suis extrêmement fier de savoir que cet ouvrage, par votre distinction, va rejoindre d’autres brillants travaux, comme ceux de Dominique Legeais, sur les blockchains et les actifs numérique, pour constituer une référence dans vos fonctions.

Je ne peux que défendre auprès de vous l’idée qu’un développement à long terme des technologies numériques, dont l’intelligence artificielle est le cœur, ne pourra se faire sans le droit. La confiance du public dans les traitements opérés par des algorithmes sans cesse plus sophistiqués ne naîtra pas de seules déclarations volontaristes et d’éthiques (au pluriel) au contenu extrêmement variable. Le droit doit permettre de traduire les principes et les valeurs communes que nous souhaitons protéger dans une ère où nombre d’équilibres sont remis en jeu.

J’espère que ce travail contribuera à alimenter les débats sur des faits, et non sur la base des impressions, afin de continuer de placer au centre de nos réflexions sur la transformation numérique les droits de l’homme, la démocratie et l’État de droit.

Encore merci au jury et au Cercle Montesquieu pour cet honneur.