Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ?
Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche fondamentale est maintenant présentée comme le tout nouveau terrain d’application prometteur. Se plaçant sur un tout autre terrain que Chris Anderson et sa fin de la théorie[1], des chercheurs du Northwestern Institute on Complex Systems affirment dans deux articles parus dans la revue Proceedings of the National Academy of Sciences (PNAS) en 2020[2] et 2023[3] que ces algorithmes apprenants pourraient être utilisés pour prédire quelles études scientifiques ne seraient pas susceptibles d’être reproductibles.
Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada
L’encadrement du développement de l’intelligence artificielle (« IA») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.
Les droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires en Europe
[Mise à jour du 10 mars 2023] L’examen en parallèle des deux projets d’instruments juridiques contraignants sur l’intelligence artificielle provenant de l’Union européenne (Proposition de réglement sur l’intelligence artificielle – RIA ou « AI act ») et du Conseil de l’Europe (projet de convention [cadre] sur l’IA) nous rend sensible la place accordée aux droits humains à l’ère numérique. Si la proposition de la Commission européenne a déjà été abondamment commentée, et critiquée sur cet aspect, le projet du Conseil de l’Europe est susceptible d’apporter une brique d’importance relative aux droits de l’Homme, à la démocratie et à l’État de droit à l’ensemble des textes internationaux dans la matière.
L’objet de cet article, qui s’intègre dans un ensemble de recherche plus vaste sur la régulation internationale et européenne de l’IA (thèse à soutenir durant l’année 2023), est de documenter l’évolution de la place accordée aux droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires irriguant le continent européen.
> Sollicitez l’article en prépublication (version 2.1 du 10 mars 2023) sur contact.ym[at]pm.me
Un billet publié par Hugues Delabarre en octobre 2022 dans un groupe Facebook sur l’intelligence artificielle titrait « Pourquoi l’IA ne suscite plus l’engouement des foules ». En partant d’un constat technique (la stagnation du nombre des membres de ce groupe et la baisse du nombre de vues), il y développe des arguments méritant toute notre attention. L’auteur écarte tout d’abord l’idée que nous serions entrés dans un nouvel « hiver » de l’IA mais soutient qu’au vu des promesses démesurées des dernières années non tenues, la raison aurait repris le dessus. Il y affirme aussi que la banalisation du numérique et de l’IA, saisis par les pouvoirs publics, seraient devenus les outils idéaux d’une société de surveillance de masse et conclut par le constat que l’on aurait vendu un « futur qui n’existe pas ». Il cite les véhicules autonomes promis comme toujours prochainement matures en 2018 (n’étant toujours pas au point), le robot Tesla nécessitant une assistance bien humaine, le quantique cherchant des applications concrètes et le « métavers » surfant à son tour sur le haut de la vague de la hype.
Qui donc qu’un ordinateur est mieux placé pour qualifier l’intelligence artificielle ? Tranchons enfin les controverses en laissant ce générateur vous proposer une définition originale de cette technologie !
Texte préparé et présenté dans le cadre de la conférence internationale organisée par la Chaire Justice sociale et intelligence artificielle – Fondation Abeona / ENS / OBVIA le 31 mai 2022, à l’ENS Ulm
Présenté le 31 mai 2022 à l’ENS (Paris) – Ce texte a déjà fait l’objet d’une publication dans la revue Éthique publique, vol. 23, n° 2 (2021) [1] – Accessible sur https://doi.org/10.4000/ethiquepublique.6323
Les trois grands défis posés par la gouvernance de l’intelligence artificielle et de la transformation numérique
La célérité avec laquelle notre société et nos modes de vie se transforment sous l’effet des technologies numériques est tout à fait inédite. L’intelligence artificielle (« IA[2] ») est certainement l’un principaux moteurs de cette transformation, au cœur d’un nombre croissant de services qui peuplent déjà notre quotidien. Ce terme « d’IA », dont le contenu a substantiellement évolué depuis sa création en 1955[3], a été réenchanté depuis le début des années 2010 et désigne désormais les divers algorithmes d’apprentissage automatique (machine learning, comme l’apprentissage profond – deep learning), dont les résultats des traitements sont apparus comme particulièrement spectaculaires non seulement pour la reconnaissance d’images ou de sons, mais aussi pour le traitement du langage naturel.
De la certitude des prédictions à l’incertitude des probabilités
Texte préparé et présenté dans le cadre du colloque « L’intelligence artificielle et la fonction de juger », organisé à la Cour de cassation le 21 avril 2022 par l’Institut de recherche pour un droit attractif de l’Université Sorbonne Paris Nord (IRDA) et le Centre de droit civil des affaires et du contentieux économique (CEDCACE), axe justice judiciaire, amiable et numérique de l’Université Paris Nanterre
Texte publié le 22 avril 2022 et révisé le 24 avril 2022
La résurgence de l’intelligence artificielle (« IA[1] ») dans notre quotidien depuis le début des années 2010 doit beaucoup à la science statistique. Les différentes méthodes d’apprentissage automatique empruntent en effet nombre d’approches de la discipline, en traitant et en interprétant de grands ensembles de données. Les résultats remarquables obtenus, notamment pour la reconnaissance d’images ou de sons, ont conduit à un vif enthousiasme des entrepreneurs qui ont cherché à en généraliser l’application. Le secteur de la justice n’a pas échappé à cette évolution en France, essentiellement à l’initiative de très dynamiques startups spécialisées dans le droit (legaltechs), qui ont affiné leurs offres depuis le milieu des années 2010.
Les discussions sur l’emploi de la reconnaissance faciale[1] dans les espaces publics par les forces de l’ordre paraissent toujours particulièrement sensibles et ont fortement animé la préparation du projet de règlement sur l’intelligence artificielle (IA) de la Commission européenne paru en avril 2021. Outre la volonté des gouvernements de disposer d’outils de meilleurs outils de prévention de la criminalité, on voit qu’il est aussi question de mettre de l’ordre dans les pratiques d’opérateurs privés qui inquiètent l’opinion publique et ont conduit à des réactions des autorités de protection des données[2].
Guide pratique à l’attention de rédacteurs paresseux souhaitant meubler leurs colonnes avec les exploits de l’intelligence artificielle
Durant la dernière décennie, l’intelligence artificielle (IA) s’est taillé une place de choix parmi les sujets « serpents de mer » du journalisme. Présentée comme pouvant résoudre des catégories sans cesse plus vastes de tâches complexes et de problèmes dans notre société, cette technologie est invariablement présentée dans les articles destinés au grand public comme étant sur le point d’apporter ses bénéfices à l’humanité pour « sauver des vies », « rendre plus efficaces et fiables » nos décisions et ringardiser l’expertise humaine, tout en agitant le spectre de la déshumanisation et de la robotisation. Pas de quoi faire avancer substantiellement les débats donc.
Référence en matière d’ouvrages juridiques, le Prix du Cercle Montesquieu récompense, chaque année depuis 1997, les meilleurs ouvrages en droit des affaires ou sur la gestion des fonctions juridiques.
Ce prix constitue une reconnaissance de l’intérêt porté aux débats sur la constitution d’un cadre juridique pour le développement de cette technologie, fondé sur les droits de l’homme, la démocratie et l’État de droit.
Le Prix du Cercle Montesquieu 2020 avait été décerné à l’ouvrage Blockchain et actif numérique de Dominique Legeais, paru aux éditions LexisNexis.
Mots de remerciements
Mesdames, Messieurs,
C’est un privilège de recevoir aujourd’hui ce prix des mains d’un avocat aussi renommé que Maître Matthieu Juglar et un honneur d’avoir été distingué par le jury du Cercle placé sous la présidence de Bénédicte Wautelet.
Je vous adresse mes plus profonds remerciements qui ont une résonnance, je vous l’assure, tout à fait particulière, quand je me replace dans les années 1980, dans ma banlieue toulousaine et que je revois mes parents prendre sur leurs très modestes économies pour m’offrir mon tout premier ordinateur.
Cette récompense est naturellement à partager avec mon éditeur, Bruylant et le Groupe Larcier, représenté aujourd’hui par Paul-Etienne Pimont et Nicolas Cassart ainsi qu’avec le directeur de la collection Micro Droit Macro Droit, mon collègue et ami Thomas Cassuto. Sans leur confiance, ni celle de l’Institut PRESAJE, ce travail n’aurait jamais pu voir le jour.
Je ne peux également omettre de mentionner Antoine Garapon, ancien magistrat et auteur bien connu, dont l’érudition n’a cessé de nourrir mes réflexions et qui a eu la gentillesse de rédiger une préface. Je me dois aussi de remercier Jan Kleijssen, mieux connu des sphères européennes et internationales que françaises, qui est aujourd’hui l’un des artisans acharnés d’une réglementation de l’intelligence artificielle et qui livre, en postface, sa vision d’une nouvelle architecture juridique pour accompagner la transformation numérique.
Étant la dernière barrière avec la clôture de cette longue journée de débats, je n’ajouterai donc pas de longs propos et je suis extrêmement fier de savoir que cet ouvrage, par votre distinction, va rejoindre d’autres brillants travaux, comme ceux de Dominique Legeais, sur les blockchains et les actifs numérique, pour constituer une référence dans vos fonctions.
Je ne peux que défendre auprès de vous l’idée qu’un développement à long terme des technologies numériques, dont l’intelligence artificielle est le cœur, ne pourra se faire sans le droit. La confiance du public dans les traitements opérés par des algorithmes sans cesse plus sophistiqués ne naîtra pas de seules déclarations volontaristes et d’éthiques (au pluriel) au contenu extrêmement variable. Le droit doit permettre de traduire les principes et les valeurs communes que nous souhaitons protéger dans une ère où nombre d’équilibres sont remis en jeu.
J’espère que ce travail contribuera à alimenter les débats sur des faits, et non sur la base des impressions, afin de continuer de placer au centre de nos réflexions sur la transformation numérique les droits de l’homme, la démocratie et l’État de droit.
Encore merci au jury et au Cercle Montesquieu pour cet honneur.