La démarche scientifique disruptée par l’intelligence artificielle ?

Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ?

Crédits : Image générée avec Adobe Express Beta

Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche fondamentale est maintenant présentée comme le tout nouveau terrain d’application prometteur. Se plaçant sur un tout autre terrain que Chris Anderson et sa fin de la théorie[1], des chercheurs du Northwestern Institute on Complex Systems affirment dans deux articles parus dans la revue Proceedings of the National Academy of Sciences (PNAS) en 2020[2] et 2023[3] que ces algorithmes apprenants pourraient être utilisés pour prédire quelles études scientifiques ne seraient pas susceptibles d’être reproductibles.

Continuer la lecture de « La démarche scientifique disruptée par l’intelligence artificielle ? »

Réglementation de l’intelligence artificielle : une perspective transatlantique

Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada

Crédits : Getty Images

L’encadrement du développement de l’intelligence artificielle (« IA ») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.

Continuer la lecture de « Réglementation de l’intelligence artificielle : une perspective transatlantique »

Réglementations européennes de l’intelligence artificielle : la tentation du pragmatisme

Les droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires en Europe

[Mise à jour du 10 mars 2023] L’examen en parallèle des deux projets d’instruments juridiques contraignants sur l’intelligence artificielle provenant de l’Union européenne (Proposition de réglement sur l’intelligence artificielle – RIA ou « AI act ») et du Conseil de l’Europe (projet de convention [cadre] sur l’IA) nous rend sensible la place accordée aux droits humains à l’ère numérique. Si la proposition de la Commission européenne a déjà été abondamment commentée, et critiquée sur cet aspect, le projet du Conseil de l’Europe est susceptible d’apporter une brique d’importance relative aux droits de l’Homme, à la démocratie et à l’État de droit à l’ensemble des textes internationaux dans la matière.

L’objet de cet article, qui s’intègre dans un ensemble de recherche plus vaste sur la régulation internationale et européenne de l’IA (thèse à soutenir durant l’année 2023), est de documenter l’évolution de la place accordée aux droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires irriguant le continent européen.

> Sollicitez l’article en prépublication (version 2.1 du 10 mars 2023) sur contact.ym[at]pm.me

L’automne de l’intelligence artificielle

Un billet publié par Hugues Delabarre en octobre 2022 dans un groupe Facebook sur l’intelligence artificielle titrait « Pourquoi l’IA ne suscite plus l’engouement des foules ». En partant d’un constat technique (la stagnation du nombre des membres de ce groupe et la baisse du nombre de vues), il y développe des arguments méritant toute notre attention. L’auteur écarte tout d’abord l’idée que nous serions entrés dans un nouvel « hiver » de l’IA mais soutient qu’au vu des promesses démesurées des dernières années non tenues, la raison aurait repris le dessus. Il y affirme aussi que la banalisation du numérique et de l’IA, saisis par les pouvoirs publics, seraient devenus les outils idéaux d’une société de surveillance de masse et conclut par le constat que l’on aurait vendu un « futur qui n’existe pas ». Il cite les véhicules autonomes promis comme toujours prochainement matures en 2018 (n’étant toujours pas au point), le robot Tesla nécessitant une assistance bien humaine, le quantique cherchant des applications concrètes et le « métavers » surfant à son tour sur le haut de la vague de la hype.

Continuer la lecture de « L’automne de l’intelligence artificielle »

Métavers : le pari de l’immersion comme futur de l’expérience utilisateur

En homme d’affaires avisé et visionnaire, Marc Zuckerberg anticipe les tendances. Mais, à l’image d’un pompier pyromane qui anticipe les lieux où les feux vont apparaître, l’on doit aussi admettre que ce don de prescience est facilité pour l’ingénieur-entrepreneur en détenant le pouvoir d’attirer à lui un immense capital d’utilisateurs, et donc d’investisseurs en capacité de concrétiser ses visions. C’est ainsi qu’en annonçant le 28 octobre 2021, lors de la Keynote Connect, le futur de l’internet mobile et des interactions sociales en lui attribuant un nom (le métavers), Zuckerberg a incontestablement créé une tendance[1].

L’immersion : un sujet pas tout à fait nouveau

Les vieux routards du jeu vidéo ont certainement été parmi les moins impressionnés de cette annonce, pour fréquenter maintenant depuis des décennies diverses formes de ce qui est, pour l’instant, juste un nouveau label marketing[2]. Pour tenter de poser une définition, ces « méta-univers » pourraient être décrits comme des mondes virtuels connectés à un réseau informatique (comme l’Internet), accessibles par une interface immergeant leurs utilisateurs dans une simulation graphique rendant possible les interactions avec leur environnement et d’autres utilisateurs (réels ou artificiels). Nous reviendrons plus tard sur les solides confusions avec d’autres technologies, comme le web3 et les blockchains, entretenues par des experts de l’instant pour nous concentrer sur le cœur de l’expérience offerte par les métavers : l’immersion.

Continuer la lecture de « Métavers : le pari de l’immersion comme futur de l’expérience utilisateur »

Repenser la justice sociale en contexte d’IA : défis majeurs

Texte préparé et présenté dans le cadre de la conférence internationale organisée par la Chaire Justice sociale et intelligence artificielle – Fondation Abeona / ENS / OBVIA le 31 mai 2022, à l’ENS Ulm

Présenté le 31 mai 2022 à l’ENS (Paris) – Ce texte a déjà fait l’objet d’une publication dans la revue Éthique publique, vol. 23, n° 2 (2021) [1] – Accessible sur https://doi.org/10.4000/ethiquepublique.6323

ENS Ulm, 31 mai 2022

Les trois grands défis posés par la gouvernance de l’intelligence artificielle et de la transformation numérique

La célérité avec laquelle notre société et nos modes de vie se transforment sous l’effet des technologies numériques est tout à fait inédite. L’intelligence artificielle (« IA[2] ») est certainement l’un principaux moteurs de cette transformation, au cœur d’un nombre croissant de services qui peuplent déjà notre quotidien. Ce terme « d’IA », dont le contenu a substantiellement évolué depuis sa création en 1955[3], a été réenchanté depuis le début des années 2010 et désigne désormais les divers algorithmes d’apprentissage automatique (machine learning, comme l’apprentissage profond – deep learning), dont les résultats des traitements sont apparus comme particulièrement spectaculaires non seulement pour la reconnaissance d’images ou de sons, mais aussi pour le traitement du langage naturel.

Continuer la lecture de « Repenser la justice sociale en contexte d’IA : défis majeurs »

Jurimétrie : l’aléa judiciaire dirigé

De la certitude des prédictions à l’incertitude des probabilités

Texte préparé et présenté dans le cadre du colloque « L’intelligence artificielle et la fonction de juger », organisé à la Cour de cassation le 21 avril 2022 par l’Institut de recherche pour un droit attractif de l’Université Sorbonne Paris Nord (IRDA) et le Centre de droit civil des affaires et du contentieux économique (CEDCACE), axe justice judiciaire, amiable et numérique de l’Université Paris Nanterre

Texte publié le 22 avril 2022 et révisé le 24 avril 2022

La résurgence de l’intelligence artificielle (« IA[1] ») dans notre quotidien depuis le début des années 2010 doit beaucoup à la science statistique. Les différentes méthodes d’apprentissage automatique empruntent en effet nombre d’approches de la discipline, en traitant et en interprétant de grands ensembles de données. Les résultats remarquables obtenus, notamment pour la reconnaissance d’images ou de sons, ont conduit à un vif enthousiasme des entrepreneurs qui ont cherché à en généraliser l’application. Le secteur de la justice n’a pas échappé à cette évolution en France, essentiellement à l’initiative de très dynamiques startups spécialisées dans le droit (legaltechs), qui ont affiné leurs offres depuis le milieu des années 2010.

Continuer la lecture de « Jurimétrie : l’aléa judiciaire dirigé »

Quelle est la probabilité qu’une IA précise à 99% reconnaisse un individu ? Spoiler : ce n’est pas 9 chances sur 10

Les discussions sur l’emploi de la reconnaissance faciale[1] dans les espaces publics par les forces de l’ordre paraissent toujours particulièrement sensibles et ont fortement animé la préparation du projet de règlement sur l’intelligence artificielle (IA) de la Commission européenne paru en avril 2021. Outre la volonté des gouvernements de disposer d’outils de meilleurs outils de prévention de la criminalité, on voit qu’il est aussi question de mettre de l’ordre dans les pratiques d’opérateurs privés qui inquiètent l’opinion publique et ont conduit à des réactions des autorités de protection des données[2].

Continuer la lecture de « Quelle est la probabilité qu’une IA précise à 99% reconnaisse un individu ? Spoiler : ce n’est pas 9 chances sur 10 »

Une IA plus performante que les humains pour [%insérer ici ce que vous voulez%]

Guide pratique à l’attention de rédacteurs paresseux souhaitant meubler leurs colonnes avec les exploits de l’intelligence artificielle

Durant la dernière décennie, l’intelligence artificielle (IA) s’est taillé une place de choix parmi les sujets « serpents de mer » du journalisme. Présentée comme pouvant résoudre des catégories sans cesse plus vastes de tâches complexes et de problèmes dans notre société, cette technologie est invariablement présentée dans les articles destinés au grand public comme étant sur le point d’apporter ses bénéfices à l’humanité pour « sauver des vies », « rendre plus efficaces et fiables » nos décisions et ringardiser l’expertise humaine, tout en agitant le spectre de la déshumanisation et de la robotisation. Pas de quoi faire avancer substantiellement les débats donc.

Continuer la lecture de « Une IA plus performante que les humains pour [%insérer ici ce que vous voulez%] »