La revue des instruments et documents réalisée ci-après ne concerne que les principaux textes internationaux, régionaux et nationaux directement attachés à l’IA. Les autres textes, applicables à l’IA mais non directement concernés (comme le RGPD) ou applicables à l’IA mais avec une portée moindre, ont été exclus de cette revue.
Quand ce titre m’est venu en tête, sidéré par l’intrusion informatique massive des équipes du DOGE de Musk, je pensais avoir trouvé une belle formule apte à attirer des clics sur un article LinkedIn.
Les larges modèles de langage (LLM, large language models), mis en lumière avec ChatGPT, ont redéfini le paysage contemporain de l’intelligence artificielle, en concentrant autour de leur développement tous les espoirs de la discipline. La production automatisée et très convaincante d’écrits, mais également d’images, de vidéos, de musiques n’a pas tardé à provoquer une réelle sidération collective, mêlant espoirs fantasmatiques, critiques alarmistes et appels à la raison.
Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ?
Crédits : Image générée avec Adobe Express Beta
Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche fondamentale est maintenant présentée comme le tout nouveau terrain d’application prometteur. Se plaçant sur un tout autre terrain que Chris Anderson et sa fin de la théorie[1], des chercheurs du Northwestern Institute on Complex Systems affirment dans deux articles parus dans la revue Proceedings of the National Academy of Sciences (PNAS) en 2020[2] et 2023[3] que ces algorithmes apprenants pourraient être utilisés pour prédire quelles études scientifiques ne seraient pas susceptibles d’être reproductibles.
Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada
Crédits : Getty Images
L’encadrement du développement de l’intelligence artificielle (« IA») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.
Ambitions, réalités et perspectives – État 2022-2023
[Mise à jour du 4 mars 2023] En France, l’emploi de l’informatique comme levier d’amélioration de l’efficacité de la justice s’inscrit dans une stratégie de modernisation datant de l’apparition des premiers calculateurs. Après avoir permis de centraliser la mémoire de la justice pénale, d’industrialiser la production de documents dans les tribunaux et de gérer électroniquement les affaires, de nouvelles technologies comme l’intelligence artificielle et les blockchains contribuent désormais à recomposer en profondeur l’offre de justice en rendant possible une dématérialisation totale des processus, la résolution de litiges en ligne et des analyses statistiques avancées de la jurisprudence.
Les droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires en Europe
[Mise à jour du 10 mars 2023] L’examen en parallèle des deux projets d’instruments juridiques contraignants sur l’intelligence artificielle provenant de l’Union européenne (Proposition de réglement sur l’intelligence artificielle – RIA ou « AI act ») et du Conseil de l’Europe (projet de convention [cadre] sur l’IA) nous rend sensible la place accordée aux droits humains à l’ère numérique. Si la proposition de la Commission européenne a déjà été abondamment commentée, et critiquée sur cet aspect, le projet du Conseil de l’Europe est susceptible d’apporter une brique d’importance relative aux droits de l’Homme, à la démocratie et à l’État de droit à l’ensemble des textes internationaux dans la matière.
L’objet de cet article, qui s’intègre dans un ensemble de recherche plus vaste sur la régulation internationale et européenne de l’IA (thèse à soutenir durant l’année 2023), est de documenter l’évolution de la place accordée aux droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires irriguant le continent européen.
> Sollicitez l’article en prépublication (version 2.1 du 10 mars 2023) sur contact.ym[at]pm.me
Affirmer que les technologies numériques ont un impact majeur et transversal sur la société et l’activité humaine relève aujourd’hui d’une simple et totale évidence. Ce qui est parfois qualifié de 4ème révolution industrielle opère une transformation profonde non seulement de nos modes de communication et d’accès à l’information sur un plan instrumental mais, également, une profonde transformation sociétale, comparable à celle de l’émergence de l’imprimerie ou de l’industrie, qui est déjà examinée dans le moindre de ses détails par les sciences humaines et sociales. Si le champ de la justice n’échappe pas à ce même constat, les discours publics oscillants entre un techno-optimisme (trop souvent) débridé et une techno-critique (parfois trop) conservatrice ne sont pas toujours étudiés en profondeur.
Un billet publié par Hugues Delabarre en octobre 2022 dans un groupe Facebook sur l’intelligence artificielle titrait « Pourquoi l’IA ne suscite plus l’engouement des foules ». En partant d’un constat technique (la stagnation du nombre des membres de ce groupe et la baisse du nombre de vues), il y développe des arguments méritant toute notre attention. L’auteur écarte tout d’abord l’idée que nous serions entrés dans un nouvel « hiver » de l’IA mais soutient qu’au vu des promesses démesurées des dernières années non tenues, la raison aurait repris le dessus. Il y affirme aussi que la banalisation du numérique et de l’IA, saisis par les pouvoirs publics, seraient devenus les outils idéaux d’une société de surveillance de masse et conclut par le constat que l’on aurait vendu un « futur qui n’existe pas ». Il cite les véhicules autonomes promis comme toujours prochainement matures en 2018 (n’étant toujours pas au point), le robot Tesla nécessitant une assistance bien humaine, le quantique cherchant des applications concrètes et le « métavers » surfant à son tour sur le haut de la vague de la hype.
Qui donc qu’un ordinateur est mieux placé pour qualifier l’intelligence artificielle ? Tranchons enfin les controverses en laissant ce générateur vous proposer une définition originale de cette technologie !