Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada
L’encadrement du développement de l’intelligence artificielle (« IA») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.
Texte préparé et présenté dans le cadre de la conférence internationale organisée par la Chaire Justice sociale et intelligence artificielle – Fondation Abeona / ENS / OBVIA le 31 mai 2022, à l’ENS Ulm
Présenté le 31 mai 2022 à l’ENS (Paris) – Ce texte a déjà fait l’objet d’une publication dans la revue Éthique publique, vol. 23, n° 2 (2021) [1] – Accessible sur https://doi.org/10.4000/ethiquepublique.6323
Les trois grands défis posés par la gouvernance de l’intelligence artificielle et de la transformation numérique
La célérité avec laquelle notre société et nos modes de vie se transforment sous l’effet des technologies numériques est tout à fait inédite. L’intelligence artificielle (« IA[2] ») est certainement l’un principaux moteurs de cette transformation, au cœur d’un nombre croissant de services qui peuplent déjà notre quotidien. Ce terme « d’IA », dont le contenu a substantiellement évolué depuis sa création en 1955[3], a été réenchanté depuis le début des années 2010 et désigne désormais les divers algorithmes d’apprentissage automatique (machine learning, comme l’apprentissage profond – deep learning), dont les résultats des traitements sont apparus comme particulièrement spectaculaires non seulement pour la reconnaissance d’images ou de sons, mais aussi pour le traitement du langage naturel.
Référence en matière d’ouvrages juridiques, le Prix du Cercle Montesquieu récompense, chaque année depuis 1997, les meilleurs ouvrages en droit des affaires ou sur la gestion des fonctions juridiques.
Ce prix constitue une reconnaissance de l’intérêt porté aux débats sur la constitution d’un cadre juridique pour le développement de cette technologie, fondé sur les droits de l’homme, la démocratie et l’État de droit.
Le Prix du Cercle Montesquieu 2020 avait été décerné à l’ouvrage Blockchain et actif numérique de Dominique Legeais, paru aux éditions LexisNexis.
Mots de remerciements
Mesdames, Messieurs,
C’est un privilège de recevoir aujourd’hui ce prix des mains d’un avocat aussi renommé que Maître Matthieu Juglar et un honneur d’avoir été distingué par le jury du Cercle placé sous la présidence de Bénédicte Wautelet.
Je vous adresse mes plus profonds remerciements qui ont une résonnance, je vous l’assure, tout à fait particulière, quand je me replace dans les années 1980, dans ma banlieue toulousaine et que je revois mes parents prendre sur leurs très modestes économies pour m’offrir mon tout premier ordinateur.
Cette récompense est naturellement à partager avec mon éditeur, Bruylant et le Groupe Larcier, représenté aujourd’hui par Paul-Etienne Pimont et Nicolas Cassart ainsi qu’avec le directeur de la collection Micro Droit Macro Droit, mon collègue et ami Thomas Cassuto. Sans leur confiance, ni celle de l’Institut PRESAJE, ce travail n’aurait jamais pu voir le jour.
Je ne peux également omettre de mentionner Antoine Garapon, ancien magistrat et auteur bien connu, dont l’érudition n’a cessé de nourrir mes réflexions et qui a eu la gentillesse de rédiger une préface. Je me dois aussi de remercier Jan Kleijssen, mieux connu des sphères européennes et internationales que françaises, qui est aujourd’hui l’un des artisans acharnés d’une réglementation de l’intelligence artificielle et qui livre, en postface, sa vision d’une nouvelle architecture juridique pour accompagner la transformation numérique.
Étant la dernière barrière avec la clôture de cette longue journée de débats, je n’ajouterai donc pas de longs propos et je suis extrêmement fier de savoir que cet ouvrage, par votre distinction, va rejoindre d’autres brillants travaux, comme ceux de Dominique Legeais, sur les blockchains et les actifs numérique, pour constituer une référence dans vos fonctions.
Je ne peux que défendre auprès de vous l’idée qu’un développement à long terme des technologies numériques, dont l’intelligence artificielle est le cœur, ne pourra se faire sans le droit. La confiance du public dans les traitements opérés par des algorithmes sans cesse plus sophistiqués ne naîtra pas de seules déclarations volontaristes et d’éthiques (au pluriel) au contenu extrêmement variable. Le droit doit permettre de traduire les principes et les valeurs communes que nous souhaitons protéger dans une ère où nombre d’équilibres sont remis en jeu.
J’espère que ce travail contribuera à alimenter les débats sur des faits, et non sur la base des impressions, afin de continuer de placer au centre de nos réflexions sur la transformation numérique les droits de l’homme, la démocratie et l’État de droit.
Encore merci au jury et au Cercle Montesquieu pour cet honneur.
Dans le cadre de la Semaine européenne du numérique responsable organisée par l’Eurométropole de Strasbourg, retrouvez l’enregistrement de la conférence « Vers une intelligence artificielle responsable », co-organisée avec le CEIPI (Centre d’études internationales de la propriété intellectuelle) et enregistrée le 12 juin 2021.
L’intervention des régulateurs internationaux pour encadrer le développement et l’application de l’intelligence artificielle vient en réponse à une inquiétude croissante dans l’opinion publique, confortée par la recherche, quant aux effets directs et indirects de cette technologie sur les droits des individus et la société. Les propositions de cadres éthiques n’ayant pas semblé apporter une réponse satisfaisante et convaincante, des organisations intergouvernementales telles que le Conseil de l’Europe, l’Union européenne, l’OCDE et l’UNESCO ont produit, sous l’impulsion de leurs États membres, de nombreux rapports, études, lignes directrices ou recommandations. Si ce qui pourrait être considéré comme du « droit souple » (soft law) présente une influence politique, technique et morale bien plus substantielle que de simples déclarations de bonne volonté des acteurs de l’IA, l’année 2021 marque toutefois un nouveau tournant, avec le premier texte juridiquement contraignant proposé par la Commission européenne en avril 2021 pour renforcer la sécurité des produits d’IA. Le Conseil de l’Europe envisage également un mélange d’instruments juridiques contraignants et non contraignants pour prévenir les violations des droits de l’homme et des atteintes à la démocratie et à l’État de droit.
Depuis le début des années 2010, le déploiement des algorithmes d’apprentissage automatique, dont l’apprentissage profond, a réenchanté l’emploi de l’informatique dans notre société. Ce qui est convenu d’appeler de manière commode et vague « intelligence artificielle » (« IA[1]»), automatise, avec plus ou moins de contrôle humain, un nombre croissant de tâches ou de segments de tâches pouvant relever d’un très haut niveau d’expertise. En s’accordant à l’air du temps, ce qui ne semble pas possible aujourd’hui le sera nécessairement demain et la liste des applications s’allonge, notamment dans des secteurs aussi stratégiques que l’industrie, la sécurité publique ou les armées. Dans le même temps, cette « IA » a été saisie comme une nouvelle opportunité par le marché, au point de devenir l’un des principaux instruments de croissance économique des années à venir. Son développement s’impose donc dans les politiques publiques du monde entier comme une évidence.
Invité : Adrien Basdevant, avocat et membre du Conseil National du Numérique
Alain Supiot nous alertait en 2015 dans la Gouvernance par les nombres, des conséquences d’un projet scientiste prenant la forme d’une gouvernance par les nombres et qui se déploie sous l’égide de la « globalisation ». La généralisation de dispositifs dits « d’intelligence artificielle » dans tous les recoins de nos vies ne contribue-t-elle pas à composer cette matrice aussi discrète qu’efficace, en captant sans cesse plus de données ? Ce diagnostic n’est-il pas trop alarmiste ?
Discutant il y a peu avec un ami doublement docteur (il se reconnaîtra), j’ai pris conscience de la fragilité de ma conception du monde, pourtant lentement construite depuis des décennies entre droit et informatique.
Publié le 31 décembre 2020, mis à jour le 5 janvier 2021
Sur un plan technologique, l’histoire retiendra vraisemblablement de la décennie qui vient de s’écouler le réenchantement du terme intelligence artificielle (IA) avec les exploits de l’apprentissage automatique et des réseaux de neurones. Même si ces algorithmes ne sont pas tout à fait nouveaux, la magie ne cesse d’opérer au rythme des promesses, toujours plus nombreuses, des chercheurs et des concepteurs. De la reconnaissance d’image à la conduite autonome, de la recherche de fraudes à la lutte contre la Covid-19, l’IA ne cesse d’être convoquée pour résoudre des problèmes toujours plus complexes. À entendre les discours ambiants, ce qui n’est pas possible aujourd’hui le sera nécessairement demain, en agrégeant toujours plus de données. Dans le même temps, les conséquences d’une généralisation hâtive de l’IA commencent à être bien documentées : renforcement des inégalités déjà existantes par l’emploi hâtif d’algorithmes dans les services publics, caisse de résonance à différents types de désordre informationnel, aggravation des atteintes à la vie privée ne sont que quelques exemples très concrets qui esquissent les possibles errements du nouveau monde transformé en données.
Invité : Emmanuel Goffi, philosophe et directeur de l’Observatoire Éthique & Intelligence Artificielle, de l’Institut Sapiens et professeur en éthique de l’IA à aivancity, School for Technology, Business & Society
L’éthique est partout dans les discours sur l’IA, solution universelle à tous les maux redoutés et révélés.
Il semble communément admis dans l’opinion publique que le numérique ne règlera pas tout et que tout problème n’a pas de solution numérique… l’échec de l’application StopCovid en témoigne de manière sensible.
L’intelligence artificielle (IA) continue de susciter de grands espoirs pour les années à venir, en moteur espéré de la prospérité humaine et du bien-être. À ces généreuses promesses émanant directement ou indirectement de l’industrie numérique répondent des inquiétudes de plus en plus substantielles dans l’opinion publique, notamment face à des applications suscitant la polémique ou éternellement sur le point d’être pleinement fonctionnels. Après des années de discours éthiques, les régulateurs internationaux et nationaux commencent à se mettre en ordre de marche, mais ils risquent de passer à côté de la cible en proposant des textes parfois trop peu, ou parfois trop, ambitieux. Et si la juste mesure était susceptible d’émerger des discours critiques de la technique, dont la pertinence est bien trop souvent sous-estimée par l’entière communauté ?