Étude de l’état de la régulation de l’intelligence artificielle aux États-Unis et au Canada
L’encadrement du développement de l’intelligence artificielle (« IA») semble avoir dépassé depuis le début des années 2020 le stade de la simple discipline des concepteurs par de l’éthique. La question n’est plus de savoir si l’on doit adopter des mesures contraignantes juridiquement pour créer un cadre de confiance, mais de savoir comment le faire.
Les droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires en Europe
[Mise à jour du 10 mars 2023] L’examen en parallèle des deux projets d’instruments juridiques contraignants sur l’intelligence artificielle provenant de l’Union européenne (Proposition de réglement sur l’intelligence artificielle – RIA ou « AI act ») et du Conseil de l’Europe (projet de convention [cadre] sur l’IA) nous rend sensible la place accordée aux droits humains à l’ère numérique. Si la proposition de la Commission européenne a déjà été abondamment commentée, et critiquée sur cet aspect, le projet du Conseil de l’Europe est susceptible d’apporter une brique d’importance relative aux droits de l’Homme, à la démocratie et à l’État de droit à l’ensemble des textes internationaux dans la matière.
L’objet de cet article, qui s’intègre dans un ensemble de recherche plus vaste sur la régulation internationale et européenne de l’IA (thèse à soutenir durant l’année 2023), est de documenter l’évolution de la place accordée aux droits humains à l’épreuve des impératifs économiques, politiques et sécuritaires irriguant le continent européen.
> Sollicitez l’article en prépublication (version 2.1 du 10 mars 2023) sur contact.ym[at]pm.me
L’intervention des régulateurs internationaux pour encadrer le développement et l’application de l’intelligence artificielle vient en réponse à une inquiétude croissante dans l’opinion publique, confortée par la recherche, quant aux effets directs et indirects de cette technologie sur les droits des individus et la société. Les propositions de cadres éthiques n’ayant pas semblé apporter une réponse satisfaisante et convaincante, des organisations intergouvernementales telles que le Conseil de l’Europe, l’Union européenne, l’OCDE et l’UNESCO ont produit, sous l’impulsion de leurs États membres, de nombreux rapports, études, lignes directrices ou recommandations. Si ce qui pourrait être considéré comme du « droit souple » (soft law) présente une influence politique, technique et morale bien plus substantielle que de simples déclarations de bonne volonté des acteurs de l’IA, l’année 2021 marque toutefois un nouveau tournant, avec le premier texte juridiquement contraignant proposé par la Commission européenne en avril 2021 pour renforcer la sécurité des produits d’IA. Le Conseil de l’Europe envisage également un mélange d’instruments juridiques contraignants et non contraignants pour prévenir les violations des droits de l’homme et des atteintes à la démocratie et à l’État de droit.
La proposition de règlement de la Commission européenne présentée le 21 avril 2021 vise à encadrer de manière horizontale et transversale toutes les différentes applications de l’intelligence artificielle (IA). Cette proposition s’intègre dans une plus vaste stratégie de la Commission sur le numérique dont un nouveau plan coordonné sur l’IA pour 2021.
La proposition distingue 4 types d’applications, avec des contraintes à l’intensité décroissante : 1) les applications prohibées du fait de leur nature (influence sur les comportements avec des conséquences physiques ou psychologiques, crédit social et reconnaissance faciale dans l’espace public – avec de très larges exceptions pour un usage d’enquête judiciaire), 2) les applications à haut risque devant répondre à des exigences clés et à un mécanisme d’évaluation de la conformité préalable à la mise sur le marché, 3) les applications à risque limité, auxquels sera imposé une obligation spécifique de transparence (comme les chatbots ou les deepfakes), et 4) celles enfin présentant un risque minimum. Des sanctions financières allant jusqu’à 6% du chiffre d’affaires annuel pourront être prononcées en cas de manquement d’un opérateur privé.
Dans le même temps le texte vient soutenir l’innovation en autorisant des textes d’encadrement juridique temporaires pour l’expérimentation (« bacs à sable » réglementaires), ce qui intéressera particulièrement les micros, petites et moyennes entreprises. L’adoption de codes de conduite sectoriels est également encouragée.
Un comité européen sur l’intelligence artificielle, composé de représentants des 27 États membres et du contrôleur européen de la protection des données, sera aussi constitué.
Publié le 31 décembre 2020, mis à jour le 5 janvier 2021
Sur un plan technologique, l’histoire retiendra vraisemblablement de la décennie qui vient de s’écouler le réenchantement du terme intelligence artificielle (IA) avec les exploits de l’apprentissage automatique et des réseaux de neurones. Même si ces algorithmes ne sont pas tout à fait nouveaux, la magie ne cesse d’opérer au rythme des promesses, toujours plus nombreuses, des chercheurs et des concepteurs. De la reconnaissance d’image à la conduite autonome, de la recherche de fraudes à la lutte contre la Covid-19, l’IA ne cesse d’être convoquée pour résoudre des problèmes toujours plus complexes. À entendre les discours ambiants, ce qui n’est pas possible aujourd’hui le sera nécessairement demain, en agrégeant toujours plus de données. Dans le même temps, les conséquences d’une généralisation hâtive de l’IA commencent à être bien documentées : renforcement des inégalités déjà existantes par l’emploi hâtif d’algorithmes dans les services publics, caisse de résonance à différents types de désordre informationnel, aggravation des atteintes à la vie privée ne sont que quelques exemples très concrets qui esquissent les possibles errements du nouveau monde transformé en données.