Nous sommes loin d’en avoir fini avec la définition de ce que serait exactement l’intelligence artificielle (IA). Un rapport technique du centre commun de recherche de la Commission européenne paru en février 2020 a procédé à une analyse approfondie de cette question (B. Delipetrev, G. De Prato, F. Martínez-Plumed, E. Gómez, M. López Cobo, S. Samoili, AI Watch – Defining Artificial Intelligence: towards an operational definition and taxonomy of artificial intelligence, Joint Research Centre of the European Commission, 27 février 2020). Les chercheurs de ce centre ont tenté de classifier cette technologie en procédant à une revue des définitions existantes dans des rapports institutionnels, des publications scientifiques et des études venant du secteur privé de 1955 à nos jours. L’équipe de recherche en a conclu à la découverte de 4 caractéristiques communes : a) la perception d’un environnement et de la complexité du monde, b) le traitement de l’information, en collectant et en interprétant des signaux d’entrée, c) la prise de décision, incluant le raisonnement, l’apprentissage et la réalisation d’actions et d) l’atteinte de buts prédéfinis.
Le réseau d’expert de l’OCDE sur l’IA (OECD Network of Experts on AI – ONE AI) en a fait également l’une de ses thématiques de travail dans le cadre de l’opérationnalisation de ses principes en proposant dresser une classification des « systèmes d’intelligence artificielle », entendus comme un « système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels », lesquels « sont conçus pour fonctionner à des degrés d’autonomie divers ». Le Conseil de l’Europe définit pour sa part cette technologie comme un « ensemble de sciences, théories et techniques dont le but est de reproduire par une machine des capacités cognitives d’un être humain ».
Même si des points de convergence se dessinent, les multiples facettes de l’IA (et de ses applications) conduisent donc à de grandes difficultés pour établir une définition et une classification communément partagées. Que l’on adopte un champ large ou restreint pour définir l’IA, chacun semble y mettre une part de sa subjectivité et, surtout, se projette dans une perspective propre à son champ d’expertise. Les juristes se retrouvent souvent fort démunis face à des débats technologiques et ont bien du mal à circonscrire dans leur propre champ étude cet objet si particulier, dans l’objectif d’en réguler les usages à partir de concepts technologiquement neutres.
Une définition juridique de l’IA
Pour bâtir une définition juridique de l’IA, commençons tout d’abord par questionner l’IA au regard de ses finalités dans un sens très large. Pour reprendre les éléments communs de définition précédemment évoqués, l’IA sert tout d’abord à automatiser des tâches. Notons que toute forme de programmation informatique répond à cet usage et il faudrait parvenir à isoler la singularité de l’IA par rapport à d’autres programmes informatiques. En première analyse, l’IA est donc souvent caractérisée par un comportement particulier : sa capacité à interagir avec son environnement et à traiter des signaux d’entrée pour prendre des décisions dans un but prédéfini.
Or, là encore, tous les programmes informatiques traitent des signaux d’entrée dans un but prédéfini (qu’il soit calculatoire, d’adaptation, de modification, de classification, d’enregistrement, de consultation, etc). L’apparence de prise de décision d’une IA pourrait paraître la singulariser mais, là encore, tout programme procède à des choix d’une complexité variable. Et même si les derniers développements de l’apprentissage automatique (machine learning) se révèlent parmi les complexes, l’on doit admettre dans le même temps que la complexité ne crée pas de l’intelligence (M. Amblard, Idée reçue : Les algorithmes prennent-ils des décisions ?, Interstices, 29 mars 2018).
De plus, il semble insuffisant de ne considérer que la composante mécanique sans considérer les flux qui l’animent. Contrairement à un carburant se limitant à irriguer un moteur thermique de voiture, les données ont un rôle de plus en plus structurant sur leur moteur algorithmique, notamment avec l’emploi d’apprentissage automatique. L’IA devrait donc être considérée en ce qu’elle constitue un système, et très précisément un système algorithmique, composée à la fois de son mécanisme et des flux de données alimentant ce mécanisme. Systèmes d’ailleurs qui ne créent pas tous les mêmes risques au regard a) du domaine de leur emploi (certains étant plus à risques, comme la justice ou la santé) et de b) leur cas d’usage précis (un robot conversationnel ne créé pas les mêmes risques qu’un outil d’aide à la décision – Voir Livre blanc sur l’intelligence artificielle de la Commission européenne, 19 février 2020, p.20). En ce sens, deux axes pourraient être considérés pour classifier les systèmes algorithmiques.
Un premier axe à considérer par une régulation : explicabilité, déterminisme et autonomie d’un système algorithmique
Il convient, à nouveau, de constater que le terme IA a désigné des réalités technologiques qui ont évolué en fonction des méthodes à la mode : approche descriptive et symbolique dans les années 1970-80, en écrivant des règles logiques signifiantes, et connexionniste aujourd’hui, en laissant la machine « découvrir » les corrélations entre des phénomènes traduits en données (c’est en cela que l’on dit qu’elle « apprend »). Ces deux formes d’automatisation ne présentent toutefois pas les mêmes caractéristiques d’explicabilité de leur fonctionnement sous-jacent : celle-ci serait plutôt meilleure pour les approches descriptives et plus en retrait pour les approches connexionnistes.
Si l’on questionne ensuite l’IA au regard du produit de son fonctionnement, l’on peut également catégoriser ses résultats au moins en deux formes : la première est déterministe et la seconde non déterministe. La première forme est assez simple à comprendre et assez rassurante. A chaque entrée sera systématiquement corrélée la même sortie. L’on peut ainsi espérer que pour des besoins simplement calculatoires, la machine puisse être dans la capacité de produire toujours le même (et le bon) résultat. La seconde est plus complexe à appréhender. A chaque même entrée, le résultat en sortie sera susceptible de varier en raison de l’évolution d’autres variables employées par le système : il est en ainsi par exemple des systèmes de recommandation sur des sites marchands dont le résultat peut varier non seulement en fonction de vos propres interactions, mais également des interactions des autres utilisateurs appartenant au même groupe de profil statistique.
Enfin se pose la question de l’autonomie du système, soit qu’il soit en capacité, une fois programmé ou entraîné, de faire interagir un opérateur humain pour son résultat final ou, au contraire, de s’en dispenser pour s’adapter, de manière autonome, à son environnement. Il va sans dire qu’en l’absence d’humain dans la boucle, se pose la question de la correction de dérives de systèmes et des facteurs d’alerte conduisant à une intervention humaine et d’une attention encore plus accrue sur leur fonctionnement.
Nous considérerons donc que l’ensemble de ces trois caractéristiques constituent ensemble un indicateur de complexité du système algorithmique devant conduire à considérer des instruments juridiques différents en fonction du risque encouru. Il manque toutefois une dimension à corréler à cet indicateur : celle de l’intensité de l’impact sur les individus et la société.
Un second axe à considérer par une régulation : l’impact probable du système algorithmique
Tous les systèmes algorithmiques ne justifient bien entendu pas les mêmes contraintes. Il pourrait donc être développé le concept « d’impact significatif » sur les individus ou la société, afin d’introduire une forme de proportionnalité dans l’intensité des mesures contraignantes au regard, notamment, des risques de violation des droits fondamentaux.
Une échelle d’impact pourrait être construite, à l’image de celle proposée par la Commission d’éthique des données allemande (Datenethikkommission), fondée sur la combinaison de la probabilité de la survenue d’un dommage et la gravité de celui-ci. La mesure de cet impact pourrait résulter d’un cadre méthodologique précis tel qu’une étude d’impact préalable sur les droits de l’homme (voir en ce sens la Recommandation de la Commissaire aux droits de l’homme du Conseil de l’Europe, Décoder l’IA : 10 mesures pour protéger les droits de l’homme, p.7).
Des modalités de régulation proportionnelles à la combinaison entre complexité et impact probable
Afin de distinguer les systèmes algorithmiques sur lesquels devraient reposer les contraintes les plus fortes, il pourrait être réaliser une combinaison entre complexité et impact probable sur les individus ou la société. Ainsi les systèmes cumulant faible explicabilité, non déterminisme et large autonomie devraient faire l’objet de contraintes règlementaires importantes (voire une prohibition) si leur impact probable est très élevé. Des mesures ex ante (mise en service conditionnée à une vérification ou une certification préalable) pourraient être édictées et accompagnées des mesures ex post spécifique (revue régulière de fonctionnement par un tiers accrédité).
Les systèmes avec un faible impact probable pourraient ne faire l’objet que de contrôles facultatifs, laissés à la discrétion de leurs concepteurs. Les recours devant les tribunaux resteraient ouverts en toute hypothèse en cas de dommage, étant précisé que la nature des mesures prises par les concepteurs pour prévenir les risques seraient de nature à modérer (ou aggraver) ensuite leur responsabilité. L’on retrouve là les mécanismes classiques connus dans la plupart des systèmes juridiques, dont l’adaptation aux spécificités de procédures de conception de systèmes algorithmiques est envisagée par la Commission européenne (dans le cadre de la responsabilité du fait des produits défectueux notamment).
Animateur des Temps Electriques et auteur du l’ouvrage « L’intelligence artificielle en procès »
Les opinions exprimées n’engagent que son auteur et ne reflètent aucune position officielle du Conseil de l’Europe
Pour aller plus loin
Ces développements sont approfondis dans l’ouvrage « L’intelligence artificielle en procès«