Le piège de la définition juridique de l’intelligence artificielle

En avril 2021, la Commission européenne posait, dans son projet de réglementation sur l’intelligence artificielle (« IA »), une définition de cette technologie[1] dont les mérites, et les défauts, ont été largement débattus. Trop large pour certains, trop précise pour d’autres, il semble que les dernières orientations du Conseil de l’Union européenne tendent maintenant à en restreindre le champ pour concentrer les efforts réglementaires sur les dernières technologies en vogue[2].

Si les enjeux de ces discussions semblent paraître très techniques, nous aurions tort d’en réduire la portée. Dans sa carte blanche dans le journal Le Monde, Nozha Boujemaa soulignait avec justesse l’enjeu « juridico-commercial » de l’exercice[3] car si cette définition s’avérait « trop large, elle serait très contraignante en matière d’évaluation et de gestion des risques pour les entreprises », la loi devenant « applicable pour beaucoup de services numériques, y compris ceux n’utilisant pas d’apprentissage profond ».

Les grandes manœuvres en cours autour du projet de réglementation de « l’IA » à Bruxelles, mais aussi à Strasbourg avec l’ouverture en 2022 de négociations sur un projet de Convention dans une autre institution (le Conseil de l’Europe), ne se nourrissent donc pas que de la seule approche scientifique et objective de la question. Il ne fait en effet guère de doute que le terme commode, vague et plastique « d’IA » englobe depuis sa création en 1955 bien plus que l’apprentissage profond. L’inquiétude qui semble saisir nombre d’acteurs de cette régulation serait une forme de contamination de la dynamique d’encadrement juridique à la plupart des systèmes automatisés de prise de décision dont les limites, en Europe du moins, n’étaient alors tracées qu’au travers du concept de protection des données à caractère personnel.

Pourtant, sans nier les spécificités des systèmes fondés sur des approches statistiques, l’on devrait bien reconnaître que l’enjeu pour nos sociétés contemporaines est de parvenir à maintenir le délicat mécanisme des équilibres institutionnels et de protection des droits dans un contexte de profonde transformation numérique. Investir un système algorithmique d’une capacité de prise de décision, même sous la responsabilité d’un humain, pose les mêmes questions en ce qui concerne les garanties à apporter, quelle que soit la technologie employée.  

Si l’on s’en tient à tenter de prévenir de manière efficace les dérives d’emploi de ces systèmes dans le temps, revenir à une certaine forme de neutralité technologique dans les instruments juridiques à bâtir pourrait donc paraître comme évidente et économiser un temps précieux de débat. Les différentes générations de textes relatifs à la protection des données nous l’ont déjà démontré, en se concentrant sur les effets à prévenir moins que sur les moyens. Ici il serait donc question à notre ère d’aller plus loin que la protection de la vie privée, mais aussi de prévenir le renforcement des discriminations, de continuer de garantir des voies de recours effectives ou de mieux assurer l’équilibre entre liberté d’expression et censure des discours de haine par exemple, quels que soient les formes de traitement informatique.

Mais peut-être n’est-ce pas aujourd’hui l’objectif partagé par tous les acteurs de la régulation de « l’IA », certains pouvant être tentés de gagner du temps en alimentant des débats voués à être sans fin et à répondre aux sérieuses préoccupations sociétales par des textes aux effets extrêmement limités. Entre blanchiment juridique de pratiques extrêmement contestables si elles n’étaient pas noyées sous un vernis technologique et peur irrationnelle de se voir dépasser (technologiquement et économiquement) par les autres, la grille de lecture fondée sur des valeurs humanistes est loin d’être partagée. L’innovation en vient à être considérée comme un objectif cardinal teinté de « sacré », inconditionnellement et inextricablement lié à une évolution positive de la société si cela créé de la richesse économique.

Il n’en sera malheureusement rien si cette innovation n’est pas encadrée par des valeurs et la solide conviction que tout ce qui est faisable n’est pas nécessairement souhaitable. Et c’est bien dans cet exact objectif que le droit devrait conserver toute sa vigueur.

[1] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle, article 3 et annexe 1 – https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF

[2] L. Bertuzzi, La présidence du Conseil de l’UE propose des changements importants à la proposition de loi sur l’IA, Euractiv, 1er décembre 2021 – https://www.euractiv.fr/section/economie/news/la-presidence-du-conseil-de-lue-propose-des-changements-importants-a-la-proposition-de-loi-sur-lia/

[3] N. Boujemaa, La définition de l’intelligence artificielle, enjeu juridico-commercial, Le Monde, 15 décembre 2021 – https://www.lemonde.fr/sciences/article/2021/12/15/la-definition-de-l-intelligence-artificielle-enjeu-juridico-commercial_6106094_1650684.html#xtor=AL-32280270-%5Bdefault%5D-%5Bios%5D

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.