La revue des instruments et documents réalisée ci-après ne concerne que les principaux textes internationaux, régionaux et nationaux directement attachés à l’IA. Les autres textes, applicables à l’IA mais non directement concernés (comme le RGPD) ou applicables à l’IA mais avec une portée moindre, ont été exclus de cette revue.
Depuis le début des années 2010, le déploiement des algorithmes d’apprentissage automatique, dont l’apprentissage profond, a réenchanté l’emploi de l’informatique dans notre société. Ce qui est convenu d’appeler de manière commode et vague « intelligence artificielle » (« IA[1]»), automatise, avec plus ou moins de contrôle humain, un nombre croissant de tâches ou de segments de tâches pouvant relever d’un très haut niveau d’expertise. En s’accordant à l’air du temps, ce qui ne semble pas possible aujourd’hui le sera nécessairement demain et la liste des applications s’allonge, notamment dans des secteurs aussi stratégiques que l’industrie, la sécurité publique ou les armées. Dans le même temps, cette « IA » a été saisie comme une nouvelle opportunité par le marché, au point de devenir l’un des principaux instruments de croissance économique des années à venir. Son développement s’impose donc dans les politiques publiques du monde entier comme une évidence.
Alors qu’un encadrement juridique contraignant semble s’esquisser pour le déploiement de certains systèmes d’IA en Europe, la dernière décennie a été marquée par une intense production éthique venant, directement ou indirectement, de l’industrie numérique [1]. Les motivations d’une telle production ont déjà été relativement bien documentées [2] et relèvent d’un mélange de communication externe, de lobbying (pour différer une réglementation contraignante) et de management interne de la base des ingénieurs et techniciens, pour certains très attentifs aux usages de leurs développements.
L’ADA Tech School, école d’informatique féministe et ouverte à toutes et à tous, a convié Yannick Meneceur, chef d’unité du développement numérique au Conseil de l’Europe et chercheur-associé à l’IHEJ, à présenter leurs vues sur la gouvernance de l’IA. Il y a été évoqué notamment la difficulté à dresser une critique de la technique et à concevoir des politiques publiques d’encadrement de l’IA.
Dans le cadre de ses séries de conférences, l’association de l’Ecole 42 « 42 AI » a convié Thomas Baudel, directeur de recherche chez IBM, Yannick Meneceur, chef d’unité du développement numérique au Conseil de l’Europe et chercheur-associé à l’IHEJ, et Adrien Basdevant, avocat au Barreau de Paris, à présenter leurs vues sur l’éthique de l’IA.
Invité : Emmanuel Goffi, philosophe et directeur de l’Observatoire Éthique & Intelligence Artificielle, de l’Institut Sapiens et professeur en éthique de l’IA à aivancity, School for Technology, Business & Society
L’éthique est partout dans les discours sur l’IA, solution universelle à tous les maux redoutés et révélés.
Il semble communément admis dans l’opinion publique que le numérique ne règlera pas tout et que tout problème n’a pas de solution numérique… l’échec de l’application StopCovid en témoigne de manière sensible.
L’intelligence artificielle en procès Plaidoyer pour une réglementation internationale et européenne Préface d’Antoine Garapon, postface de Jan Kleijssen Collection Macro droit – Micro droit, Editions Bruylant
A entendre certains chercheurs, médias ou décideurs publics, l’intelligence artificielle serait la technologie de rupture de notre siècle. Un examen minutieux, de ce qui reste avant tout de l’informatique, permet toutefois de dépasser aisément la narration forgée par les discours commerciaux et de distinguer les réels enjeux : une technologie encore fragile, dont l’application pose des problèmes politiques et de gouvernance. Une réponse juridique est donc, plus que jamais, nécessaire afin d’envisager des usages à même de garantir le respect des droits de l’homme et de soutenir la démocratie et l’Etat de droit.
Bibliographie de l’ouvrage “L’intelligence artificielle en procès”
Après le très fort engouement, pour ne pas dire l’emballement, autour des algorithmes d’apprentissage automatique (machine learning) au début des années 2010, il est assez vite apparu un besoin d’encadrer, voire de limiter certains des développements. Bien au-delà de la narration forgée par les communicants de l’industrie numérique d’une « intelligence artificielle » (IA) aux capacités de « disrupter » positivement notre siècle, l’emploi de ces algorithmes s’est révélé bien délicat, avec des effets de bords consubstantiels à leur cœur de fonctionnement statistique : confusions entre corrélation et causalité, biais liés à la qualité des données employées, discriminations sont quelques-uns des maux aujourd’hui bien identifiés