Introduction
Si l’année 2018 a été l’année de l’acmé des principes, chartes et déclarations sur l’intelligence artificielle (« IA[1] »), l’année 2020 a bien démarré pour être un tournant vers des textes plus contraignants, enfin en capacité de protéger les individus et l’entière société de diverses dérives, déjà concrètes. À peu près toutes les organisations internationales se sont mises en ordre de marche dès 2019[2], dans le cadre de leurs mandats respectifs, pour apporter leur contribution à ce qui pourrait constituer dans les années à venir une architecture globale de réglementation de « l’IA », appelée à concilier différents impératifs tels que l’innovation, la croissance économique et la protection des droits fondamentaux. Sur un plan local, nombre d’États ont adopté (ou sont sur le point d’adopter) des stratégies sur « l’IA » visant à s’assurer sur cette même scène mondiale leur leadership scientifique, technologique et moral, en y intégrant parfois un volet sur la régulation ou la réglementation[3]. La Nouvelle-Zélande affirme ainsi être le premier État à avoir adopté des standards, sous forme de charte, en matière de régulation des algorithmes[4]. Dans ce contexte de véritable course pour établir en premier des règles du jeu, un consensus s’exprime en ce qui concerne les potentiels bienfaits de cette « IA » pour l’humanité et la nécessité de créer de la confiance chez les milliards d’usagers sur la planète pour en tirer les bénéfices attendus.
Continuer la lecture de « La critique de la technique : clé du développement de l’intelligence artificielle ? (Introduction) »