2021 : Quelles perspectives pour l’intelligence artificielle ?

Publié le 31 décembre 2020, mis à jour le 5 janvier 2021

Sur un plan technologique, l’histoire retiendra vraisemblablement de la décennie qui vient de s’écouler le réenchantement du terme intelligence artificielle (IA) avec les exploits de l’apprentissage automatique et des réseaux de neurones. Même si ces algorithmes ne sont pas tout à fait nouveaux, la magie ne cesse d’opérer au rythme des promesses, toujours plus nombreuses, des chercheurs et des concepteurs. De la reconnaissance d’image à la conduite autonome, de la recherche de fraudes à la lutte contre la Covid-19, l’IA ne cesse d’être convoquée pour résoudre des problèmes toujours plus complexes. À entendre les discours ambiants, ce qui n’est pas possible aujourd’hui le sera nécessairement demain, en agrégeant toujours plus de données. Dans le même temps, les conséquences d’une généralisation hâtive de l’IA commencent à être bien documentées : renforcement des inégalités déjà existantes par l’emploi hâtif d’algorithmes dans les services publics, caisse de résonance à différents types de désordre informationnel, aggravation des atteintes à la vie privée ne sont que quelques exemples très concrets qui esquissent les possibles errements du nouveau monde transformé en données.

L’idée est de trouver un équilibre entre protection et édiction d’une réglementation trop contraignante pour des cas d’usages simples de l’IA

En toute hypothèse, 2020 nous aura apporté cette certitude : l’éthique et les principes déclaratoires ne suffiront pas à prévenir ces dérives et une réglementation plus substantielle est indispensable pour créer de la confiance. Le livre blanc de la Commission européenne en février 2020 et l’étude de faisabilité du Comité ad hoc sur l’intelligence artificielle (CAHAI) du Conseil de l’Europe en décembre 2020 concluent en ce sens. Les deux organisations semblent se diriger vers des textes de nature plus contraignante que ceux produits jusqu’à lors, en s’intéressant à une approche fondée sur les risques. L’idée est de trouver un équilibre entre protection et édiction d’une réglementation trop contraignante pour des cas d’usages simples de l’IA, sans conséquences majeures sur les individus ou la société. Le Parlement européen et Assemblée Parlementaire du Conseil de l’Europe ont publié en octobre 2020 des rapports donnant une claire impulsion politique pour des réglementations et non de la simple régulation (voir en fin d’article « Aller plus loin »).  Le rapport de l’Agence des droits fondamentaux de l’Union européenne (FRA – Fundamental Rights Agency) intitulé « Bien préparer l’avenir : l’intelligence artificielle et les droits fondamentaux » et publié en décembre 2020 soutient également une intervention législative « pour se protéger efficacement contre l’ingérence arbitraire dans les droits fondamentaux et pour donner une sécurité juridique à la fois aux développeurs d’IA et aux utilisateurs ».

2020 aura également posé, à l’occasion de ces réflexions, la base de politiques de certification et de labellisation. Prenant exemple sur d’autres domaines industriels nécessitant de la confiance, comme la pharmacie, l’automobile ou l’aviation, les organisations de standards (IEEE, ISO, CEN notamment) semblent devoir jouer un rôle majeur aux côtés des organisations internationales pour poser de tels cadres dans certaines hypothèses d’emploi de l’IA justifiant de telles contraintes.

En 2021, en ce qui concerne l’Union européenne, des cadres juridiques existants, comme ceux relatifs à la sécurité du fait des produits défectueux ou à la propriété intellectuelle, vont vraisemblablement évoluer pour tenir compte de la complexité des chaînes de fourniture de services employant de « l’IA ». Il pourrait aussi être question d’une autorité de régulation spécifique. En ce qui concerne le Conseil de l’Europe, le Comité des Ministres devra trancher si la forme d’un nouvel instrument juridique fondé sur les droits de l’homme, la démocratie et l’État de droit sera celle d’une Convention ou d’une Convention cadre (instrument contraignant dès lors qu’il est ratifié par les Parlements des Etats signataires) ou d’une nouvelle Recommandation (non contraignante). L’UNESCO publiera également en 2021 sa Recommandation sur l’éthique de l’IA, qui sera un texte non-contraignant édictant un certain nombre de valeurs et principes devant être respectés tout au long du cycle de vie d’une IA. 

La question de la coordination autour des initiatives des organisations internationales se pose souvent : à l’initiative de ces organisations, 2021 devrait voir apparaître un tout nouveau site internet regroupant l’ensemble de leurs initiatives afin de délivrer une information coordonnée. De manière optimiste, on pourra y lire les prémices de politiques coordonnées.

Mais les vents contraires à de telles ambitions demeurent. Rappelons-nous en octobre 2020 de la note blanche à la Commission européenne signée par 14 Etats de l’Union européenne (ou plus exactement des ministères économiques ou en charge du numérique) dans laquelle ils mettaient en garde Bruxelles contre « la mise en place de barrières et d’exigences lourdes qui peuvent constituer un obstacle à l’innovation ». Au lieu de cela, ces 14 ministères suggèrent que l’Europe « devrait se tourner vers des solutions juridiques non contraignantes telles que l’autorégulation, la labellisation volontaire et d’autres pratiques » de ce type.

Cette position vient en écho de celles des entreprises numériques, même si parmi les BigTech (qui auront les moyens de s’adapter) certaines réclament une réglementation stricte, comme Microsoft en ce qui concerne la reconnaissance faciale. Google a déclenché pour sa part une polémique avec le licenciement de Timnit Gebru, une scientifique éthiopienne spécialisée dans l’IA, connue pour ses travaux sur les biais algorithmiques et qui dirigeait l’équipe éthique de Google en matière d’IA. La chercheuse a été licencié après avoir critiqué les pratiques d’embauche des minorités de l’entreprise, avoir remis en question le coût environnemental des énormes centres de données et avoir rencontré une opposition interne à la publication d’un article sur la discrimination algorithmique, qui montrait que les grands modèles linguistiques qui traitent des masses de phrases sur Internet finissent inéluctablement par être atteint de biais et à renforcer les discriminations. D’après Reuters, Google demanderait maintenant à ses équipes de « donner un ton positif » à certaines recherches et d’éviter de « présenter sa technologie sous un jour négatif ».

Une fracture assez classique semble donc encore opposer les Anciens et les Modernes de notre époque

Plus que jamais, une fracture assez classique semble donc encore opposer les Anciens et les Modernes de notre époque, avec à chacune des extrêmes deux figures que tout opposerait : d’un côté du spectre, ceux qui sont parfois qualifiés de néo-luddites (tenants du fameux « modèle Amish ») et, de l’autre côté du même spectre, la cohorte d’ingénieurs-entrepreneurs nourris au modèle libertarien de la Silicon Valley. Les derniers textes des organisations internationales ou régionales, en synthèse d’une expertise multipartite, paraissent traiter ce débat sous l’angle d’une balance entre les bénéfices attendus et les risques, en se concentrant sur les usages des algorithmes et de l’IA. La préoccupation majeure des décideurs publics et des régulateurs est de ne pas ralentir le moteur de la croissance, avec un secteur numérique porteur d’espoirs tout particuliers. La crise sanitaire a démontré la robustesse de ce secteur, très sollicité pour maintenir l’activité des entreprises et du secteur public, et l’on attend de lui qu’il aide à absorber le choc économique auquel nous allons être confrontés une fois les aides publiques épuisées. L’intensité d’une réglementation sur l’IA risque donc d’être très limitée et se concentrer sur la question de la confiance, afin de nous inciter à adopter dans notre quotidien toujours plus de solutions fondées sur ces technologies.

En dehors des frontières européennes, les déclarations politiques sur l’IA se sont succédé, comme aux États-Unis, mais l’avènement d’une réglementation garantissant des droits fondamentaux à l’ère numérique reste un objectif lointain. Sur l’IA, quelques déclarations de membres du Congrès aux États-Unis ont montré un intérêt croissant pour le sujet, et le Bipartisan Policy Center paraît s’être saisi de la question, mais sans réel objectif court terme. Toujours aux États-Unis, le secteur de la santé sera certainement le premier à adapter sa réglementation à l’IA. Il faut dire que ce secteur a été l’un des premiers à adopter l’IA, en particulier en radiologie. L’agence américaine des produits alimentaires et médicamenteux (Food and Drug Administration – FDA) a commencé à se pencher sur la question en s’intéressant à la question des algorithmes non déterministes (dont l’apprentissage automatique – machine learning). 

En 2020, les ONG ont également continué à publier des opinions, des déclarations politiques et des livres. En plus de contributions à la consultation de la Commission européenne sur son livre blanc ou aux travaux du CAHAI, la pression demeure pour l’adoption d’une réglementation contraignante protectrice des individus et de la société. Algorithm Watch a notamment publié son rapport 2020 pour cartographier les usages et les analyses des systèmes de prise de décision algorithmique dans la sphère des politiques publiques en Europe. Access Now, après s’être retiré du Partenariat sur l’IA (Partnership on AI) du fait de la place limitée laissée à la société civile, a publié un rapport sur l’évolution des politiques en Europe en matière d’IA.

Du côté de la recherche, les organisateurs de la conférence annuelle NeurIPS (the Neural Information Processing Systems ) ont demandé pour la première fois à tous leurs participants de réaliser une introduction sur les conséquences sociétales de leurs recherches, incluant leurs possibles effets négatifs. La dimension éthique a également été considérée systématiquement dans la revue des articles soumis à publication à l’occasion de la conférence.

Après une année 2020 dont personne n’aurait pronostiqué la teneur, il est donc difficile d’établir un profil de ce que pourrait être l’année 2021 en ce qui concerne les diverses applications de l’IA et leur réglementation. 

Sur un plan technique, des briques d’IA vont vraisemblablement continuer à s’immiscer dans la plupart des logiciels, rendant d’ailleurs toujours plus complexe leur auditabilité. Mais il ne s’agit probablement là que d’une évolution naturelle en ingénierie informatique qui va industrialiser les techniques les plus matures. Les chercheurs continuent par ailleurs de chercher différentes pistes pour dépasser les limites des systèmes actuels, qu’il s’agisse de l’apprentissage par renforcement ou de la modélisation de la causalité. La simplification d’usage de certaines applications, comme le remplacement de visages dans des vidéos (« deepfakes »), va aussi conduire à une probable multiplication de contenus illicites, pouvant notamment déstabiliser les débats politiques. Les avis des spécialistes semblent également converger vers des progrès sur le traitement du langage ou dans le domaine de la santé, l’usage (discret) de briques d’IA pour la recherche de médicaments ou l’imagerie allant probablement se généraliser.

Sur un plan juridique, l’encadrement paraît plus que jamais nécessaire. Il est donc probable que les fondations de cadres internationaux soient posées en 2021 mais avec quel contenu ? L’équilibre entre un cadre juridique de confiance, protégeant les usagers que nous sommes tous, et un soutien de plus en plus inconditionnel au développement d’un secteur numérique en plein marasme économique généralisé va être délicat. 2021 verra donc probablement se raffermir le consensus général centrant nos réflexions collectives sur les usages du numérique et s’éloigner un traitement politique de la question de l’opportunité de transformer notre entière société en données, question pourtant centrale du changement de gouvernementalité de notre ère.


Aller plus loin