Après le très fort engouement, pour ne pas dire l’emballement, autour des algorithmes d’apprentissage automatique (machine learning) au début des années 2010, il est assez vite apparu un besoin d’encadrer, voire de limiter certains des développements. Bien au-delà de la narration forgée par les communicants de l’industrie numérique d’une « intelligence artificielle » (IA) aux capacités de « disrupter » positivement notre siècle, l’emploi de ces algorithmes s’est révélé bien délicat, avec des effets de bords consubstantiels à leur cœur de fonctionnement statistique : confusions entre corrélation et causalité, biais liés à la qualité des données employées, discriminations sont quelques-uns des maux aujourd’hui bien identifiés
Les fondements de l’éthique de « l’IA »
Afin de répondre à ces critiques, l’industrie numérique a investi assez massivement la construction d’une nouvelle narration pour rassurer les investisseurs, créer de la confiance dans le public et écarter les tentations d’une régulation trop contraignante, susceptible de ralentir l’adoption massive de cette technologie tant par le secteur privé que le secteur public[1]. C’est ainsi que toute l’infrastructure logique et sémantique de la bioéthique s’est retrouvée importée et adaptée, parfois aux forceps, à « l’IA ». Ce transfert a toutefois trouvé un terrain favorable dans le mouvement général de transformation bien plus générale de la régulation, illustré par le passage du gouvernement à la gouvernance[2]. Il s’agit sans nul doute d’une manifestation de ces nouvelles normativités émergentes de la mondialisation[3], qui tendent notamment à responsabiliser les opérateurs d’un secteur économique et à leur laisser le soin d’organiser le détail de leurs activités. Une véritable prolifération des engagements « éthiques » de toute nature s’est donc opérée depuis 2017, engageant tant les acteurs économiques que les divers régulateurs et la société civile à édicter divers principes d’actions censés moraliser les divers développements. De notre décompte, près de 315 documents auraient été produits à ce jour, forgeant une véritable doctrine de design, de développement et de déploiement de « l’IA » avec ses inévitables mots valises tels qu’une « IA centrée sur l’humain », une « IA digne de confiance » ou encore une « IA responsable ».
Les projets de régulation de « l’IA » réinterrogés par la crise sanitaire
Sans digresser sur le caractère totalement anthropomorphique de ces assertions, car il semble bien incongru de prêter de telles valeurs à une machine[4], ou sur le manque de pertinence de transférer des principes bioéthiques à l’IA[5], l’impact systémique tant sur les individus que l’ensemble de la société de cette « IA » a conduit à l’émergence d’un autre discours sur la forme de la régulation à entreprendre. Des voix ont commencé à converger pour soutenir l’incapacité d’une forme de régulation sans sanction à prévenir à elle seule toutes les dérives d’usage[6] et l’idée d’une régulation plus renforcée de ces objets technologiques a conduit à des propositions politiques prudentes, mais fermes, telles que celles décrites dans le livre blanc de la Commission européenne[7] ou dans le mandat du Comité ad hoc sur l’intelligence artificielle (CAHAI) du Conseil de l’Europe[8]. Des ONG, comme AlgorithmWatch[9], mais également des travaux universitaires[10], ont contribué à cette prise de conscience auprès des décideurs publics, illustrant notamment la polysémie de nombre des principes « éthiques » dégagés et l’absence totale de mécanismes de contrainte. L’éthique, en science de la morale, est en effet bien souvent subjective…
« Les lobbyistes s’activent en évoquant que les pertes économiques dues à la pandémie ne vont pouvoir être rattrapées en ralentissant l’innovation par de la réglementation »
Mais voilà que la crise sanitaire provoquée par le SARS-Cov-2 est venue réinterroger ce qui semblait être un processus bien enclenché : des représentants des grandes entreprises technologiques commencent en effet à bâtir de nouveaux éléments de langage pour convaincre combien une régulation, même limitée à des applications à hauts risques, est de nature à entraver la réactivité des entrepreneurs pour contribuer à la lutte contre de tels périls[11]. Former des systèmes avec des normes de conformité élevées pour les données pourrait, selon eux, non seulement freiner les efforts pour contrer la maladie mais, surtout, coûter des vies. Des Think Tank appuient également ce mouvement en soutenant le recours à des technologies de surveillance de masse et en considérant qu’il ne s’agit que d’un simple prix à payer[12]. De manière plus générale, les lobbyistes s’activent en évoquant que les pertes économiques dues à la pandémie ne vont pas pouvoir être rattrapées en ralentissant l’innovation par de la réglementation. Ils s’opposent ainsi à toute forme de mécanisme de contrôle ex-post, comme des adaptations des dispositions relatives à la responsabilité civile ou pénale, ou ex-ante, comme de la certification ou de la labellisation[13] et semblent avoir été entendus dans un projet de rapport pour la Commission des affaires juridiques du Parlement européen paru en mai 2020[14].
Des risques de dérives des technologies numériques aggravées par la crise sanitaire
Pourtant, ces mêmes circonstances renforcent plus que jamais une réglementation des technologies numériques, dont « l’IA ». Alors que Singapour était présenté comme un pionnier de la lutte contre le virus, l’échec de son application de proximity tracing (pistage de proximité) TraceTogether conduit maintenant cet État à recourir à un service bien plus intrusif dénommé SafeEntry. Ses autorités se sont en effet bien rendu compte que le faible taux d’utilisation de sa première application utilisant les signaux Bluetooth (20% d’installation) était dû aux limites mêmes de cette technologie et à la fracture numérique touchant certaines parties de la population (comme les personnes âgées). Le nouveau système impose maintenant à tous de scanner, toujours avec leurs téléphones mobiles, un « QR code » lorsqu’ils entrent ou sortent d’un bâtiment public, des centres commerciaux et des entreprises afin de tracer leur présence[15]. Ce sont donc ces circonstances exceptionnelles qui créent des raisons supplémentaires pour s’assurer que des États ou des entreprises privées ne se saisiront pas de la recherche d’une sécurité accrue pour proposer des solutions liberticides, sur lesquelles il sera bien difficile de revenir une fois la crise passée.
Pourtant, l’éthique est à nouveau convoquée ici dans les nombreux discours : la présidente du groupe européen d’éthique des sciences et des nouvelles technologies, organe consultatif de la Commission européenne, et également membre du consortium PEPP-PT estime ainsi qu’il peut être tout à fait légitime d’un point de vue éthique de déployer des applications de pistage des contacts s’ils sont « éthiques dès la conception » et qu’ils disposent d’une base légale. Mais qui se charge alors de définir cette « éthique » ? Ce qui est éthique pour les uns, l’est-il pour les autres ? Pourquoi invoquer encore l’éthique si une loi définit précisément les conditions de mise en œuvre et les sanctions en cas de manquement ?
Les projets de régulation stricte de « l’IA » plus que jamais nécessaires
Entendons-nous bien. L’éthique est bien entendue indispensable à la plupart des types d’exercice professionnel et elle en constitue même un fondement. Elle intervient dans les interstices de réglementations qui n’ont pu prévoir tous les cas de figure ou en cas de conflits internes entre les réglementations elles-mêmes. Elle nous dote d’une conscience et nous permet de nous distinguer d’automates qui répèteraient les mêmes actes sans les contextualiser. Mais l’éthique, par sa souplesse, ne doit pas devenir l’instrument d’une légitimation en masse d’usages controversés. Elle n’est qu’une composante de l’effort de structuration de nos rapports avec le numérique. Le droit, général et impersonnel, qui résulte de lois conçues selon des processus démocratiques reste la seule et unique réponse à apporter face à des plateformes aux ambitions toujours plus démiurgiques et qui imposent, de fait, leurs valeurs et leur interprétation du monde, tout en tentant de minimiser leur responsabilité.
« Scander que l’éthique serait l’outil central permettant de concilier innovation et responsabilité sociétale témoigne d’une incompréhension profonde du sens des termes employés »
Car ne l’oublions pas, les premiers responsables de ces solutions d’automatisation, ce sont des humains, qui restent, quelle que soit la complexité de l’écheveau, les seuls responsables de leur production. Qu’ils proclament agir avec une éthique est une chose, qu’ils puissent répondre des défauts de conception en est une autre – ce qui limiterait vraisemblablement l’arrogance et l’absence de conscience avec lesquelles nombre de startups entendent bousculer les règles établies. Au surplus, il serait tout de même étrange de se satisfaire de règles non contraignantes pour encadrer le développement et l’application de divers mécanismes algorithmiques, qui ne cessent d’influencer de plus en plus nos vies. Alors que des réglementations sont omniprésentes dans les moindres revers de notre vie quotidienne, des couverts jetables aux jouets confiés à nos enfants, nous ne devrions pas considérer ici la nécessité de disposer de règles strictes, assorties de sanctions ? Scander que l’éthique serait l’outil central permettant de concilier innovation et responsabilité sociétale témoigne d’une incompréhension profonde du sens des termes employés et des mécanismes économiques pour lesquels un cadre et une sécurité juridique constituent des facteurs indispensables pour tout développement durable.
Et concluons par une évidence : même si cette éthique de « l’IA » va vraisemblablement précéder une construction réglementaire et servir d’inspiration aux juges pour le traitement de contentieux très spécifiques, nous disposons déjà de principes fondamentaux qui sont loin d’être optionnels, surtout pour faire face à des outils algorithmiques aussi invasifs. La nouveauté de l’outil ne doit pas nous divertir de la permanence des normes, principes et valeurs édictés par la Convention européenne des droits de l’homme par exemple. Ne croyons surtout pas que cette profusion d’éthique répond aux enjeux posés. Surtout quand elle émane de manière directe ou indirecte d’une industrie ayant jeté, en conscience, son emprise sur notre temps.
Animateur des Temps Electriques et auteur du l’ouvrage « L’intelligence artificielle en procès »
Les opinions exprimées n’engagent que son auteur et ne reflètent aucune position officielle du Conseil de l’Europe
Pour aller plus loin
Ces développements sont approfondis dans l’ouvrage « L’intelligence artificielle en procès«
Vous pouvez aussi consulter la liste régulièrement mise à jour sur ce site des cadres éthiques et politiques de l’IA, du Big Data, des algorithmes, de la Data Science et de la robotique.
Notes
[1] R. Ochigame, The invention of ‘Ethical AI’, The Intercept, 20 décembre 2019.
[2] F. Ost, M. van de Kerchove, De la pyramide au réseau ? Pour une théorie dialectique du droit, Publications des Facultés universitaires Saint-Louis, 2002.
[3] K. Benyekhlef, Une possible histoire de la norme. Les normativités émergentes de la mondialisation, 2e éd., Thémis, 2015.
[4] J. Bryson, AI & Global Governance: No One Should Trust Artificial Intelligence, Our World, 14 novembre 2018.
[5] B. Mittelstadt, Principles Alone Cannot Guarantee Ethical AI, Nature Machine Intelligence, novembre 2019, pp,501-507.
[6] Voir par exemple J. Kleijssen, Conseil de l’Europe et intelligence artificielle. Les droits de l’homme, l’État de droit et la démocratie face aux défis du développement et de l’utilisation de l’intelligence artificielle, L’Observateur de Bruxelles n°115, janvier 2019 ou P. Nemitz, Constitutional Democracy and Technology in the age of Artificial Intelligence, – Royal Society Philosophical Transactions A, 18 août 2018.
[7] Commission Européenne, Livre blanc sur l’intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance, COM(2020)65, 19 février 2020.
[8] Comité des Ministres du Conseil de l’Europe, Mandat du Comité ad hoc sur l’intellilgence artificielle, CM/Del/Dec(2019)1353/1.5-app, 11 septembre 2019.
[9] L. Haas and S. Gießler, In the realm of paper tigers – exploring the failings of AI ethics guidelines, Algorithm Watch, 28 avril 2020.
[10] Voir par exemple A. Jobin, M. Ienca, et E. Vayena, The global landscape of AI ethics guidelines, Nature Machine Intelligence 1, 2019, pp.389–399.
[11] Voir par exemple le webinaire « European AI Priorities Over The Next 6 Months » organisé par le Center For Data Innovation, accessible sur : https://www.youtube.com/watch?v=anm6ok-fKiQ&feature=youtu.be – Consulté le 7 mai 2020.
[12] Tony Blair Institute for Global Change, A Price Worth Paying: Tech, Privacy and the Fight Against Covid-19, 24 avril 2020.
[13] Voir les propos rapportés par Politico de Olivier Süme, président de l’association de l’industrie internet, dans leur lettre d’information AI: Decoded du 6 mai 2020, accessible sur : https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-cold-winds-are-blowing-around-regulation-the-ethics-of-contact-tracing-doubts-over-ai-to-treat-covid-19/ – Consulté le 7 mai 2020.
[14] Projet de rapport avec des recommandations sur le régime de responsabilité civile de l’intelligence artificielle, Parlement européen, Commission des affaires juridiques, 2020/2014(INL), 4 mai 2020.