La critique de la technique : clé du développement de l’intelligence artificielle ? (Quatrième et dernière partie)

Revitaliser le contenu d’une réglementation sur « l’intelligence artificielle »

Crédits : Pxfuel

De manière assez surprenante, les bénéfices systémiques de la généralisation de l’informatique, notamment sur la productivité, restent à démontrer. En 1987, Robert Solow, prix Nobel d’économie, annonçait « on voit des ordinateurs partout, sauf dans les statistiques de productivité ». Ce paradoxe révélait l’absence de lien observable, au niveau micro-économique, entre les investissements informatiques et la productivité des entreprises. Le constat apparaît toujours d’actualité, puisqu’il s’agisse d’internet et de sa bulle, ou de la généralisation des téléphones intelligents (smartphones) et de « l’IA », l’économie peine à décoller[1]. La crise économique résultant de la crise sanitaire due à la COVID-19 ne va vraisemblablement pas renverser la situation, puisque l’on a vu que cette « IA », pourtant promise à résoudre la plus vaste gamme de problèmes notamment en matière de santé, n’a eu en réalité qu’assez peu de résultats opérationnels[2]. Il semble que nous héritons encore de l’influence d’analyses assez anciennes, comme celle de Daniel Bell qui estimait que la clé du passage de la société industrielle à la société post-industrielle serait dans l’augmentation de la productivité liée aux activités informationnelles[3] – cette fameuse « société de l’information » – ou de Simon Nora et Alain Minc, selon laquelle il faudrait informatiser l’économie pour produire de la croissance[4].

#4.1. Des initiatives de réglementation prenant acte d’un lien entre innovation technologique et croissance économique

Les préambules des travaux réalisés à Bruxelles, notamment par le groupe d’experts indépendants de haut niveau mis en place par la Commission Européenne, ou à Paris dans le cadre de l’OCDE ne démentent pas cette filiation de pensée. Les « Lignes directrices en matière d’éthique pour une IA digne de confiance[5] » des experts mandatés par la Commission reconnaissent que les systèmes d’IA soulèvent des risques (paragraphe 10) mais déclarent avant tout que « Nous sommes convaincus que l’IA est susceptible de transformer la société de manière significative. L’IA n’est pas une fin en soi, mais plutôt un moyen prometteur d’accroître la prospérité humaine, en renforçant ainsi le bien-être individuel et de la société ainsi que le bien commun, et en étant porteur de progrès et d’innovation » (paragraphe 9). Le livre blanc de la Commission européenne sur l’IA[6] identifie aussi un certain nombre de risques, mais ouvre sur un certain nombre d’affirmations : « [L’IA] va entraîner des changements dans nos vies en améliorant les soins de santé (précision accrue des diagnostics ou meilleure prévention des maladies, par exemple), en rendant l’agriculture plus efficiente, en contribuant à l’adaptation au changement climatique et à l’atténuation de ses effets, en augmentant l’efficacité des systèmes de production par la maintenance prédictive, en renforçant la sécurité des Européens et de bien d’autres façons que nous commençons à peine à entrevoir ». Elle précise : « La Commission prône donc une approche axée sur la régulation et l’investissement, qui poursuit le double objectif de promouvoir le recours à l’IA et de tenir compte des risques associés à certaines utilisations de cette nouvelle technologie ». De même, la « Recommandation du Conseil sur l’intelligence artificielle[7] » de l’OCDE débute par ce constat : « L’intelligence artificielle (IA) est une technologie générique qui promet d’améliorer le bien-être des individus, de contribuer à une activité économique mondiale dynamique et durable, de stimuler l’innovation et la productivité, et d’aider à affronter les grands défis planétaires ». Pour les deux organisations, la question réside avant tout dans la nécessité de créer une « IA digne de confiance » (trustworthy AI), centrée sur l’humain (human-centred) et fondée sur les droits de l’homme afin de soutenir l’innovation et le progrès, ainsi qu’une croissance économique prometteuse. Dans son « Étude préliminaire sur les aspects techniques et juridiques liés à l’opportunité d’un instrument normatif sur l’éthique de l’intelligence artificielle[8] », l’UNESCO souligne pour sa part que : « La nouvelle économie numérique qui voit le jour représente des défis et des possibilités immenses pour les sociétés d’Afrique et des autres pays en développement. Du point de vue éthique, l’IA devrait être intégrée dans les politiques et les stratégies nationales de développement, en prenant appui sur les cultures, les valeurs et les connaissances endogènes pour développer les économies africaines » (paragraphe 10). Le Conseil de l’Europe évoque également dans le préambule de sa Recommandation sur les impacts des systèmes algorithmiques sur les droits de l’homme : « Gardant à l’esprit le potentiel important d’innovation socialement bénéfique et de croissance économique que recèlent les technologies numériques[9] ».

Or, en lisant ces présomptions sous le prisme du « paradoxe de Solow » et même si le taux de pauvreté absolu paraît reculer dans le monde durant ces dernières décennies[10], il convient de constater que nous n’avons pas assisté à une résorption des inégalités et que les promesses d’une croissance revivifiée par l’investissement massif dans l’innovation numérique ne sont pas tout à fait au rendez-vous. De nombreuses applications de « l’IA », présentées comme une solution à des problèmes souvent bien complexes, se révèlent non seulement peu matures, mais surtout inadaptées à produire le service qu’elles prétendent rendre. Par exemple, reconnaître une image ou gagner au jeu de go à l’aide d’apprentissage automatique (machine learning) est une chose, mais penser pouvoir évaluer avec la même technologie la prétendue dangerosité d’un individu ou prédire l’indemnisation prononcée par un tribunal en est une autre. Non seulement parce qu’il s’agit d’une résurgence claire d’une conception déterministe des individus[11] en matière pénale ou une méconnaissance absolue de ce qu’est un système juridique en matière civile[12], mais aussi parce que, structurellement, manipuler des données quantifiables, dans des environnements fermés, n’est pas la même chose que de manipuler des données qualitatives, dans des environnements ouverts. L’on cherche également à amasser des quantités considérables de toutes sortes de données, pensant que l’on capitalise ainsi une ressource essentielle, alors que, qualitativement, tout ne se vaut pas[13]. Par ce manque de rigueur, l’on cautionne donc la production de résultats nécessairement décevants, voire dangereux, décrédibilisant potentiellement toute forme d’application et pesant ensuite sur la confiance des investisseurs et des usagers[14]

Concevoir une réglementation de technologies comme « l’IA » devrait donc admettre, en préambule, que notre manière de quantifier et d’analyser l’innovation et le progrès n’est peut-être pas la bonne. L’innovation technologique doit-elle être nécessairement vue comme un progrès pour le genre humain ? La croissance économique est-elle un facteur inconditionnel d’amélioration des conditions de vie ? Ou faut-il définir et mesurer autrement le bien-être que par le seul prisme du PIB ? Par une réglementation effective et stricte de « l’IA », il s’agirait donc de parvenir à considérer ce que nous devrions en faire plutôt que de spéculer sur ce que nous pourrions en faire. Le progrès pourrait ainsi naître non pas de vagues principes éthiques, même transformés en textes juridiques, censés garantir des dérives, mais de l’exclusion pure et simple d’applications commerciales ou publiques bien trop hasardeuses. 

#4.2. Recentrer les travaux d’une réglementation de « l’intelligence artificielle » en connaissance du réel état de l’art

Il paraît donc urgent d’arriver à se départir des éléments de langage et des mots-valises répétés à l’envi, qui ne sont pas singuliers à « l’IA », pour esquisser un regard objectif sur le numérique et concevoir une réglementation en capacité de traiter les réels enjeux de société. Il est naturellement indispensable d’arriver à prévenir des discriminations de tous ordres, à échapper à la constitution progressive d’une société de surveillance et à préserver la vie privée, à garantir notre autonomie d’action ou encore assurer notre liberté d’expression. Mais l’atteinte de ces objectifs doit se concevoir en réinvestissant une approche scientifique sérieuse, excluant en amont et d’emblée l’emploi de techniques et de technologies trop peu matures ou simplement inadaptées. Le scandale provoqué par la publication d’une étude extrêmement approximative sur l’effet d’un médicament sur le coronavirus par The Lancet est malheureusement représentatif de cette « épidémie de mauvaise science » évoquée en première partie de cette étude, le rédacteur en chef de cette revue reconnaissant que « cet épisode représente un échec complet pour la science[15] ».

Les régulateurs, nationaux et internationaux, se doivent d’être informés de l’état de l’art précis et non simplement récepteurs de discours forgés par une industrie soucieuse d’asseoir toujours plus son hégémonie sur notre temps[16]. La crise économique, qui nous touche déjà, ne doit pas nous donner l’occasion d’augmenter le maillage de l’emprise numérique au prétexte d’une recherche tout à fait hypothétique de croissance économique (elle n’était déjà pas au rendez-vous avant). Elle devrait, au contraire, nous inviter à nous ressaisir pour évaluer exactement la qualité de ce qui nous est vendu et les conséquences d’un transfert de gouvernance, déjà bien avancé, entre des États abandonnant nombre de leurs prérogatives au bénéfice d’opérateurs privés, dont la vocation n’est ni de garantir, ni de renforcer l’intérêt général. 

Une réglementation effective sur « l’IA » devrait donc s’appuyer sur une expertise de haut niveau dégagée des intérêts économiques ou de souveraineté des États, fondée sur des preuves solides et reproductibles. C’est l’ensemble de la démarche d’évaluation qui serait à dégager de ces influences pour constituer un réseau d’experts multidisciplinaires, représentant une conscience commune, dont la boussole serait solidement ancrée vers un progrès humain, si cher aux Lumières, et non vers la « technique ». Garantir, en amont, la qualité et la neutralité de la production scientifique, notamment de la recherche publique, c’est donc garantir que la production de normes, en aval, ait du sens. 

#4.3. Les défis et les opportunités d’une réglementation effective de « l’intelligence artificielle »

Le contexte politique, économique et social n’est toutefois pas favorable à un tel ressaisissement, même si la crise sanitaire a confirmé de manière flagrante la faiblesse structurelle du complexe scientifico-industriel. Ajoutons à cela l’affaiblissement de la primauté d’une règle de droit au profit de mécanismes d’autorégulation en plus du transfert de gouvernance, déjà évoqué, vers des opérateurs privés et l’on comprend les difficultés pour les régulateurs pour imposer des vues strictes sur la régulation de « l’IA » en rupture avec le consensus ambiant sur l’irréductible conception du progrès par la technique. Il faut dire que le sentiment diffus de retard généralisé dans lequel nous sommes plongés durant ces dernières décennies[17] nous impose une marche forcée vers un progrès technologique salvateur. Ce même sentiment nous enjoint à nous adapter à tout prix, le plus vite possible, sans se donner le temps de problématiser… et avec un regard en réalité fixé à court terme. C’est même à se demander si, après la longue ère de la primauté temporelle de la religion puis l’avènement, avec le temps des Lumières, de l’État de droit pour organiser au mieux les affaires humaines nous ne serions pas en train d’entrer dans une autre ère : celle d’une véritable primauté d’une interprétation du monde par les algorithmes (et d’un « État des algorithmes[18] »), dont l’instrument opérationnel serait « l’IA ». Avec un résultat concret : la délégation, de fait, de l’essentiel de l’administration des affaires de notre société à des opérateurs privés, hors de tout contrôle démocratique.

Pourtant, au vu de l’impact de cette véritable doxa, il nous faudra bien parvenir à dépasser la dialectique nous étant imposée, liant irrémédiablement ces technologies numériques avec la croissance économique, pour échapper à l’ultime stade d’une évolution techno-centrée, créant à la fois les conditions du mal et son remède terrible : le transhumanisme. Car ce qu’il y aurait à considérer dans les années à venir, c’est autant la sacralisation et les dérives imposées par une technologie précise, comme « l’IA », que les dérives résultant de la conjonction de technologies telles que les nanotechnologies, les biotechnologies, les technologies de l’information et les sciences cognitives (NBIC). Là encore, la fameuse loi de Gabor n’a rien d’inéluctable, et ce sera la conjonction d’une approche scientifique rigoureuse et véritablement éthique, alliée à un cadre juridique fondé sur les droits de l’homme, la démocratie et l’État de droit qui donnera le cap d’une amélioration de la condition de l’humanité. D’une manière assez paradoxale, c’est même d’ailleurs la réelle prise en compte des discours critiques qui peuvent devenir leur meilleure garantie de la longévité d’un projet capitaliste et néolibéral. 

Des réglementations strictes sont en effet déjà intervenues massivement dans des domaines industriels comme l’automobile (avec la prolifération de mesures de sécurité actives et passives dans les véhicules) ou les médicaments (avec la certification avant la mise sur le marché). Ces encadrements n’ont en rien ralenti l’innovation et, au contraire, ont été une garantie de confiance pour les consommateurs[19]. Alors que cette même confiance est recherchée pour « l’IA », il semble surprenant qu’une partie de l’industrie numérique tente encore d’étouffer les critiques, pourtant substantielles, ou de ralentir l’adoption de normes strictes, à même de dépasser les seules incantations appelant à une « IA digne de confiance ». Reste encore à déterminer les fondements et les axes d’une réglementation qui serait effective et non cosmétique. 

#4.4. Les fondements et les axes principaux d’une réglementation effective de « l’intelligence artificielle »

Parmi les fondements identifiés par la plupart des organisations internationales, les droits de l’homme ou les droits fondamentaux figurent de manière constante comme l’une des briques essentielles de leurs instruments juridiques. Bien que critiqués assez sévèrement, tant par les promoteurs d’un marché libre que les critiques d’un hyperinvidualisme[20], les droits de l’homme apparaissent en effet suffisamment généraux, transversaux et rassurants pour constituer la base d’une réglementation recherchant la confiance. C’est d’ailleurs sur ce fondement que le premier texte international de protection des données à caractère personnel, la Convention 108 du Conseil de l’Europe[21], s’est appuyé en 1981 en rejoignant le corpus des traités de l’organisation, comprenant déjà la Convention de sauvegarde des Droits de l’Homme et des Libertés fondamentales[22]. En ce qui concerne « l’IA », et toujours en référence à la Convention européenne des droits de l’homme, l’on y trouve des garanties substantielles en ce qui concerne le droit au respect de la vie privée et familiale (art. 8), le droit à la liberté d’expression (art. 10), le droit à un procès équitable (art. 6), l’interdiction des discriminations[23] (art. 14) et, par construction jurisprudentielle, la dignité[24]. Autant de garanties qui présentent un intérêt majeur pour prévenir des dérives bien documentées d’emploi de « l’IA » ou des algorithmes, telles que les prétentions d’évaluation des risques de récidive d’un individu en matière pénale par exemple[25] ou d’atteintes à la démocratique par des tentatives de manipulation de masse[26].

Il sera tout d’abord réfuté ici toute une série d’arguments visant à écarter, à atténuer ou à instrumentaliser les droits de l’homme dans le seul objectif de « blanchir » « l’IA » ou de créer un sentiment de sécurité bien artificiel. Ainsi, il a pu être soutenu qu’il était inutile de créer de nouveaux textes spécifiques à cette technologie, du fait de son caractère novateur et mouvant, ou qu’il ne faudrait que des réglementations très spécialisées, ceci dans le seul objectif de laisser des interstices dans lesquels se faufiler pour échapper aux règles édictées. Il a pu aussi être fait référence à des concepts vagues (« centré sur l’humain ») ou des principes qui laissent une marge suffisante d’interprétation pour créer faussement un sentiment de confiance sans réelles garanties. Il s’agira donc de se concentrer sur des axes potentiels de réglementation ne considérant pas les droits de l’homme comme une clé universelle, mais comme une condition nécessaire et insuffisante à remplir seule cette fonction d’encadrement juridique de « l’IA ». C’est pourquoi il sera également fait appel à d’autres séries de principes qui, pour être totalement effectifs, devraient être également accompagnés de mécanismes de suivi.

Une telle réglementation devrait adopter tout d’abord une définition technologiquement neutre et suffisamment large de « l’IA » afin de construire un mécanisme juridique global et cohérent apte à appréhender l’essentiel des applications informatiques susceptibles d’avoir un impact significatif[27] sur les individus ou la société. La notion de « systèmes algorithmiques », développée notamment dans une Recommandation du Conseil de l’Europe[28], pourrait d’ailleurs au final être préférée au terme « d’IA ». La motivation sous-jacente à une telle approche est de parvenir à appréhender le plus grand nombre de situations spécifiques résultant de l’emploi de l’informatique, notamment celles tenant à la prise de décision ou à l’assistance à la prise de décision. Cette réglementation devrait ensuite poser un certain nombre de principes[29], parmi lesquels on pourrait citer :

  • Un principe de précaution : En cas de risque de dommages graves ou irréversibles résultant de l’emploi de systèmes algorithmiques, l’absence de certitude scientifique absolue ne devrait pas servir de prétexte pour remettre l’adoption de mesures effectives visant à prévenir tout dommage sur les individus, la société et l’environnement. La mise sur le marché ou l’emploi par le secteur public devraient être purement et simplement différés ou prohibés, cela n’empêchant pas la recherche de perfectionner des outils socialement acceptables avec un solide encadrement éthique[30].
  • Un principe de proportionnalité de recours aux algorithmes : Le recours à des systèmes algorithmiques, notamment les systèmes de prise de décision (ou d’aide à la prise de décision) ayant un impact significatif sur les individus et la société, serait à envisager que s’il en est démontré la nécessité, une particulière valeur ajoutée et s’il n’existe pas d’autres modalités aussi efficientes moins intrusives, et moins consommatrices d’énergie, pour exécuter une tâche ou offrir un service. Cette proportionnalité sera particulièrement recherchée pour protéger les droits de l’homme et les libertés fondamentales, en prohibant l’emploi systématisé de technologies très intrusives dans les espaces publics, comme la reconnaissance faciale, sauf pour des circonstances exceptionnelles et sous un encadrement strict de l’autorité judiciaire. Cette proportionnalité serait également à envisager pour les services publics afin de limiter les effets de la fracture numérique entre les différentes parties de la population. Elle pourrait aussi être recherchée dans tout autre secteur d’activité afin de favoriser quand cela est nécessaire les interactions humaines directes, sans intermédiation numérique.
  • Le respect de la dignité humaine : En convergence avec les nanotechnologies, les biotechnologies et les sciences cognitives, l’emploi de systèmes algorithmiques interfacés directement sur les êtres humains à des fins d’augmentation de leurs capacités ne devrait être envisagé que dans des situations particulières de compensation de handicap. La recherche et le développement de tels systèmes devraient être encadrés selon les mêmes principes directeurs que pour la biomédecine.
  • Le renforcement de la solidarité : Les bénéfices résultant de l’emploi de systèmes algorithmiques devraient être redistribués équitablement afin que l’innovation participe au renforcement de la cohésion sociale, au bien-être des populations et des individus ainsi qu’à un développement humain harmonieux, comme cela est envisagé dans les objectifs de développement durable des Nations Unies.

Bien d’autres axes pourraient être évoqués pour compléter ce qui pourrait être intégré dans l’ordre juridique international sous la forme d’une convention cadre par exemple[31], notamment en ce qui concerne les données (afin de trouver une articulation avec les dispositions relatives à la protection des données) ou la certification ex ante pour s’assurer de la conformité des systèmes[32]. Même si les précédentes expériences de ce type d’instrument juridique de haut niveau démontrent une efficacité qui pourrait être discutée du fait de leur absence d’effet juridique direct[33], la naissance d’un consensus international ambitieux en la matière ne pourra naître que progressivement. 

L’intégration de principes reconnaissant que le progrès humain n’est pas inéluctablement lié à la technique et, en parallèle, un nouveau souffle donné à une recherche publique crédible, déconnectée d’intérêts financiers et marchands, sont vraisemblablement les clés d’un développement durable de nos sociétés, qui mériteraient d’être portées par un nouveau projet politique qui tirerait, de manière large, toutes les conséquences des enseignements de cette crise sanitaire.


Téléchargez l’étude complète au format PDF en cliquant ici – Document sous licence Creative Commons BY-NC-ND


[1] De manière plus sectorielle, un rapport du Conseil de l’Europe (Commission européenne pour l’efficacité de la justice – CEPEJ) concluait en 2016 à la difficulté de démontrer un lien entre l’informatisation des tribunaux et l’amélioration de leur efficacité – Rapport thématique : l’utilisation des technologies de l’information dans les tribunaux en Europe, Études de la CEPEJ n°24, 2016

[2] J. Bullock, A. Luccioni, K. Hoffmann Pham, C. Sin Nga Lam, M. Luengo-Oroz, Mapping the landscape of Artificial Intelligence applications against COVID-19, UN Global Pulse, 24 avril 2020

[3] D. Bell, The Coming of Post-Industrial Society. New York: Harper Colophon Books, 1974

[4] S. Nora, A. Minc, L’informatisation de la société, Rapport au Président de la République, La Documentation Française, 1978

[5] Groupe d’experts indépendants constitué par la Commission européenne en juin 2018, Lignes directrices en matière d’éthique pour une IA digne de confiance, Avril 2018

[6] Livre blanc sur l’intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance, Février 2020

[7] OCDE, Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449, mai 2019

[8] UNESCO, Étude préliminaire sur les aspects techniques et juridiques liés à l’opportunité d’un instrument normatif sur l’éthique de l’intelligence artificielle, 206 EX/42, Mars 2019

[9] Conseil de l’Europe, Recommandation du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’homme, CM/Rec(2020)1, Avril 2020

[10] La Banque mondiale a proposé, en 2018, deux nouveaux seuils de pauvreté : le premier, à 3,2 dollars par jour, qui conduit à compter 25 % de pauvres sur la planète, et le second à 5,5 dollars, qui implique près de 50 % de pauvres. Toutefois, ces comparaisons internationales ne portent désormais plus sur la « pauvreté absolue », avec différents seuils, mais sur la « pauvreté relative », qui recense les ménages vivant sous une certaine fraction du revenu médian. Selon cette grille de lecture, si la pauvreté absolue baisse dans les pays en développement (1,84 milliard d’individus en 1990 contre 766 millions en 2013), la pauvreté relative augmente (482 millions d’individus en 1990 contre 1,32 milliards en 2013). En d’autres termes, le dénuement total parait diminuer alors que les inégalités progressent.

[11] Au XIXème siècle, le professeur italien de médecine légale Cesare Lombroso avait cru pouvoir identifier les potentiels criminels sur la base d’études phrénologiques et physiognomoniques, c’est-à-dire en examinant la forme des crânes et les traits des visages. Bien que ses assertions aient été réfutées depuis lors, notamment pour faire émerger des politiques pénales centrées sur la réinsertion des individus, ce courant de pensée demeure encore actif et a été revivifié par les possibilités statistiques issues de « l’IA ». Voir notamment l’entretien avec Michal Kosinksi, psychologue en sciences sociales computationnelles, qui pense avertir des dangers de « l’IA » et de sa capacité, par exemple, à identifier des homosexuels sur la base des traits de leur visage – UpNorth Production, iHuman, Accessible sur : https://youtu.be/20kV0CcFSKE (entretien à 35mn20) – Consulté le 21 août 2020 

[12] Les systèmes juridiques actuels sont très éloignés de l’idéal de rationalité que devait incarner en France le Code civil de 1804. Il existe une multitude de sources qui ne s’imbriquent pas de manière parfaitement cohérente et qui portent sur un ensemble de règles dont la signification demeure très indéterminée, ce que le théoricien du droit Herbert L. A. Hart qualifiait de « texture ouverte du droit » – Voir notamment H. L. A. Hart, Le concept de droit : Facultés universitaires Saint-Louis Bruxelles éd., coll. Droit, 1976

[13] Sur les grandes ambitions de l’Union européenne sur cet amoncellement de données, voir D. Perrotte, Thierry Breton : « La guerre des données industrielles débute maintenant et l’Europe sera son principal champ de bataille », Les Echos, 17 février 2020

[14] Voir le dossier Artificial intelligence and its limits dans la revue The Economist du 11 juin 2020, op.cit.

[15] S. Delesalle-Stolper, «The Lancet» : «L’arrogance de l’Occident est responsable de dizaines de milliers de morts», Libération, 15 juin 2020

[16] Sur la manière dont les médias relaient les discours de l’industrie numérique sur « l’IA », voir J. Scott Brennen, An Industry-Led Debate : How UK Media Cover Artificial Intelligence, University of Oxford, Reuters Institute for Study of Journalism, 13 décembre 2018

[17] B. Stiegler, « Il faut s’adapter » : sur un nouvel impératif politique, op.cit.

[18] R. Batko, J. Kreft, The Sixth Estate – The Rule of Algorithms, Problemy Zarzadzania, University of Warsaw, Faculty of Management, vol. 15(68), 2017, pages 190-209

[19] Pour reprendre l’exemple automobile, le 1er juillet 1973, la ceinture de sécurité à l’avant des véhicules automobiles a été rendue obligatoire en France. Il s’agit alors du premier pays européen à imposer ce dispositif, après une année 1972 particulièrement meurtrière avec 18 034 personnes tuées. Mal acceptée au départ, cette mesure a permis pourtant de réduire dès le mois de décembre de 30 % le nombre de tués. Alors même que la population et le parc automobile se sont accrus depuis lors, 3 259 morts ont été à déplorer en 2018.

[20] En ce qui concerne la critique des droits de l’homme, et sa réfutation, voir J. Lacroix et J-Y. Pranchère, Les droits de l’homme rendent-ils idiots ?, Seuil, 2019

[21] Convention STE n°108, pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel

[22] Convention STE n°5, de sauvegarde des Droits de l’Homme et des Libertés fondamentales dite « Convention européenne des droits de l’homme »

[23] Il est à relever que l’article 14 de la Convention EDH n’est jamais applicable isolément, mais toujours conjointement à un autre article énonçant un droit ou une liberté. Voir à ce sujet F. Edel, L’interdiction de la discrimination par la Convention européenne des droits de l’homme, Dossiers sur les droits de l’homme n°22, Éditions du Conseil de l’Europe, 2010

[24] Le protocole d’amendement à la Convention 108 (STCE n°223) a ajouté au préambule de ce texte une mention explicite à la dignité humaine : « Considérant qu’il est nécessaire de garantir la dignité humaine ainsi que la protection des droits de l’homme et des libertés fondamentales de toute personne »

[25] Concernant l’algorithme COMPAS aux Etats-Unis, voir par exemple J. Angwin, J. Larson, S. Mattu, L. Kirchner, Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks, ProPublica, 23 mai 2016

[26] Voir à ce titre le site internet du journal « The Guardian », The Cambridge Analytica Files, accessible sur : https://www.theguardian.com/news/series/cambridge-analytica-files – Consulté le 21 août 2020

[27] Voir Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, op.cit., p.385

[28] Conseil de l’Europe, Recommandation du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’homme, CM/Rec(2020)1, Avril 2020 (Annexe, paragraphe 2) : « (…) on entend par « systèmes algorithmiques » des applications qui, au moyen souvent de techniques d’optimisation mathématique, effectuent une ou plusieurs tâches comme la collecte, le regroupement, le nettoyage, le tri, la classification et la déduction de données, ainsi que la sélection, la hiérarchisation, la formulation de recommandations et la prise de décision ». Il a retenu pour la présente étude cette définition : « système composé d’un ou de plusieurs algorithmes utilisés dans un logiciel pour recueillir et analyser des données ainsi que pour tirer des conclusions dans le cadre d’un processus conçu pour exécuter une tâche ». 

[29] Une liste plus exhaustive des éléments constitutifs d’une telle réglementation a été dressé dans : Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, op.cit., p.383 et s.

[30] A. Rességuier et R. Rodrigues, AI ethics should not remain toothless! A call to bring back the teeth of ethics, Big Data & Society, 2020

[31] Voir Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, op.cit., p.383

[32] Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une règlementation internationale et européenne, op.cit., p.351 et s. et Y. Meneceur, La procédure de certification : une régulation intelligente de contrôle… de l’intelligence artificielle, Revue Experts n°148, février 2020

[33] Voir la convention cadre de l’ONU sur le changement climatique et les conventions cadres du Conseil de l’Europe sur la coopération transfrontalière ou celle sur les minorités.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *