La critique de la technique : clé du développement de l’intelligence artificielle ? (Troisième partie)

La difficile émergence d’un discours critique de l’informatique et de « l’intelligence artificielle »

Crédits : Pxfuel

Apparue dans le sillage de la Seconde Guerre mondiale et de la recherche militaire, l’informatique se présente comme la technologie de rupture de ces dernières décennies. Alors que le nucléaire a créé le désordre et le chaos, l’informatique, elle, se présente en outil d’ordre et de raison. Elle a d’abord accompagné les nouveaux besoins de calculs d’États cherchant à automatiser certaines tâches de calcul ou de stockage, puis a investi dans les années 1970 les salons des particuliers, dans un contexte de reconfiguration économique, politique et culturelle majeur. La miniaturisation toujours plus accrue des composants a conduit à la généralisation d’usages que nous connaissons aujourd’hui avec les téléphones intelligents (smartphones) et à la recomposition en profondeur des moyens de communication, des offres de service et de l’accès à l’information. Depuis début 2010, « l’IA » est présentée comme la dernière évolution majeure de ce courant technique, avec son lot de promesses, de disruptions et de perspectives d’un avenir meilleur. Mais les critiques de cette « IA » n’ont pas manqué et elles nous avertissent de dangers les plus divers, des plus fantaisistes aux plus substantiels. D’un scénario d’extermination de l’homme par les machines[1] à un examen minutieux de l’impact concret de l’algorithmisation de notre monde sur l’humain[2], aucune doctrine majoritaire ne semble se dégager de l’abondante littérature produite à ce sujet. Une constante, en revanche, paraît se dessiner : c’est le rejet de cette critique par les pouvoirs publics, soit en l’ignorant ou en la minimisant, soit en l’institutionnalisant. Le développement, dans certaines des organisations internationales, de textes pour créer une « IA digne de confiance », « éthique » ou « centrée sur l’humain » est certainement à lire en ce sens.

#3.1. La critique précoce de l’informatique

Reprenons brièvement le cours de l’histoire de l’informatique et la manière dont sa critique s’est opérée. Dès les premiers succès des ordinateurs, leur dualité d’usage a été assez rapidement perçue : outil des utopies libertariennes en Californie, offrant la possibilité d’un accès illimité à l’information et au monde pour s’émanciper d’un État oppressant, et outil de contrôle des populations, fichant, numérotant, surveillant de manière continue[3]. Face au déferlement des micro-ordinateurs à la fin des années 1970 – début des années 1980, les analyses d’impact se concentreront sur trois axes principaux : le travail, notamment avec les risques de suppression d’emplois liés au traitement automatisé de données, la menace sur la qualité du lien social et la société de surveillance. En ce qui concerne ce dernier aspect, c’est exactement dans ce contexte que sont apparues en Europe les premières lois, sur la protection des données à caractère personnel, en conscience des souvenirs encore vifs du fichage massif des populations durant la Seconde Guerre mondiale. Mais cette lame de fond technologique sur la société n’est pas seulement marquée par la prolifération d’objets de plus en plus miniaturisés et prétendument « intelligents », elle est aussi remarquable par la production d’un discours, devenu permanent, désignant l’informatique et ses avatars, tel que « l’IA », comme le principal facteur de progrès de notre temps. 

Au Canada, Marshall McLuhan prophétisera son célèbre concept de « village global[4] » dès les années 1960, pressentant que l’interdépendance résultant de ces outils électroniques allait rétrécir le monde. Jacques Ellul, pourtant critique sans concession de la technique, s’enthousiasmera même en 1982 en estimant que la micro-informatique offre une chance historique de réorienter le système technicien dans un sens émancipateur[5]. La même année, le magazine Times désignera l’ordinateur comme homme de l’année. Cependant, la mise en récit populaire s’écrira principalement depuis l’ouest des États-Unis, pétri de la culture de conquête d’individus croyant en leur destinée manifeste, avec la ferme intention de recommencer le monde avec de nouvelles valeurs. Des films comme War GamesTron, ou des séries comme « Les petits génies » (Whiz kids), mettront en scène des adolescents contrôlant ces mystérieuses machines en frappant des lignes de codes cryptiques sur des écrans monochromes, en démontrant que cette technologie pouvait être tant l’instrument d’une nouvelle forme de totalitarisme qu’une forme d’instrument libérateur pour qui savait s’en servir.

Mais qu’il s’agisse des discours commerciaux des constructeurs ou des contes véhiculés par le soft powerd’Hollywood, la méfiance dans la population restera assez vive face à ces instruments censés – déjà – apporter une solution dans un monde en crise après les chocs pétroliers. Dans les institutions européennes, l’idée de la vieille Europe frileuse devant l’innovation à l’heure de la mondialisation émergera déjà à cette époque, tout comme la présomption qu’en traitant la question sous l’angle des usages, l’on parviendrait à dépasser l’opposition stérile entre promoteurs de l’informatique et leurs critiques[6]. Dans le même temps, les sciences sociales se concentreront progressivement sur l’examen approfondi du comportement des individus face à l’informatique, moins que sur son impact sur les structures. Cette « école des usages », pourtant consciente des conséquences de la généralisation de l’informatique, s’alignera progressivement sur le consensus selon lequel ce n’est pas la technologie en soi qui serait à mettre en cause, mais la manière dont les pouvoirs économiques et politiques la pervertissent. Voilà qui explique, au moins partiellement, les difficultés à construire un discours alternatif déconnectant l’évolution technique du progrès. Une victoire décisive pour une industrie parvenue à rendre incontournable sa production et qui, après avoir installé avec succès ses ordinateurs dans les bureaux de travail et les salons, allait parvenir à les interconnecter mondialement dans les années 1990 pour s’ancrer définitivement dans les moindres recoins de nos vies.

#3.2. L’avènement d’internet et du web, moteurs d’une nouvelle économie… sans nouvelle réglementation

La « bulle » née de l’émergence d’internet et de l’interconnexion massive de ces ordinateurs personnels durant les années 1990 a fait naître son lot d’espoirs et d’utopies. Aux critiques de l’informatique a ainsi succédé la perspective d’un accès généralisé au savoir et, surtout, une toute nouvelle économie. De quoi durablement tarir les méfiances. La puissance du simple lien « hypertexte », déjà imaginé par Douglas Engelbart dans les années 1960 et concrétisé par Tim Berners-Lee dans les années 1990 et qui parvient à créer des liens entre les savoirs, semble apporter une cinglante réponse aux inquiétudes imaginant une informatisation de la société digne de 1984[7]. Les bénéfices du « web » et de son support technique, l’internet, paraissent tellement évidents, que bien peu de critiques de fond émergeront et les garages en Californie commenceront à nouveau à se peupler de jeunes entrepreneurs prêts à saisir leur chance. Techniquement, la logique du portail s’impose, comme celui créé par Yahoo! en 1995, qui devient la première grande entreprise du numérique. Le principe est alors d’intégrer sur une même page le maximum de services afin de retenir l’internaute le plus longtemps possible : des infos, de la météo, des annonces, un moteur de recherche, un service messagerie électronique… et de la publicité. Dans le même temps, les investissements dans l’informatique augmentent de manière substantielle, passant de 50,1 milliards de dollars par an dans le monde en 1980 à près de 154,6 milliards de dollars en 1990 ; au plus fort de la bulle de la « net » économie, ils atteignent même un pic de 412,8 milliards de dollars.

En Europe, la réglementation sur la protection des données à caractère personnel révèle encore dans ce contexte sa robustesse et sa pertinence. Elle parvient à rassurer sur les principales dérives et se trouve traduite au sein de l’Union européenne par une directive en 1995[8], inspirée de la Convention 108 du Conseil de l’Europe[9]. La construction juridique qui en résultera, jusqu’à l’adoption du RGPD[10], sera la clé de voûte de la protection des individus dans ce tout nouvel environnement numérique qui commence, dès les années 2000, à agréger des quantités considérables de données. Mais, paradoxalement, c’est peut-être ce succès qui contribuera à négliger d’autres règles contraignantes, qu’il s’agisse d’encadrer le marché (le marché se corrigera d’ailleurs de lui-même dramatiquement le 14 avril 2000, suivi de la crise boursière post-attentats du 11 septembre) ou d’intervenir face à de nouveaux acteurs que l’on a du mal à catégoriser, avec une question centrale : quels sont leurs niveaux exacts de responsabilité ? Mais, là encore, cette question conduira à en négliger d’autres, bien plus profondes, comme les conséquences sur nos capacités de perception lorsque l’on emploie plusieurs heures par jour des applications redoublant d’ingéniosité et jouant de nos biais cognitifs pour retenir toujours plus notre attention[11]… au point que la dopamine libérée à chaque gratification reçue pour une publication nous conduise à ressentir des effets de manque comparables à d’autres addictions lors de déconnexions[12].

Le concept même d’une société de l’information et de la communication, promu avec la généralisation de l’internet et désignant l’ère post-industrielle, a pris acte de ce déterminisme technologique et a irrigué une action publique frileuse d’entraver l’innovation et de ralentir de très importantes perspectives de croissance[13]. Il ne s’agit pas, bien entendu, de nier la place croissante et prépondérante du numérique à notre époque, mais bien plus d’interroger s’il paraît opportun de lier inconditionnellement l’amélioration de nos conditions de vie et le maintien du lien social à la sophistication d’outils dont les concepteurs captent une part de plus en plus importante de pouvoir sur l’organisation de nos vies en dehors de tout contrôle démocratique[14]. Et, partant, d’interroger également comment les politiques de régulation ont bien plus servi à consolider de nouvelles positions dominantes qu’à protéger les individus et la société d’atteintes pourtant substantielles.

#3.3. La résurgence d’une critique profonde de l’informatique et de l’internet divertie par la résurrection du terme « intelligence artificielle »

C’est la justice qui interviendra en premier dans un contexte de frilosité des régulateurs de face aux géants du numérique. L’arrêt Google Spain de la CJUE du 13 mai 2014[15] consacrera ainsi un droit à l’oubli (ou, tout du moins, un droit à l’effacement) et contribuera, dans un contexte où Edward Snowden venait de révéler l’année précédente un système de surveillance de masse dirigé depuis les États-Unis, à tempérer la perception publique d’un impact bénéfique du « web » et des outils numériques. Même si elles n’avaient pas totalement disparu depuis les années 1980, les approches critiques sur ces « nouvelles technologies » (qui ne le sont désormais plus) trouvent au milieu des années 2010 une nouvelle audience. Le refus d’utilisation de certains objets se développera, tout comme la manifestation publique de déconnexions volontaires. Ces attitudes témoigneront, moins que d’une technophobie, d’un choix idéologique et politique réfutant de contribuer à l’emprise sur nos vies de groupes industriels et d’une volonté de reprendre la main sur un quotidien de plus en plus synchronisé sur le rythme des notifications émanant des diverses applications peuplant nos téléphones mobiles. L’idée d’une nouvelle ère biopolitique est soutenue par des auteurs comme Lawrence Lessing[16] (« code is law »), Antoinette Rouvroy[17] (qui relève l’émergence d’une gouvernementalité algorithmique) ou Adrien Basdevant[18] (qui dénonce un « coup data »).

Mais, dans le même temps, un terme que l’on croyait durablement passé de mode est revenu dans le paysage à l’orée des années 2010. En véritable concept zombie, « l’IA » a ressurgi des tréfonds où elle avait été soigneusement enterrée à la fin des années 80 pour réenchanter toute l’industrie numérique. Trois mousquetaires (ou plutôt conspirateurs[19]), Yann LeCun, Youshua Bengio et Geoffrey Hinton arriveront à démontrer que des algorithmes particuliers fondés sur une approche statistique des données, vieux de quelques décennies, sont en mesure de fonctionner remarquablement mieux que d’autres, alors à la mode. L’apprentissage automatique (machine learning) et particulièrement l’apprentissage profond (deep learning) se révèlera extrêmement efficace pour reconnaitre des images ou des sons. Grisés par ces succès, la recherche et l’industrie numérique donneront une moindre priorité à la plupart de leurs autres travaux pour généraliser l’usage de ces algorithmes dans tous des domaines d’activités. Même en l’absence de preuves solides démontrant que les modèles établis restituent bien ce qu’ils sont censés établir, « l’IA » est commercialisée non seulement dans l’industrie ou les services, mais aussi dans des domaines comme la justice, ou la santé. Les perspectives de croissance vertigineuse[20] de ce qui n’est qu’une application, pas tout à fait nouvelle, de l’informatique[21] contamineront l’entière communauté, publique et privée. Les ambassadeurs ne manqueront pas pour convaincre les sceptiques des bénéfices majeurs d’instruments censés pouvoir décider de manière plus fiable que les humains, non pas à partir d’une connaissance empirique, mais d’une représentation statistique de n’importe quel environnement[22].

Les mêmes causes produisant les mêmes effets, il est fourni aux détracteurs de « l’IA » les mêmes réponses qu’aux détracteurs d’autres innovations technologiques. À ceux qui dénoncent notamment la déshumanisation des activités transformées par cette technologie, l’aggravation des discriminations, la contribution à l’avènement d’une société de surveillance et l’amenuisement de l’autonomie d’action, il est répondu que résister à la généralisation de cette technologie, ce serait se mettre en retard par rapport à d’autres nations se souciant moins de régulation, ce serait aussi rater une occasion de développement économique majeur et ce serait – avant tout – résister au progrès. Les efforts d’encadrement se sont donc d’abord exprimés sous la forme de diverses formes de régulations très peu contraignantes, comme des lignes directrices, des principes éthiques ou des déclarations. L’emballement de la production de tels documents, à son acmé en 2018, a été également accompagné par une mobilisation progressive des organisations internationales à l’écoute des craintes du public, comme les Nations Unies, dont l’UNESCO, l’OCDE, l’Union européenne ou encore le Conseil de l’Europe. L’attention portée à la transformation numérique de la société s’est cependant focalisée sur les promesses et les opportunités de cette « IA », quitte à en adopter une définition relativement floue, et les débats se sont assez rapidement stabilisés sur la question des usages – qui seraient seuls à encadrer par des dispositions plus ou moins contraignantes. Sur la foi de succès dans des secteurs très spécialisés, il a été considéré sans grande rigueur scientifique qu’un emploi assez généralisé était possible. Encore une fois, les quelques résistants ont été relégués dans les rangs des néo-luddites du XXIe siècle.


Quatrième et dernière partie : Revitaliser le contenu d’une réglementation sur « l’intelligence artificielle »


[1] R. Cellan-Jones, Stephen Hawking warns artificial intelligence could end mankind, BBC news, 2 décembre 2014 et E. Musk, entretien dans le documentaire Do you trust that computer, 5 avril 2018

[2] Voir, parmi d’autres, les développements réalisés par Bernard Stiegler, Dominique Cardon, Antoinette Rouvroy, Evgeny Morozov ou Eric Sadin.

[3] Déjà, en 1964 à Berkeley, des manifestants ont arboré des cartes perforées autour du cou et ont dénoncé l’aliénation potentielle d’une transformation des humains en données.

[4] G. Tremblay, De Marshall McLuhan à Harold Innis ou du village global à l’empire mondial, tic&société, Vol. 1, n°1, 2007

[5] J. Ellul, Changer de révolution – L’inéluctable prolétariat, Coll. Empreintes, Seuil, 1982

[6] Voir le discours du ministre des affaires étrangères de la RFA, Hans Dietrich Genscher, devant l’Assemblée Parlementaire du Conseil de l’Europe – 37ème session, 1985, cité par F. Jarrige, Techno-critiques, Du refus des machines à la contestation des technosciences, op.cit., p. 293

[7] L’industrie informatique s’était déjà appropriée cette image en… 1984, avec la publicité d’Apple, diffusée le 22 janvier 1984. Réalisée par Ridley Scott, cette publicité reprendra l’univers de George Orwell et promettra une année 1984 qui ne ressemblera pas au livre 1984 grâce à l’ordinateur Macintosh. Accessible sur : https://youtu.be/axSnW-ygU5g – Consulté le 17 août 2020

[8]> Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données

[9] Convention STE n°108, pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel

[10] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, abrogeant la directive 95/46/CE

[11] B. Patino, La civilisation du poisson rouge : Grasset, 2019

[12] T. Ong, Sean Parker on Facebook: ‘God only knows what it’s doing to our children’s brains’, The Verge, 9 novembre 2017

[13] E. George, En finir avec la « société de l’information » ?, tic&société, Vol. 2, n° 2, 2008

[14] E. George et F. Granjon (dir.), Critiques de la société de l’information, Paris, L’Harmattan, 2008, p.10

[15] CJUE, gde ch., 13 mai 2014, aff. C-131/12, Google Spain SL et Google Inc. / Agencia Espanola de Proteccion de Datos et Gonzales

[16] L. Lessig, Code is Law, Harvard magazine, 2000

[17] A. Rouvroy et T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation, Réseaux 2013/1, n°177, 2013, pp163-196

[18] A. Basdevant, J-P. Mignard, L’empire des données, Essai sur la société, les algorithmes et la loi, Don Quichotte, 2018.

[19] Terme employé par Yann LeCun lui-même, rapporté par J. Markoff, Machines of Loving Grace – The Quest for Common Ground between Humans and Robots : Harper Collins Publishers, 2015, p.150

[20] Pour des projections financières relatives au développement de l’IA, voir la fiche d’information de la Commission européenne, marché unique numérique : http://ec.europa.eu/newsroom/dae/document.cfm?doc_id=51610 – Consulté le 17 aout 2020

[21] Il conviendrait en effet de distinguer le projet initial de l’informatique, calculatoire, de l’emploi de l’informatique aux fins de la reproduction de mécanismes de raisonnement et d’apprentissage, apte à qualifier le projet de « l’intelligence artificielle ». Certains courants ont toutefois assimilé pensée et calcul, au travers de la logique, notamment le courant « symboliste », pensant que la modélisation de la pensée ne pouvait être réalisée que par l’écriture d’un code informatique signifiant, enchaînant les règles logiques.

[22] Pour découvrir un argumentaire courageux, transformant contre toutes les évidences les faiblesses de l’apprentissage automatique en force, afin de convaincre des prospects de sa puissance à « prédire » les événements lire par exemple : AI in manufacturing : Do umbrellas cause car accidents?, accessible sur : https://cosmotech.com/resources/do-umbrellas-cause-car-accidents/ – Consulté le 17 août 2020