Guide pratique à l’attention de rédacteurs paresseux souhaitant meubler leurs colonnes avec les exploits de l’intelligence artificielle
Durant la dernière décennie, l’intelligence artificielle (IA) s’est taillé une place de choix parmi les sujets « serpents de mer » du journalisme. Présentée comme pouvant résoudre des catégories sans cesse plus vastes de tâches complexes et de problèmes dans notre société, cette technologie est invariablement présentée dans les articles destinés au grand public comme étant sur le point d’apporter ses bénéfices à l’humanité pour « sauver des vies », « rendre plus efficaces et fiables » nos décisions et ringardiser l’expertise humaine, tout en agitant le spectre de la déshumanisation et de la robotisation. Pas de quoi faire avancer substantiellement les débats donc.
Invariablement, la trame est la même (à se demander s’il n’existe pas des modèles téléchargeables quelque part) : à partir de l’exemple d’un livre ou d’un film de science-fiction (prenons au hasard Minority Report), l’auteur s’extasie sur la performance d’une « IA » dans un domaine à fort enjeu et réputé complexe (prenons, toujours au hasard, la police ou la justice) pour nous dire « Réveillez-vous ! Le futur c’est maintenant !».
L’important c’est de raconter une histoire
Fort du constat d’un taux de précision élevé (il semble être acquis que cela fonctionne à partir de 70%, mais 70% de quoi ?) et d’une description vulgarisée de cette machine, le rédacteur nous conduit ensuite progressivement au climax de son article, en projetant la performance (naturellement évidente et incontestable) de l’application généralisée de « l’IA » à ce cas d’espèce, à l’appui de commentaires érudits et affirmatifs des concepteurs, en parallèle d’un état des lieux désastreux de comportements humains (comme… les juges ont toujours du mal à digérer leur blanquette de veau du midi). L’indignation des professionnels fait également partie de la figure imposée, mais rapidement tempérée par quelques arguments convenus comme une nécessaire éthique des concepteurs pour trouver un équilibre dans la complémentarité homme / machine ou la question de la responsabilité en cas d’erreur. Allez, en un rien de temps, « emballé c’est pesé », votre article est prêt, sans vous embarrasser d’inutiles questions comme le croisement des sources, la capacité réelle des systèmes et la nécessaire distance avec des discours commerciaux. L’important c’est de raconter une histoire.
En matière d’histoire, il y en a une qui fonctionne toujours bien : la peur de l’autre. Prenons l’exemple d’un article du South China Morning Post qui relatait à la sortie de Noël 2021 le développement d’une « IA » en capacité d’effectuer la rédaction de poursuites à la place des procureurs avec une précision alléguée de 97%[1]. Ce contenu est repris par d’autres sites, notamment en France[2], pour nous dire qu’un « robot procureur » poursuit aujourd’hui des criminels en Chine. Dans un mélange de fascination (encore un exploit de l’IA) et de répulsion (pas étonnant que cela vienne de Chine), et sans commenter les solides confusions entre fonctions de poursuite et de jugement, les journalistes nous racontent que l’avancée technologique de ce pays en matière « d’IA » peut conduire à des applications extrêmement efficaces mais effrayantes, pouvant contaminer nos propres systèmes démocratiques. Mais, comme souvent, la réalité est un brin plus complexe et aucun de ces journalistes ne s’interroge sur le fait que ce qui est décrit dans l’article n’est qu’un test extrêmement localisé (un cabinet de procureur chinois), dont les résultats mériteraient d’être confrontés à plusieurs questions avant toute autre forme de dissertation. S’il s’agit notamment de rédiger des « qualifications développées[3] », la plupart des parquets de France emploient déjà des modèles et des ouvrages de référence[4] et « l’IA » n’apporte pas une grande valeur ajoutée par rapport à d’autres formes d’automatisation. On nous avait déjà fait le coup en 2018 avec une « IA » en Espagne capable d’identifier les plaintes mensongères[5] (l’outil était loin d’être généralisé et ne concernait qu’un seul commissariat), sans parler de PredPol, encensé au début des années 2010 aux États-Unis et aujourd’hui sur la voie de l’abandon.
Ce qui paraît tout à fait contestable, c’est de tirer des conclusions hâtives de la généralisation de réalisations qui ne sont pas matures
Tout cela prêterait franchement à sourire, comme y parvient le film « Don’t look up », si le danger de la banalisation de cette narration ne nous conduisait pas à nous acculturer à la prétendue capacité des mathématiques et des statistiques à modéliser notre monde pour délivrer, en toute circonstances, des décisions prétendument plus objectives que nous. Il ne s’agit pas bien entendu de nier la valeur ajoutée que peuvent avoir aujourd’hui les traitements algorithmiques dans diverses situations, et des progrès incontestables dans des domaines comme la reconnaissance d’image, notamment avec l’apprentissage profond. Ce qui paraît en revanche tout à fait contestable, c’est de tirer des conclusions hâtives de la généralisation de réalisations qui ne sont pas matures et non confrontées au regard critique des pairs, et cela sur l’autel de la vulgarisation. Et surtout, en creux, entretenir les masses dans l’idée que nous vivons dans un monde déterminé s’organisant, invariablement, en courbe de Gauss.
Une étude de l’Institut Reuters pour l’étude du journalisme de l’Université d’Oxford démontrait déjà en 2018 à quel point les défauts du traitement journalistique de « l’IA » profitait à l’industrie numérique[6]. L’étude ne désignait pas comme principaux responsables des conflits d’intérêts ou une particulière paresse des journalistes, mais plutôt la recherche de productivité des organes de presse. Reprendre un contenu directement ou indirectement formaté par l’industrie numérique, qui a intérêt à rendre crédible ses réalisations pour résoudre les problèmes de notre quotidien, est en effet bien plus commode que de mener une enquête documentée, sourcée, mettant en évidence les contradictions et s’attaquant à des idées reçues. C’est pourtant bien ce dont aurait besoin aujourd’hui le débat public en la matière, qui considère que ce qui n’est possible aujourd’hui le sera nécessairement demain et que le calcul parviendra bien à mettre notre société en équation. Ce n’est malheureusement pas la cas et ce n’est pas là qu’une opinion[7].
[1] S. Chen, Chinese scientists develop AI ‘prosecutor’ that can press its own charges, South China Morning Post, 26 décembre 2021 – https://www.scmp.com/news/china/science/article/3160997/chinese-scientists-develop-ai-prosecutor-can-press-its-own
[2] G. Bazinet, Des chercheurs développent une IA qui peut « poursuivre » les criminels, News 24, 26 décembre 2021 ; La Chine crée un robot « procureur » pour inculper le public de crimes, y compris de dissidence politique, Marseille News, 28 décembre 2021 ; L. Neveu, En Chine, une IA peut décider de vous mettre en prison, 28 décembre 2021 ; L. Bastien, La Chine remplace les juges par une intelligence artificielle, LeBigData.fr, 29 décembre 2021
[3] Opération intellectuelle par laquelle un juge ou un procureur qualifie des faits au regard d’une incrimination légale, en reprenant les différents éléments constitutifs
[4] Jean-Christophe Crocq, Guide des infractions, Dalloz, 2022
[5] Espagne: La police utilise une intelligence artificielle pour débusquer les plaintes mensongères, 20 Minutes, 30 octobre 2018
[6] J.S. Brennen, P.N. Howard, R.K. Nielsen, An Industry-Led Debate: How UK Media Cover Artificial Intelligence, Reuters Institute for the study of Journalism, University of Oxford, décembre 2018
[7] P. Jensen, Pourquoi la société ne se laisse pas mettre en équations, Seuil, 2018