Covid-19 et intelligence artificielle : des usages rarement matures ne pouvant compenser la fragilité des systèmes de santé

Bibliographie de l’ouvrage « L’intelligence artificielle en procès »

Les multiples usages des technologies numériques en période de crise, dont l’informatique et cette fameuse « IA », illustrent leurs très larges potentialités. Mais très peu « d’IA » s’avèrent en réalité totalement matures, avec un impact opérationnel[1]. De plus, elles n’ont pu compenser ce qui a fait fondamentalement défaut : une mobilisation et une coordination mondiale soutenues pour affronter une crise globale dès le début de la pandémie. 

Lors des précédentes crises mondiales, comme la crise financière de 2008 et l’épidémie du virus Ebola de 2014, les États-Unis ont assumé une telle dynamique, mais l’administration américaine actuelle semble avoir renoncé à de telles ambitions, en abandonnant au passage ses alliés ou en tentant de s’assurer l’exclusivité des travaux d’une société pharmaceutique allemande. Ce sont la Chine, la Fédération de Russie et Cuba qui ont montré qu’ils supportaient matériellement l’Italie au pic de la crise. Si ces démonstrations relèvent de l’opération de communication et de lutte géopolitique, il y a toutefois là un changement de paradigme géopolitique majeur en cours, d’autant plus que la crise financière qui suivra cette crise sanitaire va encore fragiliser les solidarités entre les peuples[2]. Le Conseil de l’Europe pourrait être l’un des moteurs pour réaffirmer la nécessaire solidarité à développer entre les peuples européens pour mieux faire face à des défis globaux. Rappelons d’ailleurs que l’article 11 de la Charte sociale européenne (ratifiée par 34 des 47 États membres du Conseil de l’Europe) édicte déjà un droit à la protection de la santé qui engage les signataires « à prendre, soit directement, soit en coopération avec les organisations publiques et privées, des mesures appropriées tendant notamment : 1°) à éliminer, dans la mesure du possible, les causes d’une santé déficiente ; 2°)  à prévoir des services de consultation et d’éducation pour ce qui concerne l’amélioration de la santé et le développement du sens de la responsabilité individuelle en matière de santé ; 3°) à prévenir, dans la mesure du possible, les maladies épidémiques, endémiques et autres, ainsi que les accidents. »

Cette pandémie a aussi révélé la très grande fragilité des systèmes de santé, après des décennies de coupes budgétaires et de croyances que diverses applications technologiques, telles que « l’IA », allaient permettre de faire mieux avec moins. « C’est la foi d’un monde gérable comme une entreprise qui se cogne aujourd’hui brutalement à la réalité de risques incalculables » affirme Alain Supiot dans un entretien avec le magazine Alternatives Économiques[3]. « L’IA » a tenu une place de choix comme nouvel oracle en capacité de réduire toute forme de risque en nombre et ses usages ont contribué à substituer au cœur des missions des calculs d’utilité. Les systèmes de soins ont ainsi été saisis par une déconstruction de systèmes de solidarité garantis par l’État au profit d’une privatisation, d’une plus grande flexibilité et de la recherche d’efficience. Le management par le coût en est arrivé à primer sur la mission d’intérêt général et l’universalité des soins. Les projections, souvent surévaluées par l’industrie numérique, d’une « IA » capable de décharger les médecins de certaines tâches complexes pour les recentrer sur le cœur de leur mission ont d’abord servi la recherche de rentabilité et ont contribué à affaiblir la résilience des systèmes de santé.

Enfin, et c’est peut-être le plus inquiétant, les multiples usages de ces technologies numériques pour contrôler les populations dans cette période de crise ont également permis de faire gagner du terrain à un idéal sécuritaire. L’efficacité des mesures, présentées comme provisoires, risque de se banaliser et de constituer un nouveau quotidien afin de prévenir de nouvelles calamités[4]. Pensons par exemple à la proposition de « dépistage pair-à-pair » émise par Joshua Bengio et Vargha Moayed consistant à une évaluation de la probabilité d’infection d’un individu par une application mobile. Le recours à cet outil reposerait notamment sur « une pression sociale pour télécharger l’application afin de pouvoir se déplacer librement à l’extérieur dans des endroits où se trouvent d’autres personnes ». Les auteurs ajoutent que « les gouvernements pourraient rendre obligatoire l’utilisation de l’application pour accéder à certains lieux accueillant un grand nombre de personnes, tels que les épiceries, les écoles et les universités[5] ». Outre la question de la fiabilité d’une telle évaluation et des discriminations inévitablement produites, se pose la question plus fondamentale du « solutionnisme » de la proposition. Il peut sembler surprenant de proposer une solution technologique, à laquelle tout le monde n’aura d’ailleurs pas accès, pour régler ce qui est avant tout un problème de moyens alloués à la recherche médicale et aux établissements de soins. Ne vaudrait-il mieux pas en effet diriger l’argent que coûterait une telle solution pour permettre aux systèmes de santé de répondre à leur mission première : permettre à chacun d’accéder à des soins de qualité et, dans le cas d’épidémies, à des tests s’ils existent.

Les différentes applications de « l’IA » ont pu susciter des espoirs pour lutter contre le coronavirus, mais leur portée et leur intérêt diffèrent très fortement en fonction des cas d’utilisation. Particulièrement en période de crise, les différents usages devraient être objectivés sur la base de méthodologies robustes et éprouvées. Les informations mises à disposition des chercheurs, des soignants et du public devraient être fiables et transparentes. Dans un tel contexte, les standards en matière de protection des données, comme la Convention 108+ du Conseil de l’Europe, devraient pouvoir continuer à s’appliquer pleinement en toutes circonstances : qu’il s’agisse de l’utilisation de données biométriques, de la géolocalisation, de la reconnaissance faciale et de l’exploitation de données de santé, le déploiement d’applications en urgence doit pouvoir s’effectuer en concertation avec les autorités de protection des données et dans le respect de la dignité et de la vie privée des utilisateurs ainsi que de principes tels que la loyauté et la licéité. Les inévitables biais dans les divers types d’opérations de surveillance basés sur des données, susceptibles de créer d’importantes discriminations, sont ainsi à considérer[6]. En réalité, c’est l’entier logiciel du projet de société qui est susceptible d’être reformaté après cette crise sanitaire et nous devons prendre garde à ce que ces technologies soient des alliés de politiques globales de coopération et de partage des savoirs plutôt que des instruments surévalués au service de projets mercantiles. Et surtout, replacer enfin la mission de services publics, comme celui de la santé, au cœur de politiques centrées sur le progrès humain et non sur la seule performance économique.


Pour aller plus loin

Ces développements sont approfondis dans l’ouvrage « L’intelligence artificielle en procès« 


Notes

[1] J. Bullock, A. Luccioni, K. H. Pham, C. Sin Nga Lam, M. Luengo-Oroz, Mapping the landscape of artificial intelligence applications against COVID-19, UN Global Pulse, 25 mars 2020

[2] R. Herreros, Coronavirus : L’Union européenne sera-t-elle la prochaine victime ?, Huffington Post, 26 mars 2020

[3] Alain Supiot : ‘Seul le choc avec le réel peut réveiller d’un sommeil dogmatique’, Alternatives économiques, 21 mars 2020

[4] Y.N.Harari, Yuval Noah Harari: the world after coronavirus, The Financial Times, 20 mars 2020

[5] V. Moayed, Y. Bengio, Dépistage pair à pair de la COVID-19 basé sur l’IA, Blog de Yoshua Bengio, 25 mars 2020

[6] A.F. Cahn, John Veiszlemlein, COVID-19 tracking data and surveillance risks are more dangerous than their rewards, NBC News, 19 mars 2020