Retrouvez le texte de l’intervention, qui traite notamment de la mise à l’épreuve de nos systèmes de gouvernance et des travaux du Conseil de l’Europe en la matière.
Alors que l’application StopCovid était présentée au Parlement en France le 27 mai 2020, les discussions sur sa pertinence et ses modalités de fonctionnement se sont progressivement raidies . Le député Eric Bothorel affirme ainsi que « s’opposer par principe à cet outil est un crime contre le reste de l’humanité[1] ». A l’occasion d’une tribune publiée dans le journal « Le Monde », deux chercheurs de l’Inria estiment difficilement justifiables les « oppositions de principe » à StopCovid[2]. D’une manière moins directe, le député Damien Pichereau avait même avancé l’idée d’une « récompense » pour les utilisateurs de l’application, allégeant la restriction de déplacement kilométrique de 100 kilomètres encore en place en phase 1 du déconfinement, avant d’être très rapidement écartée par le secrétaire d’Etat au numérique, Cédric O[3]. Le secrétaire d’Etat conclue pour sa part de manière plus volontariste « [qu’]il y a eu beaucoup de questions légitimes, mais plus nous donnons d’explications, plus les réticences diminuent[4] », en dramatisant le débat devant le Parlement: « refuser StopCovid c’est accepter les morts supplémentaires ».
En accompagnement de la sortie de l’ouvrage « L’intelligence artificielle en procès« , retrouvez un entretien donné au réseau de recherche OPTIC Technology publié le 11 mai 2020 sur leur site internet.
Après le très fort engouement, pour ne pas dire l’emballement, autour des algorithmes d’apprentissage automatique (machine learning) au début des années 2010, il est assez vite apparu un besoin d’encadrer, voire de limiter certains des développements. Bien au-delà de la narration forgée par les communicants de l’industrie numérique d’une « intelligence artificielle » (IA) aux capacités de « disrupter » positivement notre siècle, l’emploi de ces algorithmes s’est révélé bien délicat, avec des effets de bords consubstantiels à leur cœur de fonctionnement statistique : confusions entre corrélation et causalité, biais liés à la qualité des données employées, discriminations sont quelques-uns des maux aujourd’hui bien identifiés
En préparation de la sortie de l’ouvrage « L’intelligence artificielle en procès« , retrouvez un entretien donné à AvenueCode publié le 29 avril 2020 dans le cadre de leur rubrique AC Spotlight.
Si l’on devait dégager certains des traits les plus saillants en ce qui concerne l’emploi des technologies en ces temps de crise sanitaire, l’approximation évidente avec laquelle certaines applications sont entrées dans le débat public aurait une place de choix. Ainsi, les applications de pistage[1] de proximité (proximity tracing) ont fait l’objet d’intenses débats sur les risques qu’elles font porter sur la vie privée et sur les garanties dont elles devaient être assorties alors même que des barrières technologiques très substantielles, identifiées par de nombreux experts, ont mis très tôt en cause la viabilité même de ces dispositifs.
En préparation de la sortie de l’ouvrage « L’intelligence artificielle en procès« , retrouvez un entretien donné au blog Coup Data publié le 22 avril 2020 dans le cadre de leur rubrique 3 questions à… (3 questions to…).
Alors que le recours à des applications numériques pour contribuer aux politiques publiques sanitaires est sur le point de devenir une réalité en Europe, quelles sont les cas d’usages précis de par le monde ? Parce qu’un graphique vaut mieux que des longs développements, consultez cette « dataviz » !
Dans l’arsenal de la lutte contre le Covid-19, l’idée de tirer bénéfice du fort maillage des téléphones mobiles est apparue. Des applications promettent de faciliter la recomposition des chaînes de transmission et de ralentir la pandémie. Ces applications ont suscité un assez fort débat sur la protection des données. Mais, avant même tout débat sur cette question, ces applications soulèvent surtout la simple question de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ? Sur quelles bases sont conçus les modèles statistiques censés minimiser les faux positifs ? Toute la population ne pourra pas (ou ne voudra pas) être tracée ? Autant de points qui conduisent à se demander si le coût de cette ambition dans de nombreux pays européens (coût du déploiement, coût des mesures d’accompagnement, brèches potentielles des droits) est proportionné aux résultats à en espérer.
Dans l’arsenal de la lutte contre le Covid-19, des applications sur téléphone mobile sont apparues avec la promesse de faciliter la recomposition des chaînes de transmission et d’accompagner le déconfinement. Autant qu’un débat sur la protection des données, ces applications soulèvent surtout la question bien plus basique de leur efficacité : la proximité de deux téléphones portables pendant une certaine durée permet-elle de présumer une contamination ?
Toutes les crises majeures de notre civilisation ont conduit nos sociétés à s’adapter, particulièrement pendant les révolutions, les guerres et les crises sanitaires. La statistique, ainsi, se déploiera en véritable outil de politique publique pour lutter contre le choléra ou encore la variole. D’Alembert et Diderot s’opposeront sur le bénéfice d’une vaccination de masse de la population, le premier estimant que le choix devait être laissé aux individus et qu’ils pouvaient ainsi refuser de se voir inoculer une forme atténuée de la maladie pour développer une immunité. Daniel Bernoulli, en affirmant par une approche statistique que le risque mortel de la vaccination était d’un cas sur 200, allait trancher le débat, faire prévaloir le collectif sur l’individuel et emporter la décision publique.