Comprendre l’IA est devenu un acte civique essentiel de notre condition moderne

Publié le 2 mai 2021 sur Les Temps Électriques et le 10 mai 2021 sur le site de l’Institut Sapiens

Depuis le début des années 2010, le déploiement des algorithmes d’apprentissage automatique, dont l’apprentissage profond, a réenchanté l’emploi de l’informatique dans notre société. Ce qui est convenu d’appeler de manière commode et vague « intelligence artificielle » (« IA[1]»), automatise, avec plus ou moins de contrôle humain, un nombre croissant de tâches ou de segments de tâches pouvant relever d’un très haut niveau d’expertise. En s’accordant à l’air du temps, ce qui ne semble pas possible aujourd’hui le sera nécessairement demain et la liste des applications s’allonge, notamment dans des secteurs aussi stratégiques que l’industrie, la sécurité publique ou les armées. Dans le même temps, cette « IA » a été saisie comme une nouvelle opportunité par le marché, au point de devenir l’un des principaux instruments de croissance économique des années à venir. Son développement s’impose donc dans les politiques publiques du monde entier comme une évidence.

Continuer la lecture de « Comprendre l’IA est devenu un acte civique essentiel de notre condition moderne »

Proposition de règlement de l’IA de la Commission européenne : entre le trop et le trop peu ?

European EU flags in front of the Berlaymont building, headquarters of the European commission in Brussels – Source : Envato Elements, f9photos

Tentative de traduction en anglais disponible sur LinkedIn

En résumé

La proposition de règlement de la Commission européenne présentée le 21 avril 2021 vise à encadrer de manière horizontale et transversale toutes les différentes applications de l’intelligence artificielle (IA). Cette proposition s’intègre dans une plus vaste stratégie de la Commission sur le numérique dont un nouveau plan coordonné sur l’IA pour 2021.

Source : Les Temps Électriques, d’après European Commission, https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence

La proposition distingue 4 types d’applications, avec des contraintes à l’intensité décroissante : 1) les applications prohibées du fait de leur nature (influence sur les comportements avec des conséquences physiques ou psychologiques, crédit social et reconnaissance faciale dans l’espace public – avec de très larges exceptions pour un usage d’enquête judiciaire), 2) les applications à haut risque devant répondre à des exigences clés et à un mécanisme d’évaluation de la conformité préalable à la mise sur le marché, 3) les applications à risque limité, auxquels sera imposé une obligation spécifique de transparence (comme les chatbots ou les deepfakes), et 4) celles enfin présentant un risque minimum. Des sanctions financières allant jusqu’à 6% du chiffre d’affaires annuel pourront être prononcées en cas de manquement d’un opérateur privé.

Dans le même temps le texte vient soutenir l’innovation en autorisant des textes d’encadrement juridique temporaires pour l’expérimentation (« bacs à sable » réglementaires), ce qui intéressera particulièrement les micros, petites et moyennes entreprises. L’adoption de codes de conduite sectoriels est également encouragée.

Un comité européen sur l’intelligence artificielle, composé de représentants des 27 États membres et du contrôleur européen de la protection des données, sera aussi constitué.

Continuer la lecture de « Proposition de règlement de l’IA de la Commission européenne : entre le trop et le trop peu ? »

Guide éthique de l’IA à l’attention des disrupteurs

Crédits : Envato Elements, leungchopan

Alors qu’un encadrement juridique contraignant semble s’esquisser pour le déploiement de certains systèmes d’IA en Europe, la dernière décennie a été marquée par une intense production éthique venant, directement ou indirectement, de l’industrie numérique [1]. Les motivations d’une telle production ont déjà été relativement bien documentées [2] et relèvent d’un mélange de communication externe, de lobbying (pour différer une réglementation contraignante) et de management interne de la base des ingénieurs et techniciens, pour certains très attentifs aux usages de leurs développements. 

Continuer la lecture de « Guide éthique de l’IA à l’attention des disrupteurs »

2021 : Quelles perspectives pour l’intelligence artificielle ?

Publié le 31 décembre 2020, mis à jour le 5 janvier 2021

Sur un plan technologique, l’histoire retiendra vraisemblablement de la décennie qui vient de s’écouler le réenchantement du terme intelligence artificielle (IA) avec les exploits de l’apprentissage automatique et des réseaux de neurones. Même si ces algorithmes ne sont pas tout à fait nouveaux, la magie ne cesse d’opérer au rythme des promesses, toujours plus nombreuses, des chercheurs et des concepteurs. De la reconnaissance d’image à la conduite autonome, de la recherche de fraudes à la lutte contre la Covid-19, l’IA ne cesse d’être convoquée pour résoudre des problèmes toujours plus complexes. À entendre les discours ambiants, ce qui n’est pas possible aujourd’hui le sera nécessairement demain, en agrégeant toujours plus de données. Dans le même temps, les conséquences d’une généralisation hâtive de l’IA commencent à être bien documentées : renforcement des inégalités déjà existantes par l’emploi hâtif d’algorithmes dans les services publics, caisse de résonance à différents types de désordre informationnel, aggravation des atteintes à la vie privée ne sont que quelques exemples très concrets qui esquissent les possibles errements du nouveau monde transformé en données.

Continuer la lecture de « 2021 : Quelles perspectives pour l’intelligence artificielle ? »

COVID-19 & Traçage numérique : comment concilier santé et libertés individuelles ?

Cap Digital, l’UNESCO et la Chaire ITEN de l’Unesco ont réalisé le 27 novembre 2020 une conférence dans leur cycle « NumériqueS en temps de criseS » dédiée aux apps et outils de traçage des populations pour lutter contre la propagation de la pandémie de COVID-19.

Retrouvez le texte de l’intervention, qui traite notamment de la mise à l’épreuve de nos systèmes de gouvernance et des travaux du Conseil de l’Europe en la matière.

Continuer la lecture de « COVID-19 & Traçage numérique : comment concilier santé et libertés individuelles ? »

Entretien pour l’ELSA Day sur « Intelligences artificielles et démocratie »

L’association européenne des étudiants en droit (ELSA – European Law Students Association) de Bruxelles a contribué au ELSA Day 2020, forum de discussion sur la mise en œuvre et la protection des droits humains au niveau national et international, sur le thème de l’intelligence artificielle et leur impact sur les droits humains. .

Continuer la lecture de « Entretien pour l’ELSA Day sur « Intelligences artificielles et démocratie » »

Intelligence artificielle et justice : le grand malentendu

Dans le prolongement de l’article paru aux Cahiers de la Justice en 2019, retrouvez une tribune parue sur le site internet de l’Institut Sapiens sur l’emploi d’algorithmes d’apprentissage automatique pour traiter de la jurisprudence.

La tribune revient sur les prétentions des concepteurs de ces systèmes, l’absence de documentation scientifique neutre, démontrant la plus-value de ces outils, et l’incompréhension de qu’est réellement une décision de justice pour prétendre opérer de tels traitements.

DataJust face aux défis de l’intelligence artificielle

Le décret n° 2020-356 du 27 mars 2020[1] a créé un nouveau traitement automatisé de données à caractère personnel dénommé « DataJust ». Placé sous l’autorité du ministère de la Justice, ce dispositif vise à améliorer la prévisibilité des décisions rendues en matière de réparation du préjudice corporel. Ce texte s’inscrit dans le cadre de la réforme annoncée de la responsabilité civile et d’un programme plus général de réforme pour rendre la justice plus prévisible. Il va constituer l’une des toutes premières applications « d’intelligence artificielle » développées par le ministère de la Justice. Les analyses n’ont toutefois pas manqué pour dénoncer divers maux habituels, comme la robotisation de la justice, mais très peu ont relevé une difficulté tout à fait substantielle : ces algorithmes sont-ils en mesure de produire les résultats attendus ?

Retrouvez cette étude complète dans La Semaine Juridique édition générale du 28 septembre 2020, numéro 40.


[1] Sur le décret n° 2020-356 du 27 mars 2020, V. not. A. Bensamoun et T. Douville, Datajust, une contribution à la transformation numérique de la justice : JCP G 2020, 582, Aperçu rapide.

La critique de la technique : clé du développement de l’intelligence artificielle ?

Présentation de l’étude

L’intelligence artificielle (IA) continue de susciter de grands espoirs pour les années à venir, en moteur espéré de la prospérité humaine et du bien-être. À ces généreuses promesses émanant directement ou indirectement de l’industrie numérique répondent des inquiétudes de plus en plus substantielles dans l’opinion publique, notamment face à des applications suscitant la polémique ou éternellement sur le point d’être pleinement fonctionnels. Après des années de discours éthiques, les régulateurs internationaux et nationaux commencent à se mettre en ordre de marche, mais ils risquent de passer à côté de la cible en proposant des textes parfois trop peu, ou parfois trop, ambitieux. Et si la juste mesure était susceptible d’émerger des discours critiques de la technique, dont la pertinence est bien trop souvent sous-estimée par l’entière communauté ?

Continuer la lecture de « La critique de la technique : clé du développement de l’intelligence artificielle ? »