Guide éthique de l’IA à l’attention des disrupteurs

Crédits : Envato Elements, leungchopan

Alors qu’un encadrement juridique contraignant semble s’esquisser pour le déploiement de certains systèmes d’IA en Europe, la dernière décennie a été marquée par une intense production éthique venant, directement ou indirectement, de l’industrie numérique [1]. Les motivations d’une telle production ont déjà été relativement bien documentées [2] et relèvent d’un mélange de communication externe, de lobbying (pour différer une réglementation contraignante) et de management interne de la base des ingénieurs et techniciens, pour certains très attentifs aux usages de leurs développements. 

Plutôt que de longs développements sur le sujet, l’humour et le détournement parviennent à illustrer avec efficacité la vacuité de très nombreuses initiatives. Dans la série télévisée Silicon Valley, le personnage de Gavin Belson représente la figure de l’ingénieur-entrepreneur à la tête d’un géant technologique tentaculaire (fictif) Hooli. Égomaniaque, paranoïaque et totalement illuminé, concentré de Peter Thiel, Elon Musk et de bien d’autres, Belson entend se repentir de ses abus d’entrepreneurs dans la 6ème saison en devenant un évangéliste anti-technologie, fondant une religion baptisée « Tethics » [3].

C’est au tour de la – très sérieuse – MIT Technology Review de publier un court article, humoristique et décalé rédigé par Karen Hao, regroupant les termes les plus couramment employés dans le domaine de l’éthique de l’IA. L’objet de ce guide pratique à l’intention des disrupteurs de tout genre – dont les startups et autres xTech (MedTech, LegalTech, EdTech, RegTech,…) n’est pas de documenter, tel une méta-analyse, les grands principes éthiques mais bien d’en révéler le (non-)sens sous un prisme honnête et sincère, voire même cynique.

Pour les non-anglophones, je vous livre ci-dessous une tentative de traduction tout aussi honnête et sincère, à laquelle il serait bien tentant d’ajouter. L’ordre alphabétique anglais a été conservé afin de maintenir la logique du texte original.

[1] Pour une liste des cadres éthiques de l’IA, voir l’infographie publiée sur ce site : https://lestempselectriques.net/index.php/2020/05/06/ia-algorithmes-big-data-data-science-inventaire-des-cadres-ethiques-et-politiques/

[2] V. par exemple R. Ochigame, The invention of ‘Ethical AI’, The Intercept, 20 décembre 2019 – https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/

[3] Contraction de technologie et d’éthique – O. Henderson, Silicon Valley Recap : We Are Experiencing Tethical Difficulties, Vulture, 24 novembre 2019 – https://www.vulture.com/2019/11/silicon-valley-recap-season-6-episode-5-tethics.html


Guide de la Big Tech pour parler de l’éthique de l’IA

Une cinquantaine de mots que vous pouvez utiliser pour montrer que vous vous sentez concerné, sans vous mettre en cause

Traduction de l’article “Big Tech’s guide to talking about AI ethics” de Karen Hao, publié dans la MIT Technology Review (13 avril 2021)

Les chercheurs en IA affirment souvent qu’un bon apprentissage automatique relève davantage de l’art que de la science. On pourrait en dire autant des relations publiques efficaces. Choisir les bons mots pour donner un ton positif ou recadrer la conversation sur l’IA est une tâche délicate : bien faite, elle peut renforcer l’image de marque, mais mal faite, elle peut déclencher un retour de bâton encore plus important.

Les géants de la technologie le savent bien. Au cours des dernières années, ils ont dû apprendre cet art rapidement, car ils ont dû faire face à une méfiance croissante du public à l’égard de leurs activités et à une intensification des critiques concernant leurs recherches et leurs technologies en matière d’IA.

Ils ont maintenant développé un nouveau vocabulaire à utiliser lorsqu’ils veulent assurer au public qu’ils ont à cœur de développer l’IA de manière responsable, tout en veillant à ne pas susciter un examen trop approfondi. Voici un guide de l’initié pour décoder leur langage et remettre en perspective les hypothèses et les valeurs qui y sont intégrées.

Responsabilité (n.f. – Accountability) – Le fait de tenir quelqu’un d’autre responsable des conséquences d’une défaillance de votre système d’IA.

Précision (n.f. – Accuracy) – Exactitude technique. La mesure la plus importante du succès dans l’évaluation des performances d’un modèle d’IA. Voir Validation.

Contradictoire (adj. – Adversary) – Un ingénieur solitaire capable de perturber votre puissant système d’IA générateur de revenus. Voir RobustesseSécurité.

[NdT : voir par exemple les exemples contradictoires – adversarial examples en matière de reconnaissance d’image, où des pandas sont confondus avec des gibbons avec l’adjonction d’un « bruit » invisible à l’œil nu – I.J. Goodfellow, J. Shlens, Ch. Szegedy, Explaining and Harnessing Adversarial Examples, https://arxiv.org/abs/1412.6572]

Alignement (n.m – Alignment) – Le défi de concevoir des systèmes d’IA qui font ce que nous leur disons de faire et qui valorisent ce que nous valorisons. Volontairement abstrait. Évitez d’utiliser des exemples réels de conséquences involontaires néfastes. Voir Sécurité.

Intelligence artificielle générale (expr. – Artificial general intelligence) – Une IA divine  hypothétique qui est probablement loin dans le futur mais aussi peut-être imminente. Elle peut être très bonne ou très mauvaise, selon ce qui est le plus utile sur le plan rhétorique. Évidemment, vous construisez la bonne. Ce qui est cher. Par conséquent, vous avez besoin de plus d’argent. Voir Risques à long terme.

Audit (n.m. – Audit) – Examen pour lequel vous payez quelqu’un d’autre afin de faire paraître votre entreprise ou votre système d’IA plus transparent sans avoir à changer quoi que ce soit. Voir Évaluation d’impact.

Augmenter (v. – Augment) – Augmenter la productivité des cols blancs. Effet secondaire : l’automatisation des emplois de cols bleus. Triste mais inévitable.

Bénéfique (adj. – Beneficial) – Un terme descriptif général pour ce que vous essayez de construire. Opportunément vague. Voir Valeur.

Dès la conception (expr. – By design) – Comme dans « équité dès la conception – fairness by design » ou « Responsable dès la conception – accountability by design« . Une expression qui indique que vous réfléchissez sérieusement à des questions importantes dès le départ.

Conformité (n.f. – Compliance) – Le fait de respecter la loi. Tout ce qui n’est pas illégal est autorisé.

Étiqueteurs de données (expr. – Data labelers) – Les personnes qui existeraient derrière l’interface Mechanical Turk d’Amazon pour faire du nettoyage de données à bas prix. Je ne sais pas qui ils sont. Je ne les ai jamais rencontrés.

Démocratiser (v. – Democratize) – Diffuser à grande échelle une technologie à tout prix. Une justification pour concentrer des ressources. Voir Diffuser à grande échelle.

Diversité, équité et inclusion (expr. – Diversity, Equity, and Inclusion) – Le fait d’embaucher des ingénieurs et des chercheurs issus de groupes marginalisés afin de pouvoir les exhiber devant le public. S’ils remettent en cause le statu quo, virez-les.

Efficacité (n.f. – Efficiency) – L’utilisation de moins de données, de mémoire, de personnel ou d’énergie pour construire un système d’IA.

Comité d’éthique (expr. – Ethics board) – Un groupe de conseillers sans pouvoir réel, convoqué pour donner l’impression que votre entreprise est à l’écoute. Exemples : Le comité d’éthique de l’IA de Google (annulé), le comité de surveillance de Facebook (toujours en place).

Principes éthiques (expr. – Ethics principles) – Un ensemble de truismes utilisés pour signaler vos bonnes intentions. Restez à un niveau élevé. Plus le langage est vague, mieux c’est. Voir IA responsable.

Explicable (adj. – Explicable) – Pour décrire un système d’IA que vous, le développeur et l’utilisateur pouvez comprendre. Beaucoup plus difficile à atteindre en ce qui concerne les personnes qui sont l’objet du traitement. Ne vaut probablement pas la peine d’en faire l’effort. Voir Interprétable.

Équité (n.f. – Fairness) – Une notion compliquée d’impartialité utilisée pour décrire des algorithmes non biaisés. Peut être définie de dizaines de façons différentes, en fonction de vos préférences.

For good (expr. – For good) – Comme dans « AI for good » ou « data for good« . Une initiative complètement parallèle à votre activité principale qui vous aide à générer une bonne publicité.

Prévision (n.f. – Foresight) – La capacité de se projeter dans l’avenir. Fondamentalement impossible : il s’agit donc d’une explication parfaitement raisonnable pour expliquer pourquoi vous ne pouvez pas débarrasser votre système d’IA des conséquences inattendues.

Cadre (n.m. – Framework) – Un ensemble de lignes directrices pour prendre des décisions. Un bon moyen de paraître réfléchi et mesuré tout en retardant la prise de décision réelle.

Généralisable (adj. – Generalizable) – Le signe d’un bon modèle d’IA. Un modèle qui continue à fonctionner dans des conditions changeantes. Voir Monde réel.

Gouvernance (n.f. – Governance) – Bureaucratie.

Conception centrée sur l’humain (expr. – Human-centered design) – Processus qui consiste à utiliser des personnalités reconnues pour imaginer ce qu’un utilisateur moyen pourrait attendre de votre système d’IA. Peut impliquer de solliciter les commentaires d’utilisateurs réels. Seulement si vous avez le temps. Voir Parties prenantes.

Humain dans la boucle (expr. – Human in the loop) – Toute personne faisant partie d’un système d’IA. Cela couvre tant le fait de faire semblant de se comporter comme une IA que de prévenir des accusations de totale automatisation d’une tâche.

Évaluation d’impact (expr. – Impact assessment) – Un examen que vous faites vous-même de votre entreprise ou de votre système d’IA pour montrer votre volonté de prendre en compte ses inconvénients sans rien changer. Voir Audit.

Interprétable (adj. – Interpretable) – Description d’un système d’IA dont vous, le développeur, pouvez suivre le calcul étape par étape pour comprendre comment il est arrivé à sa réponse. En fait, il s’agit probablement d’une régression linéaire. L’IA sonne mieux.

Intégrité (n.f. – Integrity) – Questions qui compromettent les performances techniques de votre modèle ou la capacité de votre entreprise à évoluer. À ne pas confondre avec les questions qui sont mauvaises pour la société. À ne pas confondre avec l’honnêteté.

Interdisciplinaire (adj. – Interdisciplinary) – Terme utilisé pour toute équipe ou projet impliquant des personnes qui ne codent pas : chercheurs sur les expériences d’utilisation, chefs de produit, philosophes moraux. Surtout des philosophes moraux.

Risques à long terme (n.m. – Long-term risks) – Mauvaises choses qui pourraient avoir des effets catastrophiques dans un avenir lointain. Ils ne se produiront probablement jamais, mais il est plus important de les étudier et de les éviter que les inconvénients immédiats des systèmes d’IA existants.

Partenaires (n.m. – Partners) – Autres groupes d’élite qui partagent votre vision du monde et peuvent travailler avec vous pour maintenir le statu quo. Voir Parties prenantes.

Compromis sur la vie privée (expr. – Privacy trade-off) – Le noble sacrifice du contrôle individuel sur les informations personnelles pour des avantages collectifs tels que les progrès de l’IA dans le domaine de la santé, qui s’avèrent également très rentables.

Progrès (n.m. – Progress) – Avancement scientifique et technologique. Intrinsèquement bon.

Monde réel (expr. – Real World) – L’opposé du monde simulé. Un environnement physique dynamique rempli de surprises inattendues auxquelles les modèles d’IA sont formés pour survivre. À ne pas confondre avec les humains et la société.

Réglementation (n.f. – Regulation) – Ce que vous demandez pour transférer la responsabilité de l’atténuation des effets néfastes de l’IA aux décideurs politiques. À ne pas confondre avec les politiques qui entraveraient votre croissance.

IA responsable (n.f. – Responsible AI) – Un surnom pour tout travail de votre entreprise qui pourrait être interprété par le public comme un effort sincère pour atténuer les dommages de vos systèmes d’IA.

Robustesse (n.f. – Robustness) – Capacité d’un modèle d’IA à fonctionner de manière cohérente et précise malgré les tentatives malveillantes de l’alimenter avec des données corrompues.

Sécurité (n.f. – Safety) – Le défi de construire des systèmes d’IA qui ne s’écartent pas des intentions du concepteur. À ne pas confondre avec la construction de systèmes d’IA qui n’ont pas de raté. Voir Alignement.

Diffuser à grande échelle (expr. – Scale) – De facto, l’état final que tout bon système d’IA devrait s’efforcer d’atteindre.

Sécurité (n.f. – Security) – Action de protéger les données précieuses ou sensibles et les modèles d’intelligence artificielle contre les intrusions de mauvais acteurs. Voir Contradictoire.

Parties prenantes (n.f. – Stakeholders) – Actionnaires, régulateurs, utilisateurs. Les personnes au pouvoir que vous voulez satisfaire.

Transparence (n.f. – Transparency) – Révéler vos données et votre code. Mauvais pour les informations exclusives et sensibles. Donc vraiment difficile ; franchement, même impossible. À ne pas confondre avec une communication claire sur le fonctionnement réel de votre système.

Digne de confiance (adj. – Trustworthy) – Une évaluation d’un système d’IA qui peut être réalisée avec une coordination publicitaire suffisante.

Revenu de base universel (expr. – Universal basic income) – L’idée que le versement à chacun d’un salaire fixe résoudra les bouleversements économiques massifs causés lorsque l’automatisation entraîne une perte d’emploi généralisée. Popularisé par le candidat à la présidentielle de 2020, Andrew Yang. Voir Redistribution des richesses.

Validation (n.f. – Validation) – Processus consistant à tester un modèle d’IA sur des données autres que celles sur lesquelles il a été entraîné, afin de vérifier qu’il est toujours exact.

Valeur (n.f. – Value) – Un avantage impalpable fourni à vos utilisateurs qui vous rapporte beaucoup d’argent.

Valeurs (n.fr. – Values) – Vous en avez. Rappelez-le aux gens.

Redistribution des richesses (expr. – Wealth redistribution) – Une idée utile à brandir lorsque les gens vous reprochent d’utiliser beaucoup trop de ressources et de gagner beaucoup trop d’argent. Comment fonctionnerait la redistribution des richesses ? Le revenu de base universel, bien sûr. Ce n’est pas non plus quelque chose que vous pouvez imaginer vous-même. Il faudrait une réglementation. Voir Réglementation.

Retenir la publication (expr. – Withhold publication) – L’acte bienveillant de choisir de ne pas ouvrir son code parce qu’il pourrait tomber dans les mains d’un mauvais acteur. Il est préférable de limiter l’accès aux partenaires qui peuvent se le payer.