{"id":2388,"date":"2025-03-10T12:15:16","date_gmt":"2025-03-10T11:15:16","guid":{"rendered":"https:\/\/lestempselectriques.net\/?p=2388"},"modified":"2025-03-10T12:20:14","modified_gmt":"2025-03-10T11:20:14","slug":"revue-des-principaux-instruments-juridiques-et-documents-internationaux-regionaux-et-nationaux-applicables-a-lintelligence-artificielle","status":"publish","type":"post","link":"https:\/\/lestempselectriques.net\/index.php\/2025\/03\/10\/revue-des-principaux-instruments-juridiques-et-documents-internationaux-regionaux-et-nationaux-applicables-a-lintelligence-artificielle\/","title":{"rendered":"Revue des principaux instruments juridiques et documents internationaux, r\u00e9gionaux et nationaux applicables \u00e0 l&rsquo;intelligence artificielle"},"content":{"rendered":"\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/lestempselectriques.net\/wp-content\/uploads\/2025\/03\/22bea0411f0da9e9ca17a114cfca2569b36e939871e34c3e1f2314d022a9ef85.jpg\" alt=\"\" class=\"wp-image-2389\" srcset=\"https:\/\/lestempselectriques.net\/wp-content\/uploads\/2025\/03\/22bea0411f0da9e9ca17a114cfca2569b36e939871e34c3e1f2314d022a9ef85.jpg 1024w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2025\/03\/22bea0411f0da9e9ca17a114cfca2569b36e939871e34c3e1f2314d022a9ef85-300x300.jpg 300w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2025\/03\/22bea0411f0da9e9ca17a114cfca2569b36e939871e34c3e1f2314d022a9ef85-150x150.jpg 150w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2025\/03\/22bea0411f0da9e9ca17a114cfca2569b36e939871e34c3e1f2314d022a9ef85-768x768.jpg 768w, https:\/\/lestempselectriques.net\/wp-content\/uploads\/2025\/03\/22bea0411f0da9e9ca17a114cfca2569b36e939871e34c3e1f2314d022a9ef85-100x100.jpg 100w\" sizes=\"auto, (max-width: 767px) 89vw, (max-width: 1000px) 54vw, (max-width: 1071px) 543px, 580px\" \/><figcaption class=\"wp-element-caption\">Source : Cr\u00e9\u00e9 avec Dall-E<\/figcaption><\/figure>\n\n\n\n<p>La revue des instruments et documents r\u00e9alis\u00e9e ci-apr\u00e8s ne concerne que les principaux textes internationaux, r\u00e9gionaux et nationaux directement attach\u00e9s \u00e0 l\u2019IA. Les autres textes, applicables \u00e0 l\u2019IA mais non directement concern\u00e9s (comme le RGPD) ou applicables \u00e0 l\u2019IA mais avec une port\u00e9e moindre, ont \u00e9t\u00e9 exclus de cette revue.<\/p>\n\n\n\n<!--more-->\n\n\n\n<p><strong>Par instances<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Instances<\/strong><\/td><td><strong>Document<\/strong><\/td><td><strong>Ann\u00e9e<\/strong><\/td><\/tr><tr><td><strong>CNCDH<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.cncdh.fr\/publications\/avis-relatif-limpact-de-lintelligence-artificielle-sur-les-droits-fondamentaux-2022-6\">Avis relatif \u00e0 l\u2019impact de l\u2019intelligence artificielle sur les droits fondamentaux<\/a><\/td><td>2022<\/td><\/tr><tr><td><strong>CNIL<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.cnil.fr\/fr\/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de\">Comment permettre \u00e0 l\u2019Homme de garder la main ? Rapport sur les enjeux \u00e9thiques des algorithmes et de l\u2019intelligence artificielle<\/a><\/td><td>2017<\/td><\/tr><tr><td><strong>Conseil de l\u2019Europe<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/rm.coe.int\/charte-ethique-fr-pour-publication-4-decembre-2018\/16808f699b\">Charte \u00e9thique europ\u00e9enne d\u2019utilisation de l\u2019intelligence artificielle dans les syst\u00e8mes judiciaires et leur environnement<\/a><\/td><td>2018<\/td><\/tr><tr><td><strong>Conseil de l\u2019Europe<\/strong><\/td><td><a href=\"https:\/\/search.coe.int\/cm#{%22CoEIdentifier%22:[%2209000016809e1124%22],%22sort%22:[%22CoEValidationDate%20Descending%22]}\">Recommandation sur les impacts des syst\u00e8mes algorithmiques sur les droits de l\u2019homme<\/a><\/td><td>2020<\/td><\/tr><tr><td><strong>Conseil de l\u2019Europe<\/strong><strong><\/strong><\/td><td><a href=\"http:\/\/rm.coe.int\/1680afae3d\">Convention-cadre sur l&rsquo;intelligence artificielle<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>Conseil de l\u2019Europe<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/rm.coe.int\/cai-2024-16rev2-fr-methodologie-pour-l-evaluation-des-risques-et-des-i\/1680b2a09e\">M\u00e9thodologie pour l&rsquo;\u00e9valuation des risques et des impacts des syst\u00e8mes d&rsquo;intelligence artificielle du point de vue des droits humains, de la d\u00e9mocratie et de l&rsquo;\u00c9tat de droit (m\u00e9thodologie HUDERIA)<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>Conseil de l\u2019Europe<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/rm.coe.int\/1680afae68\">Rapport explicatif de la convention-cadre sur l&rsquo;intelligence artificielle<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>Conseil d\u2019\u00c9tat<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.conseil-etat.fr\/Media\/actualites\/documents\/2022\/08-aout\/etudepm-ia_1.pdf\">Avis relatif \u00e0 l\u2019impact de l\u2019intelligence artificielle sur les droits fondamentaux<\/a><\/td><td>2022<\/td><\/tr><tr><td><strong>D\u00e9fenseur des droits et CNIL<\/strong><\/td><td><a href=\"https:\/\/www.defenseurdesdroits.fr\/sites\/default\/files\/2023-07\/ddd_rapport_algorithmes_2020_20200531.pdf\">Pr\u00e9venir l&rsquo;automatisation des discriminations<\/a><\/td><td>2020<\/td><\/tr><tr><td><strong>D\u00e9fenseur des droits<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.defenseurdesdroits.fr\/sites\/default\/files\/2024-11\/DDD_rapport_algorithmes-systemes-d-IA-et-services-publics_2024_20241025.pdf\">Algorithmes, syst\u00e8mes d&rsquo;IA et secteur public<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>Groupe d\u2019experts ind\u00e9pendants de haut niveau sur l\u2019IA mandat\u00e9s par la Commission europ\u00e9enne<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/op.europa.eu\/fr\/publication-detail\/-\/publication\/d3988569-0434-11ea-8c1f-01aa75ed71a1\">Lignes directrices en mati\u00e8re d\u2019\u00e9thique pour une IA digne de confiance<\/a><\/td><td>2019<\/td><\/tr><tr><td><strong>Mission du Premier ministre<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.vie-publique.fr\/files\/rapport\/pdf\/184000159.pdf\">Donner un sens \u00e0 l\u2019intelligence artificielle : pour une strat\u00e9gie nationale et europ\u00e9enne<\/a><\/td><td>2018<\/td><\/tr><tr><td><strong>Mission du Premier ministre<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.economie.gouv.fr\/files\/files\/directions_services\/cge\/commission-IA.pdf\">IA&nbsp;: Notre ambition pour la France<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>OCDE<\/strong><\/td><td><a href=\"https:\/\/legalinstruments.oecd.org\/fr\/instruments\/oecd-legal-0449\">Recommandation du Conseil sur l&rsquo;intelligence artificielle (amend\u00e9e en 2024)<\/a><\/td><td>2019<\/td><\/tr><tr><td><strong>OCDE<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/www.oecd.org\/en\/publications\/oecd-framework-for-the-classification-of-ai-systems_cb6d9eca-en.html\">Cadre pour la classification des syst\u00e8mes d&rsquo;intelligence artificielle<\/a><\/td><td>2022<\/td><\/tr><tr><td><strong>ONU<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/docs.un.org\/fr\/A\/78\/L.49\">R\u00e9solution de l&rsquo;Assembl\u00e9e g\u00e9n\u00e9rale des Nations Unies : Saisir les possibilit\u00e9s offertes par des syst\u00e8mes d&rsquo;intelligence artificielle s\u00fbrs, s\u00e9curis\u00e9s et dignes de confiance pour un d\u00e9veloppement durable<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>UNESCO<\/strong><\/td><td><a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000381137_fre\">Recommandation sur l&rsquo;\u00e9thique de l&rsquo;intelligence artificielle<\/a><\/td><td>2021<\/td><\/tr><tr><td><strong>UNESCO<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000386276\">Ethical impact assessment: a tool of the Recommendation on the Ethics of Artificial Intelligence<\/a><\/td><td>2023<\/td><\/tr><tr><td><strong>Union europ\u00e9enne<\/strong><\/td><td><a href=\"https:\/\/eur-lex.europa.eu\/legal-content\/FR\/TXT\/PDF\/?uri=OJ:L_202401689\">R\u00e8glement \u00e9tablissant des r\u00e8gles harmonis\u00e9es concernant l&rsquo;intelligence artificielle<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>Union europ\u00e9enne<\/strong><\/td><td><a href=\"https:\/\/eur-lex.europa.eu\/legal-content\/FR\/TXT\/PDF\/?uri=OJ:L_202402853\">Directive sur la responsabilit\u00e9 du fait des produits d\u00e9fectueux (r\u00e9forme)<\/a><\/td><td>2024<\/td><\/tr><tr><td><strong>Union europ\u00e9enne<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/ec.europa.eu\/newsroom\/dae\/redirection\/document\/112366\">Lignes directrices de la Commission sur les pratiques interdites en mati\u00e8re d&rsquo;intelligence artificielle (art.5)<\/a><\/td><td>2025<\/td><\/tr><tr><td><strong>Union europ\u00e9enne<\/strong><\/td><td><a href=\"https:\/\/ec.europa.eu\/newsroom\/dae\/redirection\/document\/112367\">Annexe au lignes directrices de la Commission sur les pratiques interdites en mati\u00e8re d&rsquo;intelligence artificielle (art.5)<\/a><\/td><td>2025<\/td><\/tr><tr><td><strong>Union europ\u00e9enne<\/strong><strong><\/strong><\/td><td><a href=\"https:\/\/digital-strategy.ec.europa.eu\/fr\/library\/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application#:~:text=by%20AI%20Act-,Download%C2%A0,-Th%C3%A8mes%20associ%C3%A9s\">Lignes directrices sur la d\u00e9finition d&rsquo;un syst\u00e8me d&rsquo;intelligence artificielle (art.3)<\/a><\/td><td>2025<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>Par ann\u00e9e<\/strong> <strong>de publication<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td colspan=\"2\"><strong>2017<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>CNIL<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.cnil.fr\/fr\/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de\">Comment permettre \u00e0 l\u2019Homme de garder la main ? Rapport sur les enjeux \u00e9thiques des algorithmes et de l\u2019intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Rapport<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le rapport explore les enjeux \u00e9thiques pos\u00e9s par les algorithmes et l\u2019intelligence artificielle, en identifiant six probl\u00e9matiques majeures (autonomie humaine, biais et discriminations, personnalisation contre logiques collectives, usage des donn\u00e9es, fiabilit\u00e9 des mod\u00e8les, hybridation humain-machine), et en proposant des principes fondateurs (loyaut\u00e9, vigilance) ainsi que six recommandations op\u00e9rationnelles visant \u00e0 garantir une IA \u00e9thique et ma\u00eetris\u00e9e par l\u2019homme.<\/td><\/tr><tr><td colspan=\"2\"><strong>2018<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Conseil de l\u2019Europe (CEPEJ)<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/rm.coe.int\/charte-ethique-fr-pour-publication-4-decembre-2018\/16808f699b\">Charte \u00e9thique europ\u00e9enne d\u2019utilisation de l\u2019intelligence artificielle dans les syst\u00e8mes judiciaires et leur environnement<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Lignes directrices<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Droit souple (adopt\u00e9es en assembl\u00e9e pl\u00e9ni\u00e8re de la CEPEJ)<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La Charte \u00e9thique europ\u00e9enne sur l\u2019utilisation de l\u2019intelligence artificielle dans les syst\u00e8mes judiciaires, adopt\u00e9e par la CEPEJ en 2018, \u00e9tablit cinq principes fondamentaux (respect des droits fondamentaux, non-discrimination, qualit\u00e9 et s\u00e9curit\u00e9, transparence et neutralit\u00e9, ma\u00eetrise par l\u2019utilisateur) afin d\u2019encadrer le d\u00e9veloppement et l\u2019utilisation de l\u2019IA dans la justice, tout en garantissant une gouvernance \u00e9thique et le respect des droits humains.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Mission du Premier ministre<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u>Donner un sens \u00e0 l\u2019intelligence artificielle&nbsp;: pour une strat\u00e9gie nationale et europ\u00e9enne<\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Rapport<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Pas de port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le rapport \u201cDonner un sens \u00e0 l\u2019intelligence artificielle\u201d, dirig\u00e9 par C\u00e9dric Villani, propose une strat\u00e9gie nationale et europ\u00e9enne pour d\u00e9velopper l\u2019intelligence artificielle en France, en mettant l\u2019accent sur la recherche, l\u2019\u00e9conomie des donn\u00e9es, l\u2019impact sur l\u2019emploi, l\u2019\u00e9thique, et l\u2019\u00e9cologie, afin d\u2019assurer une r\u00e9gulation efficace, une souverainet\u00e9 technologique et une intelligence artificielle inclusive et responsable.<\/td><\/tr><tr><td colspan=\"2\"><strong>2019<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Groupe d\u2019experts ind\u00e9pendants de haut niveau sur l\u2019IA mandat\u00e9s par la Commission europ\u00e9enne<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/op.europa.eu\/fr\/publication-detail\/-\/publication\/d3988569-0434-11ea-8c1f-01aa75ed71a1\">Lignes directrices en mati\u00e8re d\u2019\u00e9thique pour une IA digne de confiance<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Lignes directrices<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Droit souple<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Les lignes directrices europ\u00e9ennes pour une intelligence artificielle (IA) digne de confiance, r\u00e9dig\u00e9es par un groupe d\u2019experts ind\u00e9pendants mandat\u00e9 par la Commission europ\u00e9enne, d\u00e9finissent un cadre reposant sur trois principes cl\u00e9s (l\u00e9galit\u00e9, \u00e9thique et robustesse) et \u00e9tablissent sept exigences (supervision humaine, robustesse et s\u00e9curit\u00e9, respect de la vie priv\u00e9e, transparence, \u00e9quit\u00e9, impact soci\u00e9tal et responsabilit\u00e9) afin de garantir une IA respectueuse des droits fondamentaux et b\u00e9n\u00e9fique pour la soci\u00e9t\u00e9.<\/td><\/tr><tr><td colspan=\"2\"><strong>2020<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Conseil de l\u2019Europe<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/search.coe.int\/cm#%7B%2522CoEIdentifier%2522:%5B%252209000016809e1124%2522%5D,%2522sort%2522:%5B%2522CoEValidationDate%2520Descending%2522%5D%7D\">Recommandation sur les impacts des syst\u00e8mes algorithmiques sur les droits de l\u2019homme<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Recommandation<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Droit souple<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La Recommandation \u00e9tablit un cadre pour pr\u00e9venir et att\u00e9nuer les impacts n\u00e9gatifs des syst\u00e8mes algorithmiques sur les droits humains, en appelant les \u00c9tats \u00e0 mettre en place des cadres l\u00e9gislatifs, des contr\u00f4les et des garanties pour assurer la transparence, la responsabilit\u00e9, l\u2019\u00e9quit\u00e9 et la supervision humaine dans la conception et l\u2019utilisation de ces technologies, tout en insistant sur la n\u00e9cessit\u00e9 d\u2019une r\u00e9gulation efficace des acteurs priv\u00e9s et de m\u00e9canismes de recours pour les personnes affect\u00e9es.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>D\u00e9fenseur des droits et CNIL<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.defenseurdesdroits.fr\/sites\/default\/files\/2023-07\/ddd_rapport_algorithmes_2020_20200531.pdf\">Pr\u00e9venir l&rsquo;automatisation des discriminations<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Rapport<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le rapport du D\u00e9fenseur des droits et de la CNIL analyse les risques de discrimination li\u00e9s \u00e0 l\u2019usage croissant des algorithmes dans les d\u00e9cisions publiques et priv\u00e9es (emploi, police, justice, services publics), en expliquant comment des biais peuvent \u00eatre int\u00e9gr\u00e9s \u00e0 toutes les \u00e9tapes du d\u00e9veloppement et du d\u00e9ploiement des syst\u00e8mes, et en proposant des recommandations pour garantir la transparence, l\u2019\u00e9quit\u00e9 et la non-discrimination dans leur utilisation.<\/td><\/tr><tr><td colspan=\"2\"><strong>2021<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>UNESCO<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000381137_fre\">Recommandation sur l&rsquo;\u00e9thique de l&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Recommandation<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Droit souple<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La recommandation de l\u2019UNESCO sur l\u2019\u00e9thique de l\u2019intelligence artificielle, adopt\u00e9e en 2021, \u00e9tablit un cadre normatif international bas\u00e9 sur des valeurs et principes \u00e9thiques fondamentaux (droits humains, justice, transparence, diversit\u00e9, responsabilit\u00e9 environnementale), et propose des domaines d\u2019action strat\u00e9giques pour encadrer le d\u00e9veloppement et l\u2019utilisation de l\u2019IA de mani\u00e8re \u00e9thique, inclusive et durable.<\/td><\/tr><tr><td colspan=\"2\"><strong>2022<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>CNCDH<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.cncdh.fr\/publications\/avis-relatif-limpact-de-lintelligence-artificielle-sur-les-droits-fondamentaux-2022-6#:~:text=La%20CNCDH%20appelle%20enfin%20%C3%A0,fonctionnement%20du%20syst%C3%A8me%20d'IA.\">Avis relatif \u00e0 l\u2019impact de l\u2019intelligence artificielle sur les droits fondamentaux<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Avis<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>L\u2019avis sur l\u2019intelligence artificielle et les droits fondamentaux alerte sur les risques que l\u2019IA fait peser sur les libert\u00e9s individuelles et recommande un encadrement juridique ambitieux, incluant l\u2019interdiction de certaines pratiques (scoring social, reconnaissance biom\u00e9trique \u00e0 distance), l\u2019obligation pour les utilisateurs de r\u00e9aliser une \u00e9tude d\u2019impact, ainsi que des droits garantis aux personnes concern\u00e9es (intervention humaine dans les d\u00e9cisions, transparence des crit\u00e8res d\u2019IA).<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Conseil d\u2019\u00c9tat<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.cncdh.fr\/publications\/avis-relatif-limpact-de-lintelligence-artificielle-sur-les-droits-fondamentaux-2022-6#:~:text=La%20CNCDH%20appelle%20enfin%20%C3%A0,fonctionnement%20du%20syst%C3%A8me%20d'IA.\">Avis relatif \u00e0 l\u2019impact de l\u2019intelligence artificielle sur les droits fondamentaux<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Rapport<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>L\u2019avis sur l\u2019intelligence artificielle et les droits fondamentaux alerte sur les risques que l\u2019IA fait peser sur les libert\u00e9s individuelles et recommande un encadrement juridique ambitieux, incluant l\u2019interdiction de certaines pratiques (scoring social, reconnaissance biom\u00e9trique \u00e0 distance), l\u2019obligation pour les utilisateurs de r\u00e9aliser une \u00e9tude d\u2019impact, ainsi que des droits garantis aux personnes concern\u00e9es (intervention humaine dans les d\u00e9cisions, transparence des crit\u00e8res d\u2019IA).<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>OCDE<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.oecd.org\/en\/publications\/oecd-framework-for-the-classification-of-ai-systems_cb6d9eca-en.html\">Cadre pour la classification des syst\u00e8mes d&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>\u00c9tude<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le cadre de l\u2019OCDE pour la classification des syst\u00e8mes d\u2019intelligence artificielle propose un outil structur\u00e9 permettant aux d\u00e9cideurs et r\u00e9gulateurs d\u2019\u00e9valuer les opportunit\u00e9s et les risques des syst\u00e8mes d\u2019IA en fonction de cinq dimensions (personnes et plan\u00e8te, contexte \u00e9conomique, donn\u00e9es et entr\u00e9es, mod\u00e8le d\u2019IA, t\u00e2ches et r\u00e9sultats), afin de guider les politiques publiques et garantir une IA digne de confiance et centr\u00e9e sur l\u2019humain.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>OCDE<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/legalinstruments.oecd.org\/fr\/instruments\/oecd-legal-0449\">Recommandation du Conseil sur l&rsquo;intelligence artificielle<\/a><\/u><\/strong>&nbsp;(amend\u00e9e en 2024)<strong><u><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Recommandation<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Droit souple<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La Recommandation amend\u00e9e en 2024 du Conseil de l\u2019OCDE sur l\u2019intelligence artificielle met \u00e0 jour les principes et lignes directrices adopt\u00e9s en 2019 pour promouvoir une IA digne de confiance, en int\u00e9grant les avanc\u00e9es technologiques r\u00e9centes, notamment l\u2019IA g\u00e9n\u00e9rative, et en renfor\u00e7ant les exigences de transparence, robustesse, responsabilit\u00e9, protection contre la d\u00e9sinformation et coop\u00e9ration internationale, afin d\u2019assurer une gouvernance \u00e9thique et durable de l\u2019IA.<\/td><\/tr><tr><td colspan=\"2\"><strong>2023<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>UNESCO<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000386276\">Ethical impact assessment: a tool of the Recommendation on the Ethics of Artificial Intelligence<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Outil de mise en \u0153uvre&nbsp;<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>L\u2019\u00c9valuation de l\u2019impact \u00e9thique (EIA) de l\u2019UNESCO est un outil bas\u00e9 sur la Recommandation sur l\u2019\u00e9thique de l\u2019intelligence artificielle, visant \u00e0 identifier et att\u00e9nuer les risques des syst\u00e8mes d\u2019IA en \u00e9valuant leurs impacts sur les droits humains, la protection des donn\u00e9es, la transparence, la responsabilit\u00e9, la durabilit\u00e9 et la non-discrimination, tout en encourageant une gouvernance \u00e9thique et la participation des parties prenantes.<\/td><\/tr><tr><td colspan=\"2\"><strong>2024<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Conseil de l\u2019Europe<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"http:\/\/rm.coe.int\/1680afae3d\">Convention-cadre sur l&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Trait\u00e9 international<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Juridiquement contraignant<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La convention-cadre du Conseil de l\u2019Europe sur l\u2019intelligence artificielle, les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit, adopt\u00e9e en 2024, \u00e9tablit un cadre juridique international visant \u00e0 garantir que le d\u00e9veloppement et l\u2019utilisation des syst\u00e8mes d\u2019IA respectent les droits fondamentaux, la transparence, la non-discrimination et la responsabilit\u00e9, tout en mettant en place des m\u00e9canismes de suivi et de coop\u00e9ration entre les \u00c9tats signataires.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Conseil de l\u2019Europe<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/rm.coe.int\/cai-2024-16rev2-fr-methodologie-pour-l-evaluation-des-risques-et-des-i\/1680b2a09e\">M\u00e9thodologie pour l&rsquo;\u00e9valuation des risques et des impacts des syst\u00e8mes d&rsquo;intelligence artificielle du point de vue des droits humains, de la d\u00e9mocratie et de l&rsquo;\u00c9tat de droit (m\u00e9thodologie HUDERIA)&nbsp;<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>M\u00e9thode d&rsquo;analyse de risques<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La m\u00e9thodologie HUDERIA propose un cadre structur\u00e9 pour \u00e9valuer les risques et impacts des syst\u00e8mes d\u2019intelligence artificielle sur les droits humains, la d\u00e9mocratie et l\u2019\u00c9tat de droit, en s\u2019appuyant sur une approche socio-technique et contextuelle, et en int\u00e9grant des outils d\u2019analyse des risques, d\u2019engagement des parties prenantes, d\u2019\u00e9valuation des impacts et de planification des mesures d\u2019att\u00e9nuation pour garantir une IA responsable et conforme aux principes d\u00e9mocratiques.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Conseil de l\u2019Europe<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/rm.coe.int\/1680afae68\">Rapport explicatif de la convention-cadre sur l&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Document interpr\u00e9tatif<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Interpr\u00e9tatif<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le rapport explicatif de la convention-cadre du Conseil de l\u2019Europe sur l\u2019intelligence artificielle, les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit d\u00e9taille les motivations, principes et implications juridiques du trait\u00e9, en clarifiant ses objectifs de garantir une utilisation responsable de l\u2019IA respectant les droits fondamentaux, la transparence et la d\u00e9mocratie, tout en fournissant un cadre pour l\u2019application et le suivi des obligations par les \u00c9tats signataires.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>D\u00e9fenseur des droits<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.defenseurdesdroits.fr\/sites\/default\/files\/2024-11\/DDD_rapport_algorithmes-systemes-d-IA-et-services-publics_2024_20241025.pdf\">Algorithmes, syst\u00e8mes d&rsquo;IA et secteur public<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Rapport<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le rapport analyse l\u2019impact croissant des algorithmes et de l\u2019intelligence artificielle dans les services publics, en mettant en \u00e9vidence les risques pour les droits des usagers, notamment en mati\u00e8re de transparence, d\u2019intervention humaine et de discrimination, et formule des recommandations pour garantir un usage respectueux des principes d\u2019\u00e9galit\u00e9, d\u2019accessibilit\u00e9 et de protection des droits fondamentaux.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>ONU<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/docs.un.org\/fr\/A\/78\/L.49\">R\u00e9solution de l&rsquo;Assembl\u00e9e g\u00e9n\u00e9rale des Nations Unies : Saisir les possibilit\u00e9s offertes par des syst\u00e8mes d&rsquo;intelligence artificielle s\u00fbrs, s\u00e9curis\u00e9s et dignes de confiance pour un d\u00e9veloppement durable<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>R\u00e9solution<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Droit souple<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La r\u00e9solution A\/RES\/78\/265 de l\u2019ONU adopt\u00e9e en 2024 appelle \u00e0 promouvoir des syst\u00e8mes d\u2019intelligence artificielle s\u00fbrs, s\u00e9curis\u00e9s et dignes de confiance pour acc\u00e9l\u00e9rer le d\u00e9veloppement durable, r\u00e9duire la fracture num\u00e9rique, garantir le respect des droits humains et des libert\u00e9s fondamentales, et \u00e9tablir des normes internationales interop\u00e9rables pour encadrer leur utilisation, tout en veillant \u00e0 une coop\u00e9ration inclusive entre les \u00c9tats, le secteur priv\u00e9 et la soci\u00e9t\u00e9 civile.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Mission du Premier ministre<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/www.economie.gouv.fr\/files\/files\/directions_services\/cge\/commission-IA.pdf\">IA : Notre ambition pour la France<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Rapport<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Sans port\u00e9e juridique<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le rapport de la Commission de l\u2019intelligence artificielle du Premier ministre propose une strat\u00e9gie nationale pour faire de la France un leader en intelligence artificielle, en combinant formation, innovation, souverainet\u00e9 technologique et r\u00e9gulation responsable, avec un plan d\u2019investissement de 5 milliards d\u2019euros par an pendant cinq ans, afin de rattraper le retard sur les grandes puissances et garantir un d\u00e9veloppement \u00e9thique et inclusif de l\u2019IA au service de la soci\u00e9t\u00e9 et de l\u2019\u00e9conomie.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Union europ\u00e9enne<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/eur-lex.europa.eu\/legal-content\/FR\/TXT\/PDF\/?uri=OJ:L_202401689\">R\u00e8glement \u00e9tablissant des r\u00e8gles harmonis\u00e9es concernant l&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>R\u00e8glement europ\u00e9en<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Juridiquement contraignant<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Le R\u00e8glement (UE) 2024\/1689 \u00e9tablit un cadre juridique harmonis\u00e9 pour le d\u00e9veloppement, la mise sur le march\u00e9 et l\u2019utilisation de l\u2019intelligence artificielle dans l\u2019Union europ\u00e9enne, en adoptant une approche bas\u00e9e sur les risques, interdisant certaines pratiques dangereuses, encadrant les syst\u00e8mes d\u2019IA \u00e0 haut risque, renfor\u00e7ant la transparence et la responsabilit\u00e9, et garantissant le respect des droits fondamentaux, de la s\u00e9curit\u00e9 et de l\u2019innovation au sein du march\u00e9 unique.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Union europ\u00e9enne<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/eur-lex.europa.eu\/legal-content\/FR\/TXT\/PDF\/?uri=OJ:L_202402853\">Directive sur la responsabilit\u00e9 du fait des produits d\u00e9fectueux<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Directive europ\u00e9enne<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Juridiquement contraignant<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>La Directive (UE) 2024\/2853 modernise les r\u00e8gles de responsabilit\u00e9 du fait des produits d\u00e9fectueux dans l\u2019Union europ\u00e9enne en int\u00e9grant les \u00e9volutions technologiques, notamment l\u2019intelligence artificielle et les logiciels, en renfor\u00e7ant la protection des consommateurs, en adaptant les obligations des fabricants et en facilitant l\u2019acc\u00e8s \u00e0 la r\u00e9paration pour les personnes l\u00e9s\u00e9es, tout en garantissant une harmonisation des r\u00e8gles au sein du march\u00e9 int\u00e9rieur.<\/td><\/tr><tr><td colspan=\"2\"><strong>2025<\/strong><strong><\/strong><\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Union europ\u00e9enne<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/ec.europa.eu\/newsroom\/dae\/redirection\/document\/112366\">Lignes directrices de la Commission sur les pratiques interdites en mati\u00e8re d&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Document interpr\u00e9tatif<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Interpr\u00e9tatif<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Les lignes directrices de la Commission europ\u00e9enne sur l\u2019article 5 du R\u00e8glement IA (UE) 2024\/1689 clarifient l\u2019interpr\u00e9tation et l\u2019application des pratiques d\u2019intelligence artificielle interdites (risques inacceptables), afin d\u2019assurer une mise en \u0153uvre coh\u00e9rente et efficace des interdictions, garantissant ainsi la protection des droits fondamentaux, de la d\u00e9mocratie et de l\u2019\u00c9tat de droit dans l\u2019Union europ\u00e9enne.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Union europ\u00e9enne<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/ec.europa.eu\/newsroom\/dae\/redirection\/document\/112367\">Annexe au lignes directrices de la Commission sur les pratiques interdites en mati\u00e8re d&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Document interpr\u00e9tatif<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Interpr\u00e9tatif<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>L\u2019annexe des lignes directrices de la Commission europ\u00e9enne sur l\u2019article 5 du R\u00e8glement IA (UE) 2024\/1689 fournit des pr\u00e9cisions d\u00e9taill\u00e9es sur les pratiques interdites en mati\u00e8re d\u2019intelligence artificielle, en expliquant leur base juridique, leur port\u00e9e mat\u00e9rielle et personnelle, ainsi que leur interconnexion avec d\u2019autres l\u00e9gislations de l\u2019UE, et en d\u00e9taillant les m\u00e9canismes de mise en application, sanctions et responsabilit\u00e9s pour assurer une application coh\u00e9rente et efficace des interdictions.<\/td><\/tr><tr><td colspan=\"2\">&nbsp;<\/td><\/tr><tr><td><strong>Auteur<\/strong><strong><\/strong><\/td><td><strong>Union europ\u00e9enne<\/strong><\/td><\/tr><tr><td><strong>Titre<\/strong><strong><\/strong><\/td><td><strong><u><a href=\"https:\/\/digital-strategy.ec.europa.eu\/fr\/library\/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application#:~:text=by%20AI%20Act-,Download%25C2%25A0,-Th%25C3%25A8mes%20associ%25C3%25A9s\">Lignes directrices sur la d\u00e9finition d&rsquo;un syst\u00e8me d&rsquo;intelligence artificielle<\/a><\/u><\/strong><\/td><\/tr><tr><td><strong>Nature<\/strong><strong><\/strong><\/td><td>Document interpr\u00e9tatif<\/td><\/tr><tr><td><strong>Port\u00e9e<\/strong><strong><\/strong><\/td><td>Interpr\u00e9tatif<\/td><\/tr><tr><td><strong>R\u00e9sum\u00e9<\/strong><strong><\/strong><\/td><td>Les lignes directrices de la Commission europ\u00e9enne sur l\u2019article 3 du R\u00e8glement IA (UE) 2024\/1689 clarifient la d\u00e9finition d\u2019un syst\u00e8me d\u2019intelligence artificielle, en d\u00e9taillant ses sept \u00e9l\u00e9ments cl\u00e9s (machine-based, autonomie, adaptabilit\u00e9, objectifs, inf\u00e9rence, g\u00e9n\u00e9ration d\u2019outputs influen\u00e7ant l\u2019environnement, interaction avec l\u2019environnement), en distinguant les syst\u00e8mes IA des logiciels traditionnels, et en expliquant les implications de cette d\u00e9finition pour l\u2019application du cadre r\u00e9glementaire bas\u00e9 sur les risques.<\/td><\/tr><\/tbody><\/table><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>La revue des instruments et documents r\u00e9alis\u00e9e ci-apr\u00e8s ne concerne que les principaux textes internationaux, r\u00e9gionaux et nationaux directement attach\u00e9s \u00e0 l\u2019IA. Les autres textes, applicables \u00e0 l\u2019IA mais non directement concern\u00e9s (comme le RGPD) ou applicables \u00e0 l\u2019IA mais avec une port\u00e9e moindre, ont \u00e9t\u00e9 exclus de cette revue.&hellip; <a class=\"read-more-link\" href=\"https:\/\/lestempselectriques.net\/index.php\/2025\/03\/10\/revue-des-principaux-instruments-juridiques-et-documents-internationaux-regionaux-et-nationaux-applicables-a-lintelligence-artificielle\/\">Plus&#8230;<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":false,"jetpack_social_post_already_shared":false,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[15],"tags":[221,126,191,25,72,127,267],"coauthors":[17],"class_list":["post-2388","post","type-post","status-publish","format-standard","hentry","category-billetsetudes","tag-ai-act","tag-ethique","tag-ethique-de-lia","tag-ia","tag-reglementation","tag-regulation","tag-ria"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts\/2388","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/comments?post=2388"}],"version-history":[{"count":2,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts\/2388\/revisions"}],"predecessor-version":[{"id":2391,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/posts\/2388\/revisions\/2391"}],"wp:attachment":[{"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/media?parent=2388"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/categories?post=2388"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/tags?post=2388"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/lestempselectriques.net\/index.php\/wp-json\/wp\/v2\/coauthors?post=2388"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}