[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article_52913":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":7,"wordCount":8,"readTime":9,"title":10,"nbDownloads":11,"excerpt":7,"lang":12,"url":13,"intro":14,"featured":4,"state":15,"author":16,"authorId":17,"datePublication":21,"dateCreation":22,"dateUpdate":23,"mainCategory":24,"categories":39,"metaDatas":66,"imageUrl":67,"imageThumbUrls":68,"id":76},false,"## Ouverture de négociations pour une nouvelle Convention sur l'intelligence artificielle\r\n\r\nDans une opinion en date du 13 octobre 2022, le Comité européen de la protection des données (CEPD) a indiqué l’ouverture prochaine de **négociations au sein du Conseil de l’Europe pour une Convention européenne sur l’Intelligence artificielle** (IA), droits de l’homme, démocratie et État de droit. \r\n\r\nPour le CEPD, il s’agit d’une excellente opportunité de compléter et d'enrichir le [**règlement de la Commission Européenne sur l’Intelligence artificielle**](https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206), tout en renforçant les **droits fondamentaux des individus** et en particulier le **droit à la vie privée et le droit à la protection des données personnelles**. \r\n\r\nIl s’agit par ailleurs de proposer le **premier outil sur l’intelligence artificielle, qui soit légalement contraignant à un niveau international** et conforme aux standards et valeurs européennes. \r\n\r\nC’est pourquoi, cette Convention devra être élaborée dans un souci de cohérence avec les instruments européens existants en matière de protection des données personnelles. \r\n\r\n## Des enjeux complexes et une réponse forte, adaptée aux risques identifiés\r\n\r\nEn pratique, le CEPD souligne que les systèmes utilisant l’IA **ne doivent en aucun cas poser un risque pour l’individu quant à l’utilisation de ses données personnelles**. \r\n\r\nTrès concrètement, la Commission européenne a souhaité **préciser les usages interdits afin de construire une IA éthique et de confiance au sein de l'union européenne (UE)**. \r\n\r\nAinsi, compte tenu des risques extrêmement élevés posés par l'**[identification biométrique](https://www.dastra.eu/fr/guide/donnees-biometriques/52359) à distance** des personnes dans les espaces publics (reconnaissance des visages, de la démarche, des empreintes digitales, de la voix, etc.), les autorités de protection des données européennes proposent que soient **retirées les exceptions à l’interdiction générale**. \r\n\r\nL’avis recommande également une **interdiction des systèmes biométriques utilisés aux fins de classer les individus** dans des groupes basés sur l'ethnicité supposée, le sexe, l'orientation politique ou sexuelle, ou d'autres motifs pour lesquels la discrimination est interdite en vertu de l'article 21 de la Charte des droits fondamentaux de l’Union européenne. \r\n\r\nL'utilisation de systèmes d'IA pour **déduire les émotions** d'une personne physique est par ailleurs considérée comme **hautement indésirable** et devrait également être soumise à une **interdiction de principe** (sauf cas très spécifiques, tels que certains objectifs de santé). \r\n\r\nEnfin, les systèmes utilisés pour la **notation sociale** (« social scoring ») doivent être **systématiquement interdits**.\r\n\r\nLa compréhension fine du fonctionnement des systèmes d’IA devient ainsi un **enjeu essentiel pour les régulateurs du numérique**. \r\n\r\nC’est pourquoi le projet de règlement sur l’IA de la Commission européenne prévoit que les systèmes d’IA à « haut risque » devront faire l’objet d’**[audits](https://www.dastra.eu/fr/audit/referential/8d5a5743-a914-45a0-85cb-88b6909e1054),** qui conduiront à un « marquage CE » attestant de leur conformité (certifiés par un organisme notifié ou par contrôle interne). \r\n\r\nCes audits devront assurer, **en amont de la mise en place des systèmes d’IA**, que leurs caractéristiques sont conformes avec les exigences inscrites dans la réglementation. \r\n\r\nDans ce contexte, le CEPD a par ailleurs indiqué que la future Convention devrait inclure un **ensemble minimal de garanties procédurales** pour protéger les individus des risques liés à l’utilisation de systèmes basés sur l’IA. \r\n\r\n## La CNIL comme autorité de contrôle des systèmes utilisant l'IA\r\n\r\nLa question s’est alors posée de définir une autorité de contrôle capable de jouer un rôle d’**autorité de coordination et de supervision**. \r\n\r\nEn France, c’est la **[Cnil](https://www.dastra.eu/fr/category/cnil/9)** qui remplira ce rôle. \r\nLe Conseil d’État a proposé cette approche dès l’été 2022, dans le cadre de la future règlementation sur l’IA. \r\nIl a, à ce titre, souligné « la **très forte adhérence entre la régulation des systèmes d'IA [à venir] et celle des données, en particulier des données à caractère personnel** ».\r\n\r\nAmenée à se transformer en profondeur pour face à ce nouveau défi que représente le contrôle des systèmes d’AI, la CNIL se doit d’**anticiper ses futures prérogatives** tout en tout en **renforçant ses capacités à supporter l’essor des traitements de données personnelles fondés sur l’IA** dans les prochaines années. \r\n\r\nPar conséquent, afin de solidifier ses capacités de contrôle pour s’adapter aux nouvelles pratiques, la **CNIL s’intéresse déjà aux outils d’audit des systèmes d’IA**. \r\n\r\nDans une **quasi logique de privacy by design**, la CNIL **articulerait dès lors une application optimale des futurs instruments européens sur l’IA et la constitution d’un écosystème européen de l’intelligence artificielle favorable à l’innovation**.\r\n","\u003Ch2 id=\"ouverture-de-negociations-pour-une-nouvelle-convention-sur-lintelligence-artificielle\">Ouverture de négociations pour une nouvelle Convention sur l'intelligence artificielle\u003C/h2>\r\n\u003Cp>Dans une opinion en date du 13 octobre 2022, le Comité européen de la protection des données (CEPD) a indiqué l’ouverture prochaine de \u003Cstrong>négociations au sein du Conseil de l’Europe pour une Convention européenne sur l’Intelligence artificielle\u003C/strong> (IA), droits de l’homme, démocratie et État de droit.\u003C/p>\r\n\u003Cp>Pour le CEPD, il s’agit d’une excellente opportunité de compléter et d'enrichir le \u003Ca href=\"https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206\" rel=\"nofollow\">\u003Cstrong>règlement de la Commission Européenne sur l’Intelligence artificielle\u003C/strong>\u003C/a>, tout en renforçant les \u003Cstrong>droits fondamentaux des individus\u003C/strong> et en particulier le \u003Cstrong>droit à la vie privée et le droit à la protection des données personnelles\u003C/strong>.\u003C/p>\r\n\u003Cp>Il s’agit par ailleurs de proposer le \u003Cstrong>premier outil sur l’intelligence artificielle, qui soit légalement contraignant à un niveau international\u003C/strong> et conforme aux standards et valeurs européennes.\u003C/p>\r\n\u003Cp>C’est pourquoi, cette Convention devra être élaborée dans un souci de cohérence avec les instruments européens existants en matière de protection des données personnelles.\u003C/p>\r\n\u003Ch2 id=\"des-enjeux-complexes-et-une-reponse-forte-adaptee-aux-risques-identifies\">Des enjeux complexes et une réponse forte, adaptée aux risques identifiés\u003C/h2>\r\n\u003Cp>En pratique, le CEPD souligne que les systèmes utilisant l’IA \u003Cstrong>ne doivent en aucun cas poser un risque pour l’individu quant à l’utilisation de ses données personnelles\u003C/strong>.\u003C/p>\r\n\u003Cp>Très concrètement, la Commission européenne a souhaité \u003Cstrong>préciser les usages interdits afin de construire une IA éthique et de confiance au sein de l'union européenne (UE)\u003C/strong>.\u003C/p>\r\n\u003Cp>Ainsi, compte tenu des risques extrêmement élevés posés par l'\u003Cstrong>\u003Ca href=\"https://www.dastra.eu/fr/guide/donnees-biometriques/52359\">identification biométrique\u003C/a> à distance\u003C/strong> des personnes dans les espaces publics (reconnaissance des visages, de la démarche, des empreintes digitales, de la voix, etc.), les autorités de protection des données européennes proposent que soient \u003Cstrong>retirées les exceptions à l’interdiction générale\u003C/strong>.\u003C/p>\r\n\u003Cp>L’avis recommande également une \u003Cstrong>interdiction des systèmes biométriques utilisés aux fins de classer les individus\u003C/strong> dans des groupes basés sur l'ethnicité supposée, le sexe, l'orientation politique ou sexuelle, ou d'autres motifs pour lesquels la discrimination est interdite en vertu de l'article 21 de la Charte des droits fondamentaux de l’Union européenne.\u003C/p>\r\n\u003Cp>L'utilisation de systèmes d'IA pour \u003Cstrong>déduire les émotions\u003C/strong> d'une personne physique est par ailleurs considérée comme \u003Cstrong>hautement indésirable\u003C/strong> et devrait également être soumise à une \u003Cstrong>interdiction de principe\u003C/strong> (sauf cas très spécifiques, tels que certains objectifs de santé).\u003C/p>\r\n\u003Cp>Enfin, les systèmes utilisés pour la \u003Cstrong>notation sociale\u003C/strong> (« social scoring ») doivent être \u003Cstrong>systématiquement interdits\u003C/strong>.\u003C/p>\r\n\u003Cp>La compréhension fine du fonctionnement des systèmes d’IA devient ainsi un \u003Cstrong>enjeu essentiel pour les régulateurs du numérique\u003C/strong>.\u003C/p>\r\n\u003Cp>C’est pourquoi le projet de règlement sur l’IA de la Commission européenne prévoit que les systèmes d’IA à « haut risque » devront faire l’objet d’\u003Cstrong>\u003Ca href=\"https://www.dastra.eu/fr/audit/referential/8d5a5743-a914-45a0-85cb-88b6909e1054\">audits\u003C/a>,\u003C/strong> qui conduiront à un « marquage CE » attestant de leur conformité (certifiés par un organisme notifié ou par contrôle interne).\u003C/p>\r\n\u003Cp>Ces audits devront assurer, \u003Cstrong>en amont de la mise en place des systèmes d’IA\u003C/strong>, que leurs caractéristiques sont conformes avec les exigences inscrites dans la réglementation.\u003C/p>\r\n\u003Cp>Dans ce contexte, le CEPD a par ailleurs indiqué que la future Convention devrait inclure un \u003Cstrong>ensemble minimal de garanties procédurales\u003C/strong> pour protéger les individus des risques liés à l’utilisation de systèmes basés sur l’IA.\u003C/p>\r\n\u003Ch2 id=\"la-cnil-comme-autorite-de-controle-des-systemes-utilisant-lia\">La CNIL comme autorité de contrôle des systèmes utilisant l'IA\u003C/h2>\r\n\u003Cp>La question s’est alors posée de définir une autorité de contrôle capable de jouer un rôle d’\u003Cstrong>autorité de coordination et de supervision\u003C/strong>.\u003C/p>\r\n\u003Cp>En France, c’est la \u003Cstrong>\u003Ca href=\"https://www.dastra.eu/fr/category/cnil/9\">Cnil\u003C/a>\u003C/strong> qui remplira ce rôle.\r\nLe Conseil d’État a proposé cette approche dès l’été 2022, dans le cadre de la future règlementation sur l’IA.\r\nIl a, à ce titre, souligné « la \u003Cstrong>très forte adhérence entre la régulation des systèmes d'IA [à venir] et celle des données, en particulier des données à caractère personnel\u003C/strong> ».\u003C/p>\r\n\u003Cp>Amenée à se transformer en profondeur pour face à ce nouveau défi que représente le contrôle des systèmes d’AI, la CNIL se doit d’\u003Cstrong>anticiper ses futures prérogatives\u003C/strong> tout en tout en \u003Cstrong>renforçant ses capacités à supporter l’essor des traitements de données personnelles fondés sur l’IA\u003C/strong> dans les prochaines années.\u003C/p>\r\n\u003Cp>Par conséquent, afin de solidifier ses capacités de contrôle pour s’adapter aux nouvelles pratiques, la \u003Cstrong>CNIL s’intéresse déjà aux outils d’audit des systèmes d’IA\u003C/strong>.\u003C/p>\r\n\u003Cp>Dans une \u003Cstrong>quasi logique de privacy by design\u003C/strong>, la CNIL \u003Cstrong>articulerait dès lors une application optimale des futurs instruments européens sur l’IA et la constitution d’un écosystème européen de l’intelligence artificielle favorable à l’innovation\u003C/strong>.\u003C/p>\r\n",null,777,4,"Une nouvelle Convention européenne sur l’Intelligence artificielle en projet",0,"fr","une-nouvelle-convention-europeenne-sur-lintelligence-artificielle","Dans une opinion en date du 13 octobre 2022, le CEPD a indiqué (sans donner de date précise) l’ouverture prochaine de négociations au sein du Conseil de l’Europe pour une Convention européenne sur l’Intelligence artificielle (IA), droits de l’homme, démocratie et Etat de droit. ","Published",{"id":17,"displayName":18,"avatarUrl":19,"bio":7,"blogUrl":7,"color":7,"userId":17,"creationDate":20},3235,"Margaux Morel","https://static.dastra.eu/tenant-3/avatar/3235/margaux-2-150.jpg","2022-10-03T12:31:46","2022-10-25T12:13:00","2022-10-25T12:13:05.782456","2024-06-20T15:59:52.7959498",{"id":25,"name":26,"description":27,"url":28,"color":29,"parentId":7,"count":7,"imageUrl":7,"parent":7,"order":11,"translations":30},2,"Blog","A list of curated articles provided by the community","article","#28449a",[31,33,36],{"lang":12,"name":26,"description":32},"Une liste d'articles rédigés par la communauté",{"lang":34,"name":26,"description":35},"es","Una lista de artículos escritos por la comunidad",{"lang":37,"name":26,"description":38},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[40,45],{"id":25,"name":26,"description":27,"url":28,"color":29,"parentId":7,"count":7,"imageUrl":7,"parent":7,"order":11,"translations":41},[42,43,44],{"lang":12,"name":26,"description":32},{"lang":34,"name":26,"description":35},{"lang":37,"name":26,"description":38},{"id":46,"name":47,"description":48,"url":49,"color":50,"parentId":25,"count":7,"imageUrl":7,"parent":51,"order":11,"translations":56},9,"News","Stay up to date with the latest news from data protection authorities: decisions, fines, guidelines, and regulatory trends in GDPR and privacy.","news","#1676ca",{"id":25,"name":26,"description":27,"url":28,"color":29,"parentId":7,"count":7,"imageUrl":7,"parent":7,"order":11,"translations":52},[53,54,55],{"lang":12,"name":26,"description":32},{"lang":34,"name":26,"description":35},{"lang":37,"name":26,"description":38},[57,60,63],{"lang":12,"name":58,"description":59},"Actualités","Suivez les dernières actualités des autorités de protection des données (CNIL, EDPS, etc.) : décisions, sanctions, lignes directrices et tendances réglementaires en matière de RGPD et de privacy.",{"lang":34,"name":61,"description":62},"Actualidad","Todos los artículos relativos a las autoridades de protección de datos",{"lang":37,"name":64,"description":65},"Nachrichten","Alle Artikel mit Bezug zu Datenschutzbehörden",[],"https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-1000.jpg",[69,70,71,72,73,74,75],"https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-1000.webp","https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia.webp","https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-1500.webp","https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-800.webp","https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-600.webp","https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-300.webp","https://static.dastra.eu/content/19422a79-6375-4e93-9c6b-6d154f01f9b7/ia-100.webp",52913]