[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$f_LjXzJ5kXF-nLm9X-E29hWEucoQqGOXvaft3vtxSkjs":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":7,"wordCount":8,"readTime":9,"title":10,"nbDownloads":11,"excerpt":7,"lang":12,"url":13,"intro":14,"featured":4,"state":15,"author":16,"authorId":17,"datePublication":21,"dateCreation":22,"dateUpdate":23,"mainCategory":24,"categories":39,"metaDatas":66,"imageUrl":67,"imageThumbUrls":68,"id":76},false,"L’Intelligence artificielle est omniprésente. Alors qu’elle était, il y a quelques années, réservée à un usage professionnel ou industrielle, elle a désormais sa place dans les foyers où ses applications se multiplient, à l’instar du développement d’outils tel que Chat GPT (IA dites **génératives**).\r\n\r\nLes usages par les entreprises sont larges : **analyser des ensembles de données**, permettre des **prédictions sur les comportements** des clients, imiter la **prise de décision humaine** ou **catégoriser** de vastes ensembles d'informations très complexes.\r\n\r\nL’IA posait déjà de nombreuses questions vis-à-vis de l’utilisation des données personnelles qu’elle implique. Ces questions sont d’autant plus nombreuses et cruciales, maintenant qu’il en est fait un usage domestique.\r\n\r\nSans remettre en cause les avantages que peuvent proposer ces systèmes, l’IA peut présenter une **menace pour la confidentialité** et la [sécurité des données](https://www.dastra.eu/fr/guide/mesure-technique-et-organisationnelle-de-securite--rgpd/367), ainsi que des problèmes liés à la règlementation, en particulier à mesure que celle-ci évolue. En effet, le développement des technologies liées à l’IA sont **extrêmement rapides**, à un tel point que les instruments de régulation internationaux, en cours de négociation, risquent d'être caducs, voire obsolètes lorsque ceux-ci seront publiés.\r\n\r\nNécessitant l’usage d’énormément de données, certaines **précautions** demeurent indispensables dans la mise en place d’une IA et l’utilisation qui en est faite. Les progrès de la technologie de l'IA soulèvent ainsi d'importantes questions **éthiques** concernant l'utilisation des données personnelles et le **risque de biais** dans les systèmes d'IA.\r\n\r\n## Pourquoi est-ce que ça n’est pas près de s’arrêter ?\r\n\r\nTout simplement parce que les **enjeux et les potentielles utilisations** liées à l’IA dans les activités de l’entreprise sont considérables. En effet, l’IA permet l'**automatisation et l'analyse complexe**, qui rendent les opérations commerciales plus efficaces. Elle peut également aider à **conduire la prise de décision** basée sur les données, permettant de rationaliser les opérations et de **générer de meilleures prévisions** et informations.\r\n\r\nC’est, entre autres, sur cette question de la **prise de décision automatisée** que l’IA rentre en conflit avec le RGPD puisque celui-ci confère aux individus, dans son **article 22**, le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le [profilage](https://www.dastra.eu/fr/article/definition-profilage-rgpd/2525), qui les concerne. En application de ce principe, les entreprises et organisations doivent prendre en compte l'**impact potentiel de leurs systèmes d'IA** sur les personnes et s'assurer qu'elles ne prennent **pas de décisions qui affectent significativement les personnes sans une supervision humaine adéquate**.\r\n\r\n## Les instruments de régulation de l'IA\r\n\r\nDans ce contexte, les instruments se multiplient, au niveau européen avec la [proposition de règlement de l’Union Européenne](https://www.dastra.eu/fr/article/une-nouvelle-convention-europeenne-sur-lintelligence-artificielle/52913) (**IA Act**) et au niveau national puisque la CNIL, après avoir [annoncé la création d’un service dédié à l’IA](https://www.dastra.eu/fr/article/la-cnil-se-dote-dun-service-intelligence-artificielle/53520) vient de publier un **plan d’action** pour un déploiement de systèmes d’IA **respectueux de la vie privée des individus**. Cette régulation se structure autour de quatre objectifs :\r\n\r\n1. Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes\r\n2. Permettre et encadrer le développement d’IA respectueuses des données personnelles\r\n3. Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe\r\n4. Auditer et contrôler les systèmes d’IA et protéger les personnes\r\n\r\nSans entraver le développement de l’IA et ses possibilités, la technologie doit être fondée sur les principes figurant dans le RGPD et la Convention 108 +. Les piliers de ces deux instruments internationaux sont la [licéité](https://www.dastra.eu/fr/guide/bases-legales-rgpd/2495) et la loyauté du traitement, la définition de la [finalité](https://www.dastra.eu/fr/guide/finalite-traitement/400), la proportionnalité du traitement, la prise en compte de la protection des données **dès la conception** (« \\*\\*privacy by-design ») et par défaut, la **responsabilité et la démonstration de la conformité** (« **accountability** »), la transparence, la sécurité des données et la gestion du risque.\r\n\r\n## Quelles solutions en pratique ?\r\n\r\nIndéniablement, l'usage de l'IA doit être encadré par des instruments internationaux. Au sein de l'entreprise, la protection des données et le respect de la vie privée nécessitent que l'utilisation de l'IA fasse l'objet de **précautions, vigilance et contrôle**, faisant intervenir l'ensemble des relais métiers et en particulier le **DPO**, c'est ce que nous verrons dans un prochain article !\r\n\r\n## Et avec DASTRA ?\r\n\r\n> Nous vous permettons de réaliser des [audits](https://www.dastra.eu/fr/audit) de **mise en place d'un système d'IA** dans une organisation et de piloter votre [gestion des risques](https://www.dastra.eu/fr/risk-management). ","\u003Cp>L’Intelligence artificielle est omniprésente. Alors qu’elle était, il y a quelques années, réservée à un usage professionnel ou industrielle, elle a désormais sa place dans les foyers où ses applications se multiplient, à l’instar du développement d’outils tel que Chat GPT (IA dites \u003Cstrong>génératives\u003C/strong>).\u003C/p>\r\n\u003Cp>Les usages par les entreprises sont larges : \u003Cstrong>analyser des ensembles de données\u003C/strong>, permettre des \u003Cstrong>prédictions sur les comportements\u003C/strong> des clients, imiter la \u003Cstrong>prise de décision humaine\u003C/strong> ou \u003Cstrong>catégoriser\u003C/strong> de vastes ensembles d'informations très complexes.\u003C/p>\r\n\u003Cp>L’IA posait déjà de nombreuses questions vis-à-vis de l’utilisation des données personnelles qu’elle implique. Ces questions sont d’autant plus nombreuses et cruciales, maintenant qu’il en est fait un usage domestique.\u003C/p>\r\n\u003Cp>Sans remettre en cause les avantages que peuvent proposer ces systèmes, l’IA peut présenter une \u003Cstrong>menace pour la confidentialité\u003C/strong> et la \u003Ca href=\"https://www.dastra.eu/fr/guide/mesure-technique-et-organisationnelle-de-securite--rgpd/367\">sécurité des données\u003C/a>, ainsi que des problèmes liés à la règlementation, en particulier à mesure que celle-ci évolue. En effet, le développement des technologies liées à l’IA sont \u003Cstrong>extrêmement rapides\u003C/strong>, à un tel point que les instruments de régulation internationaux, en cours de négociation, risquent d'être caducs, voire obsolètes lorsque ceux-ci seront publiés.\u003C/p>\r\n\u003Cp>Nécessitant l’usage d’énormément de données, certaines \u003Cstrong>précautions\u003C/strong> demeurent indispensables dans la mise en place d’une IA et l’utilisation qui en est faite. Les progrès de la technologie de l'IA soulèvent ainsi d'importantes questions \u003Cstrong>éthiques\u003C/strong> concernant l'utilisation des données personnelles et le \u003Cstrong>risque de biais\u003C/strong> dans les systèmes d'IA.\u003C/p>\r\n\u003Ch2 id=\"pourquoi-est-ce-que-ca-nest-pas-pres-de-sarreter\">Pourquoi est-ce que ça n’est pas près de s’arrêter ?\u003C/h2>\r\n\u003Cp>Tout simplement parce que les \u003Cstrong>enjeux et les potentielles utilisations\u003C/strong> liées à l’IA dans les activités de l’entreprise sont considérables. En effet, l’IA permet l'\u003Cstrong>automatisation et l'analyse complexe\u003C/strong>, qui rendent les opérations commerciales plus efficaces. Elle peut également aider à \u003Cstrong>conduire la prise de décision\u003C/strong> basée sur les données, permettant de rationaliser les opérations et de \u003Cstrong>générer de meilleures prévisions\u003C/strong> et informations.\u003C/p>\r\n\u003Cp>C’est, entre autres, sur cette question de la \u003Cstrong>prise de décision automatisée\u003C/strong> que l’IA rentre en conflit avec le RGPD puisque celui-ci confère aux individus, dans son \u003Cstrong>article 22\u003C/strong>, le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le \u003Ca href=\"https://www.dastra.eu/fr/article/definition-profilage-rgpd/2525\">profilage\u003C/a>, qui les concerne. En application de ce principe, les entreprises et organisations doivent prendre en compte l'\u003Cstrong>impact potentiel de leurs systèmes d'IA\u003C/strong> sur les personnes et s'assurer qu'elles ne prennent \u003Cstrong>pas de décisions qui affectent significativement les personnes sans une supervision humaine adéquate\u003C/strong>.\u003C/p>\r\n\u003Ch2 id=\"les-instruments-de-regulation-de-lia\">Les instruments de régulation de l'IA\u003C/h2>\r\n\u003Cp>Dans ce contexte, les instruments se multiplient, au niveau européen avec la \u003Ca href=\"https://www.dastra.eu/fr/article/une-nouvelle-convention-europeenne-sur-lintelligence-artificielle/52913\">proposition de règlement de l’Union Européenne\u003C/a> (\u003Cstrong>IA Act\u003C/strong>) et au niveau national puisque la CNIL, après avoir \u003Ca href=\"https://www.dastra.eu/fr/article/la-cnil-se-dote-dun-service-intelligence-artificielle/53520\">annoncé la création d’un service dédié à l’IA\u003C/a> vient de publier un \u003Cstrong>plan d’action\u003C/strong> pour un déploiement de systèmes d’IA \u003Cstrong>respectueux de la vie privée des individus\u003C/strong>. Cette régulation se structure autour de quatre objectifs :\u003C/p>\r\n\u003Col>\r\n\u003Cli>Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes\u003C/li>\r\n\u003Cli>Permettre et encadrer le développement d’IA respectueuses des données personnelles\u003C/li>\r\n\u003Cli>Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe\u003C/li>\r\n\u003Cli>Auditer et contrôler les systèmes d’IA et protéger les personnes\u003C/li>\r\n\u003C/ol>\r\n\u003Cp>Sans entraver le développement de l’IA et ses possibilités, la technologie doit être fondée sur les principes figurant dans le RGPD et la Convention 108 +. Les piliers de ces deux instruments internationaux sont la \u003Ca href=\"https://www.dastra.eu/fr/guide/bases-legales-rgpd/2495\">licéité\u003C/a> et la loyauté du traitement, la définition de la \u003Ca href=\"https://www.dastra.eu/fr/guide/finalite-traitement/400\">finalité\u003C/a>, la proportionnalité du traitement, la prise en compte de la protection des données \u003Cstrong>dès la conception\u003C/strong> (« **privacy by-design ») et par défaut, la \u003Cstrong>responsabilité et la démonstration de la conformité\u003C/strong> (« \u003Cstrong>accountability\u003C/strong> »), la transparence, la sécurité des données et la gestion du risque.\u003C/p>\r\n\u003Ch2 id=\"quelles-solutions-en-pratique\">Quelles solutions en pratique ?\u003C/h2>\r\n\u003Cp>Indéniablement, l'usage de l'IA doit être encadré par des instruments internationaux. Au sein de l'entreprise, la protection des données et le respect de la vie privée nécessitent que l'utilisation de l'IA fasse l'objet de \u003Cstrong>précautions, vigilance et contrôle\u003C/strong>, faisant intervenir l'ensemble des relais métiers et en particulier le \u003Cstrong>DPO\u003C/strong>, c'est ce que nous verrons dans un prochain article !\u003C/p>\r\n\u003Ch2 id=\"et-avec-dastra\">Et avec DASTRA ?\u003C/h2>\r\n\u003Cblockquote>\r\n\u003Cp>Nous vous permettons de réaliser des \u003Ca href=\"https://www.dastra.eu/fr/audit\">audits\u003C/a> de \u003Cstrong>mise en place d'un système d'IA\u003C/strong> dans une organisation et de piloter votre \u003Ca href=\"https://www.dastra.eu/fr/risk-management\">gestion des risques\u003C/a>.\u003C/p>\r\n\u003C/blockquote>\r\n",null,804,4,"L'IA et les données personnelles, quels enjeux ?",0,"fr","lia-et-les-donnees-personnelles-quels-enjeux","Dans une série d'articles nous aborderons le sujet de l'IA et des données personnelles. Le premier article traite des enjeux liés à l'utilisation des données personnelles dans les systèmes d'IA. ","Published",{"id":17,"displayName":18,"avatarUrl":19,"bio":7,"blogUrl":7,"color":7,"userId":17,"creationDate":20},3235,"Margaux Morel","https://static.dastra.eu/tenant-3/avatar/3235/margaux-2-150.jpg","2022-10-03T12:31:46","2023-06-01T06:38:00","2023-05-22T08:38:32.9348179","2026-01-22T10:11:58.8450443",{"id":25,"name":26,"description":27,"url":28,"color":29,"parentId":7,"count":7,"imageUrl":7,"parent":7,"order":11,"translations":30},2,"Blog","A list of curated articles provided by the community","blog","#28449a",[31,33,36],{"lang":12,"name":26,"description":32},"Une liste d'articles rédigés par la communauté",{"lang":34,"name":26,"description":35},"es","Una lista de artículos escritos por la comunidad",{"lang":37,"name":26,"description":38},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[40,45],{"id":25,"name":26,"description":27,"url":28,"color":29,"parentId":7,"count":7,"imageUrl":7,"parent":7,"order":11,"translations":41},[42,43,44],{"lang":12,"name":26,"description":32},{"lang":34,"name":26,"description":35},{"lang":37,"name":26,"description":38},{"id":46,"name":47,"description":48,"url":49,"color":50,"parentId":25,"count":7,"imageUrl":7,"parent":51,"order":56,"translations":57},69,"Expertise","Gain insights from our experts on GDPR compliance, data protection, and privacy challenges. In-depth articles, professional analysis, and real-world best practices.","indepth","#000000",{"id":25,"name":26,"description":27,"url":28,"color":29,"parentId":7,"count":7,"imageUrl":7,"parent":7,"order":11,"translations":52},[53,54,55],{"lang":12,"name":26,"description":32},{"lang":34,"name":26,"description":35},{"lang":37,"name":26,"description":38},5,[58,60,63],{"lang":12,"name":47,"description":59},"Bénéficiez des conseils de nos experts sur la conformité RGPD, la protection des données et les enjeux privacy. Articles de fond, analyses et retours d’expérience métier.",{"lang":37,"name":61,"description":62},"Fachwissen","Entdecken Sie die Artikel unserer DSGVO-Experten",{"lang":34,"name":64,"description":65},"Experiencia","Descubre los artículos de nuestros expertos en Privacy",[],"https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-1000.jpg",[69,70,71,72,73,74,75],"https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-1000.webp","https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data.webp","https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-1500.webp","https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-800.webp","https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-600.webp","https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-300.webp","https://static.dastra.eu/content/b8b31f2c-809b-4ed5-9e35-5fc2e14b6974/ai-and-personnal-data-100.webp",54201]