[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$fdVmhFxwI3xyug9D7Hlmlun_4cesrW2DDI33jEWDdtBM":3,"white_papers":80},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":8,"wordCount":9,"readTime":10,"title":11,"nbDownloads":12,"excerpt":13,"lang":14,"url":15,"intro":16,"featured":17,"state":18,"author":19,"authorId":20,"datePublication":24,"dateCreation":25,"dateUpdate":26,"mainCategory":27,"categories":42,"metaDatas":69,"imageUrl":70,"imageThumbUrls":71,"id":79},false,"L’adoption du règlement européen sur l’intelligence artificielle (AI Act) marque un tournant majeur dans la régulation des systèmes d’IA. À l’instar du RGPD en 2018, ce texte impose aux organisations une transformation profonde de leurs pratiques de gouvernance. Dans ce contexte, le Data Protection Officer (DPO) voit son rôle évoluer : sans être explicitement désigné comme acteur central du dispositif AI Act, il devient en pratique un pilier de la conformité IA.\n\n> **En quelques mots :** \n>\n> Si le DPO doit être associé à toute utilisation de données personnelles, il n’est pas nécessairement le pilote de la conformité au Règlement sur l’Intelligence Artificielle (RIA), qui mobilise d’autres compétences spécifiques.\\\n> \\\n> Cependant, le RIA représente une opportunité majeure : ses principes (approche par les risques, responsabilisation, transparence et protection des droits fondamentaux) prolongent ceux du RGPD. Les DPO disposent donc d’une base solide pour accompagner leurs structures vers une IA conforme et responsable.\n\n## **1. Un rôle non défini par les textes… mais incontournable en pratique**\n\nL'AI Act ou le Règlement européen sur l'intelligence artificielle, ne prévoit pas formellement la désignation d’un « AI Officer ». Toutefois, dans de nombreuses organisations, le DPO apparaît comme le candidat naturel pour piloter ou co-piloter la conformité IA, pour plusieurs raisons :\n\n- **Expertise en gouvernance des risques** : le DPO maîtrise déjà les logiques d’analyse d’impact, de cartographie des traitements et de gestion des risques.\n- **Connaissance des données** : l’IA étant fondée sur des données, le lien avec le RGPD est structurel.\n- **Position transverse** : le DPO est déjà intégré dans les processus métiers, IT et juridiques.\n\nLes autorités, notamment la CNIL, confirment cette tendance en soulignant que le DPO sera un acteur clé de la mise en conformité, même si son rôle devra s’articuler avec d’autres fonctions (IT, conformité, risk management, data science).\n\n## **2. Les nouvelles obligations liées à l’AI Act : un élargissement du périmètre du DPO**\n\nL'AI Act introduit une approche par les risques, avec des obligations différenciées selon la catégorie de système d’IA (interdits, à haut risque, à risque limité).\n\n### **a) Contribution à la classification des systèmes d’IA**\n\nLe DPO devra participer à :\n\n- L’identification des systèmes d’IA utilisés ou développés\n- Leur **qualification (haut risque ou non)** au sens du règlement\n- L’évaluation de leur finalité et de leurs impacts\n\n### **b) Articulation avec les analyses d’impact**\n\nPour les systèmes à haut risque, l'AI Act impose des exigences proches des DPIA (analyse d’impact RGPD) :\n\n- Analyse des risques pour les droits fondamentaux\n- Documentation technique\n- Mesures d’atténuation\n\nLe DPO sera naturellement impliqué dans la mise en œuvre ou la coordination de ces analyses, sachant qu'il faudra également effectué des analyses d'impact de protection des données personnelles pour certains systèmes d'IA traitant des données personnelles.\n\n### **c) Gouvernance des données**\n\nLe DPO devra veiller à :\n\n- La qualité et la pertinence des données utilisées\n- L’absence de biais discriminatoires\n- La conformité aux principes RGPD (minimisation, finalité, licéité)\n\n### **d) Transparence et information**\n\nL'AI Act impose des obligations d’information :\n\n- Information des utilisateurs lorsqu’ils interagissent avec une IA\n- Transparence sur les systèmes génératifs (ex : deepfakes)\n\nLe DPO devra s’assurer de la cohérence avec les obligations RGPD (articles 12 à 14).\n\n## **3. Une responsabilité accrue mais partagée**\n\nLe DPO n’est pas juridiquement responsable de la conformité au AI Act (comme pour le RGPD), mais :\n\n- Sa **responsabilité fonctionnelle** augmente fortement\n- Son **devoir d’alerte** est renforcé\n- Il devient un **référent stratégique** sur les risques IA\n\nAttention toutefois à un écueil : **Le cumul des rôles peut créer un risque de surcharge ou de conflit d’intérêts**, notamment si le DPO est impliqué dans des décisions opérationnelles.\n\nLes organisations devront donc clarifier les rôles (DPO vs AI governance lead), les responsabilités et les ressources allouées\n\n## **4. Le DPO au cœur d’une gouvernance IA structurée**\n\nL'AI Act pousse les entreprises à mettre en place une **gouvernance dédiée à l’IA** :\n\n- Comité IA ou comité éthique\n- Processus de validation des projets IA\n- Politique interne sur l’usage de l’IA\n\nLe DPO y joue un rôle clé :\n\n- Conseil en amont des projets\n- Participation aux comités\n- Formation des équipes\n\nLa CNIL souligne d’ailleurs que les DPO sont en première ligne pour accompagner cette transformation, comme en témoigne [son enquête 2025 sur leur rôle face à l’IA.](https://www.cnil.fr/fr/dpo-a-lheure-de-lia-lancement-enquete-2025)\n\n## **5. Plan d’actions pour les DPO : comment se préparer dès maintenant**\n\n### **Étape 1 : Cartographier les usages d’IA**\n\n- Identifier tous les systèmes d’IA (y compris SaaS et outils internes)\n- Prioriser selon les risques\n\n### **Étape 2 : Qualifier les systèmes**\n\n- Déterminer s’ils relèvent du AI Act\n- Identifier les systèmes à haut risque\n\n### **Étape 3 : Mettre en place une gouvernance IA**\n\n- Définir les rôles (DPO, IT, juridique, métiers)\n- Créer un comité IA\n\n### **Étape 4 : Adapter les processus existants**\n\n- Intégrer l’IA dans les DPIA\n- Étendre le registre des traitements\n- Mettre à jour les politiques internes\n\n### **Étape 5 : Renforcer la documentation**\n\n- Mettre en place des fiches IA\n- Documenter les modèles, données, finalités, risques\n\n### **Étape 6 : Former et sensibiliser**\n\n- Former les équipes métiers et techniques\n- Sensibiliser aux risques (biais, hallucinations, discrimination)\n\n### **Étape 7 : Anticiper les contrôles**\n\n- Mettre en place des audits internes\n- Préparer la coopération avec les autorités (CNIL en France)\n\n## **6. Vers un DPO “augmenté” : une évolution du métier**\n\nL'AI Act marque une évolution profonde du rôle du DPO :\n\n- Passage d’une logique **data-centric** à une logique **risk-centric élargie**\n- Intégration des enjeux **éthiques et sociétaux**\n- Nécessité de développer de nouvelles compétences :\n  - compréhension des modèles IA\n  - biais algorithmiques\n  - gouvernance technique\n\nLe DPO devient progressivement un **acteur clé de la confiance numérique**.\n\n---\n\n## **FAQ - DPO, AI Act et Digital Omnibus**\n\n**\\\nQuel est le rôle principal du DPO dans le cadre de l’AI Act et du Digital Omnibus ?**\n\nLe rôle du DPO évolue : il ne se limite plus à assurer la conformité au RGPD, mais devient un acteur stratégique chargé de superviser la gouvernance globale des données et des systèmes d’intelligence artificielle. Il veille notamment à la transparence, à la portabilité des données (Data Act) ainsi qu’à l’absence de biais algorithmiques (AI Act).\n\n---\n\n‍**Quelles sont les principales réglementations regroupées sous le terme « Digital Omnibus » ?**\n\nLe « Digital Omnibus » désigne un ensemble de textes majeurs qui structurent l’économie numérique. Il inclut notamment le Digital Services Act (DSA), le Digital Markets Act (DMA), le Data Act ainsi que le Data Governance Act. Ces réglementations viennent compléter le RGPD ainsi que la future directive NIS 2.\n\n---\n\n**En quoi un logiciel SaaS comme Dastra facilite-t-il le travail des DPO face à ces nouvelles exigences ?**\n\nLes solutions SaaS telles que Dastra aident les DPO à automatiser la cartographie des risques, à maintenir à jour les registres de traitements ou de systèmes d’IA, et à intégrer les exigences de conformité dès la conception. Elles facilitent aussi la collaboration avec les équipes techniques pour répondre aux obligations du RGPD, de l’AI Act et du Digital Omnibus.\n\n‍","\u003Cp>L’adoption du règlement européen sur l’intelligence artificielle (AI Act) marque un tournant majeur dans la régulation des systèmes d’IA. À l’instar du RGPD en 2018, ce texte impose aux organisations une transformation profonde de leurs pratiques de gouvernance. Dans ce contexte, le Data Protection Officer (DPO) voit son rôle évoluer : sans être explicitement désigné comme acteur central du dispositif AI Act, il devient en pratique un pilier de la conformité IA.\u003C/p>\n\u003Cblockquote>\n\u003Cp>\u003Cstrong>En quelques mots :\u003C/strong>\u003C/p>\n\u003Cp>Si le DPO doit être associé à toute utilisation de données personnelles, il n’est pas nécessairement le pilote de la conformité au Règlement sur l’Intelligence Artificielle (RIA), qui mobilise d’autres compétences spécifiques.\u003Cbr />\n\u003Cbr />\nCependant, le RIA représente une opportunité majeure : ses principes (approche par les risques, responsabilisation, transparence et protection des droits fondamentaux) prolongent ceux du RGPD. Les DPO disposent donc d’une base solide pour accompagner leurs structures vers une IA conforme et responsable.\u003C/p>\n\u003C/blockquote>\n\u003Ch2 id=\"un-role-non-defini-par-les-textes.mais-incontournable-en-pratique\">\u003Cstrong>1. Un rôle non défini par les textes… mais incontournable en pratique\u003C/strong>\u003C/h2>\n\u003Cp>L'AI Act ou le Règlement européen sur l'intelligence artificielle, ne prévoit pas formellement la désignation d’un « AI Officer ». Toutefois, dans de nombreuses organisations, le DPO apparaît comme le candidat naturel pour piloter ou co-piloter la conformité IA, pour plusieurs raisons :\u003C/p>\n\u003Cul>\n\u003Cli>\u003Cstrong>Expertise en gouvernance des risques\u003C/strong> : le DPO maîtrise déjà les logiques d’analyse d’impact, de cartographie des traitements et de gestion des risques.\u003C/li>\n\u003Cli>\u003Cstrong>Connaissance des données\u003C/strong> : l’IA étant fondée sur des données, le lien avec le RGPD est structurel.\u003C/li>\n\u003Cli>\u003Cstrong>Position transverse\u003C/strong> : le DPO est déjà intégré dans les processus métiers, IT et juridiques.\u003C/li>\n\u003C/ul>\n\u003Cp>Les autorités, notamment la CNIL, confirment cette tendance en soulignant que le DPO sera un acteur clé de la mise en conformité, même si son rôle devra s’articuler avec d’autres fonctions (IT, conformité, risk management, data science).\u003C/p>\n\u003Ch2 id=\"les-nouvelles-obligations-liees-a-lai-act-un-elargissement-du-perimetre-du-dpo\">\u003Cstrong>2. Les nouvelles obligations liées à l’AI Act : un élargissement du périmètre du DPO\u003C/strong>\u003C/h2>\n\u003Cp>L'AI Act introduit une approche par les risques, avec des obligations différenciées selon la catégorie de système d’IA (interdits, à haut risque, à risque limité).\u003C/p>\n\u003Ch3 id=\"a-contribution-a-la-classification-des-systemes-dia\">\u003Cstrong>a) Contribution à la classification des systèmes d’IA\u003C/strong>\u003C/h3>\n\u003Cp>Le DPO devra participer à :\u003C/p>\n\u003Cul>\n\u003Cli>L’identification des systèmes d’IA utilisés ou développés\u003C/li>\n\u003Cli>Leur \u003Cstrong>qualification (haut risque ou non)\u003C/strong> au sens du règlement\u003C/li>\n\u003Cli>L’évaluation de leur finalité et de leurs impacts\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"b-articulation-avec-les-analyses-dimpact\">\u003Cstrong>b) Articulation avec les analyses d’impact\u003C/strong>\u003C/h3>\n\u003Cp>Pour les systèmes à haut risque, l'AI Act impose des exigences proches des DPIA (analyse d’impact RGPD) :\u003C/p>\n\u003Cul>\n\u003Cli>Analyse des risques pour les droits fondamentaux\u003C/li>\n\u003Cli>Documentation technique\u003C/li>\n\u003Cli>Mesures d’atténuation\u003C/li>\n\u003C/ul>\n\u003Cp>Le DPO sera naturellement impliqué dans la mise en œuvre ou la coordination de ces analyses, sachant qu'il faudra également effectué des analyses d'impact de protection des données personnelles pour certains systèmes d'IA traitant des données personnelles.\u003C/p>\n\u003Ch3 id=\"c-gouvernance-des-donnees\">\u003Cstrong>c) Gouvernance des données\u003C/strong>\u003C/h3>\n\u003Cp>Le DPO devra veiller à :\u003C/p>\n\u003Cul>\n\u003Cli>La qualité et la pertinence des données utilisées\u003C/li>\n\u003Cli>L’absence de biais discriminatoires\u003C/li>\n\u003Cli>La conformité aux principes RGPD (minimisation, finalité, licéité)\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"d-transparence-et-information\">\u003Cstrong>d) Transparence et information\u003C/strong>\u003C/h3>\n\u003Cp>L'AI Act impose des obligations d’information :\u003C/p>\n\u003Cul>\n\u003Cli>Information des utilisateurs lorsqu’ils interagissent avec une IA\u003C/li>\n\u003Cli>Transparence sur les systèmes génératifs (ex : deepfakes)\u003C/li>\n\u003C/ul>\n\u003Cp>Le DPO devra s’assurer de la cohérence avec les obligations RGPD (articles 12 à 14).\u003C/p>\n\u003Ch2 id=\"une-responsabilite-accrue-mais-partagee\">\u003Cstrong>3. Une responsabilité accrue mais partagée\u003C/strong>\u003C/h2>\n\u003Cp>Le DPO n’est pas juridiquement responsable de la conformité au AI Act (comme pour le RGPD), mais :\u003C/p>\n\u003Cul>\n\u003Cli>Sa \u003Cstrong>responsabilité fonctionnelle\u003C/strong> augmente fortement\u003C/li>\n\u003Cli>Son \u003Cstrong>devoir d’alerte\u003C/strong> est renforcé\u003C/li>\n\u003Cli>Il devient un \u003Cstrong>référent stratégique\u003C/strong> sur les risques IA\u003C/li>\n\u003C/ul>\n\u003Cp>Attention toutefois à un écueil : \u003Cstrong>Le cumul des rôles peut créer un risque de surcharge ou de conflit d’intérêts\u003C/strong>, notamment si le DPO est impliqué dans des décisions opérationnelles.\u003C/p>\n\u003Cp>Les organisations devront donc clarifier les rôles (DPO vs AI governance lead), les responsabilités et les ressources allouées\u003C/p>\n\u003Ch2 id=\"le-dpo-au-cur-dune-gouvernance-ia-structuree\">\u003Cstrong>4. Le DPO au cœur d’une gouvernance IA structurée\u003C/strong>\u003C/h2>\n\u003Cp>L'AI Act pousse les entreprises à mettre en place une \u003Cstrong>gouvernance dédiée à l’IA\u003C/strong> :\u003C/p>\n\u003Cul>\n\u003Cli>Comité IA ou comité éthique\u003C/li>\n\u003Cli>Processus de validation des projets IA\u003C/li>\n\u003Cli>Politique interne sur l’usage de l’IA\u003C/li>\n\u003C/ul>\n\u003Cp>Le DPO y joue un rôle clé :\u003C/p>\n\u003Cul>\n\u003Cli>Conseil en amont des projets\u003C/li>\n\u003Cli>Participation aux comités\u003C/li>\n\u003Cli>Formation des équipes\u003C/li>\n\u003C/ul>\n\u003Cp>La CNIL souligne d’ailleurs que les DPO sont en première ligne pour accompagner cette transformation, comme en témoigne \u003Ca href=\"https://www.cnil.fr/fr/dpo-a-lheure-de-lia-lancement-enquete-2025\" rel=\"nofollow\">son enquête 2025 sur leur rôle face à l’IA.\u003C/a>\u003C/p>\n\u003Ch2 id=\"plan-dactions-pour-les-dpo-comment-se-preparer-des-maintenant\">\u003Cstrong>5. Plan d’actions pour les DPO : comment se préparer dès maintenant\u003C/strong>\u003C/h2>\n\u003Ch3 id=\"etape-1-cartographier-les-usages-dia\">\u003Cstrong>Étape 1 : Cartographier les usages d’IA\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Identifier tous les systèmes d’IA (y compris SaaS et outils internes)\u003C/li>\n\u003Cli>Prioriser selon les risques\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"etape-2-qualifier-les-systemes\">\u003Cstrong>Étape 2 : Qualifier les systèmes\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Déterminer s’ils relèvent du AI Act\u003C/li>\n\u003Cli>Identifier les systèmes à haut risque\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"etape-3-mettre-en-place-une-gouvernance-ia\">\u003Cstrong>Étape 3 : Mettre en place une gouvernance IA\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Définir les rôles (DPO, IT, juridique, métiers)\u003C/li>\n\u003Cli>Créer un comité IA\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"etape-4-adapter-les-processus-existants\">\u003Cstrong>Étape 4 : Adapter les processus existants\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Intégrer l’IA dans les DPIA\u003C/li>\n\u003Cli>Étendre le registre des traitements\u003C/li>\n\u003Cli>Mettre à jour les politiques internes\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"etape-5-renforcer-la-documentation\">\u003Cstrong>Étape 5 : Renforcer la documentation\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Mettre en place des fiches IA\u003C/li>\n\u003Cli>Documenter les modèles, données, finalités, risques\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"etape-6-former-et-sensibiliser\">\u003Cstrong>Étape 6 : Former et sensibiliser\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Former les équipes métiers et techniques\u003C/li>\n\u003Cli>Sensibiliser aux risques (biais, hallucinations, discrimination)\u003C/li>\n\u003C/ul>\n\u003Ch3 id=\"etape-7-anticiper-les-controles\">\u003Cstrong>Étape 7 : Anticiper les contrôles\u003C/strong>\u003C/h3>\n\u003Cul>\n\u003Cli>Mettre en place des audits internes\u003C/li>\n\u003Cli>Préparer la coopération avec les autorités (CNIL en France)\u003C/li>\n\u003C/ul>\n\u003Ch2 id=\"vers-un-dpo-augmente-une-evolution-du-metier\">\u003Cstrong>6. Vers un DPO “augmenté” : une évolution du métier\u003C/strong>\u003C/h2>\n\u003Cp>L'AI Act marque une évolution profonde du rôle du DPO :\u003C/p>\n\u003Cul>\n\u003Cli>Passage d’une logique \u003Cstrong>data-centric\u003C/strong> à une logique \u003Cstrong>risk-centric élargie\u003C/strong>\u003C/li>\n\u003Cli>Intégration des enjeux \u003Cstrong>éthiques et sociétaux\u003C/strong>\u003C/li>\n\u003Cli>Nécessité de développer de nouvelles compétences :\n\u003Cul>\n\u003Cli>compréhension des modèles IA\u003C/li>\n\u003Cli>biais algorithmiques\u003C/li>\n\u003Cli>gouvernance technique\u003C/li>\n\u003C/ul>\n\u003C/li>\n\u003C/ul>\n\u003Cp>Le DPO devient progressivement un \u003Cstrong>acteur clé de la confiance numérique\u003C/strong>.\u003C/p>\n\u003Chr />\n\u003Ch2 id=\"faq-dpo-ai-act-et-digital-omnibus\">\u003Cstrong>FAQ - DPO, AI Act et Digital Omnibus\u003C/strong>\u003C/h2>\n\u003Cp>\u003Cstrong>\u003Cbr />\nQuel est le rôle principal du DPO dans le cadre de l’AI Act et du Digital Omnibus ?\u003C/strong>\u003C/p>\n\u003Cp>Le rôle du DPO évolue : il ne se limite plus à assurer la conformité au RGPD, mais devient un acteur stratégique chargé de superviser la gouvernance globale des données et des systèmes d’intelligence artificielle. Il veille notamment à la transparence, à la portabilité des données (Data Act) ainsi qu’à l’absence de biais algorithmiques (AI Act).\u003C/p>\n\u003Chr />\n\u003Cp>‍\u003Cstrong>Quelles sont les principales réglementations regroupées sous le terme « Digital Omnibus » ?\u003C/strong>\u003C/p>\n\u003Cp>Le « Digital Omnibus » désigne un ensemble de textes majeurs qui structurent l’économie numérique. Il inclut notamment le Digital Services Act (DSA), le Digital Markets Act (DMA), le Data Act ainsi que le Data Governance Act. Ces réglementations viennent compléter le RGPD ainsi que la future directive NIS 2.\u003C/p>\n\u003Chr />\n\u003Cp>\u003Cstrong>En quoi un logiciel SaaS comme Dastra facilite-t-il le travail des DPO face à ces nouvelles exigences ?\u003C/strong>\u003C/p>\n\u003Cp>Les solutions SaaS telles que Dastra aident les DPO à automatiser la cartographie des risques, à maintenir à jour les registres de traitements ou de systèmes d’IA, et à intégrer les exigences de conformité dès la conception. Elles facilitent aussi la collaboration avec les équipes techniques pour répondre aux obligations du RGPD, de l’AI Act et du Digital Omnibus.\u003C/p>\n\u003Cp>‍\u003C/p>\n","Le rôle du DPO face à l'AI Act : obligations, responsabilités","Découvrez les obligations, responsabilités et un plan d’actions concret du DPO pour assurer la conformité IA des organisations.",1209,7,"Le rôle du DPO face à l'AI Act : obligations, responsabilités et plan d'actions",0,null,"fr","le-role-du-dpo-face-a-lia-act-obligations-responsabilites-et-plan-dactions","Quel est le rôle du DPO face à l’AI Act ? Découvrez ses nouvelles obligations, responsabilités et un plan d’actions concret pour assurer la conformité IA des organisations dès 2026.",true,"Published",{"id":20,"displayName":21,"avatarUrl":22,"bio":13,"blogUrl":13,"color":13,"userId":20,"creationDate":23},10458,"Marine Boquien","https://static.dastra.eu/tenant-19/avatar/10458/logo-icon-primary-150.png","2023-10-02T14:39:10","2026-04-24T13:43:00","2026-04-24T13:43:52.0969093","2026-04-28T13:40:43.8481731",{"id":28,"name":29,"description":30,"url":31,"color":32,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":33},2,"Blog","A list of curated articles provided by the community","blog","#28449a",[34,36,39],{"lang":14,"name":29,"description":35},"Une liste d'articles rédigés par la communauté",{"lang":37,"name":29,"description":38},"es","Una lista de artículos escritos por la comunidad",{"lang":40,"name":29,"description":41},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[43,48],{"id":28,"name":29,"description":30,"url":31,"color":32,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":44},[45,46,47],{"lang":14,"name":29,"description":35},{"lang":37,"name":29,"description":38},{"lang":40,"name":29,"description":41},{"id":49,"name":50,"description":51,"url":52,"color":53,"parentId":28,"count":13,"imageUrl":13,"parent":54,"order":59,"translations":60},69,"Expertise","Gain insights from our experts on GDPR compliance, data protection, and privacy challenges. In-depth articles, professional analysis, and real-world best practices.","indepth","#000000",{"id":28,"name":29,"description":30,"url":31,"color":32,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":55},[56,57,58],{"lang":14,"name":29,"description":35},{"lang":37,"name":29,"description":38},{"lang":40,"name":29,"description":41},5,[61,63,66],{"lang":14,"name":50,"description":62},"Bénéficiez des conseils de nos experts sur la conformité RGPD, la protection des données et les enjeux privacy. Articles de fond, analyses et retours d’expérience métier.",{"lang":40,"name":64,"description":65},"Fachwissen","Entdecken Sie die Artikel unserer DSGVO-Experten",{"lang":37,"name":67,"description":68},"Experiencia","Descubre los artículos de nuestros expertos en Privacy",[],"https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-original.png",[72,73,74,75,76,77,78],"https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-1000.webp","https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11.webp","https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-1500.webp","https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-800.webp","https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-600.webp","https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-300.webp","https://static.dastra.eu/content/d1d0afe6-1529-472b-b16c-8743a5e9fc61/visuel-article-11-100.webp",59987,{"items":81,"total":158,"size":105,"page":105},[82],{"title":83,"nbDownloads":84,"excerpt":85,"lang":14,"url":86,"intro":87,"featured":17,"state":18,"author":88,"authorId":89,"datePublication":93,"dateCreation":94,"dateUpdate":95,"mainCategory":96,"categories":103,"metaDatas":143,"imageUrl":148,"imageThumbUrls":149,"id":157},"AI Act : Déployer un AI Management System (AIMS) en 6 étapes",23,"Méthode opérationnelle pour structurer la gouvernance IA et répondre efficacement aux exigences de l’AI Act","ai-act-deployer-un-ai-management-system-aims-en-6-etapes","L’intelligence artificielle entre dans une nouvelle ère : celle de la gouvernance. Avec l’AI Act (UE 2024/1689), les organisations doivent désormais structurer et démontrer la conformité de leurs systèmes d’IA dans un cadre exigeant et évolutif.\n\nFace à la complexité réglementaire et à la multiplication des usages, beaucoup peinent à passer à l’opérationnel. Les initiatives restent souvent dispersées, générant des risques juridiques, opérationnels et réputationnels.\n\nL’AI Management System (AIMS) apporte une réponse structurée. Ce guide propose une méthode en 6 étapes pour déployer une gouvernance IA efficace, alignée avec les exigences de l’AI Act.",{"id":89,"displayName":90,"avatarUrl":91,"bio":13,"blogUrl":13,"color":13,"userId":89,"creationDate":92},38,"Paul-Emmanuel Bidault","https://static.dastra.eu/tenant-27/avatar/38/paul-emmanuel-bidault-150.jpg","2019-12-03T19:09:28","2026-03-30T20:17:00","2026-03-30T20:17:09.7405659","2026-04-20T12:08:34.6382717",{"id":97,"name":98,"description":13,"url":99,"color":100,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":101,"translations":102},70,"Livre blanc","white-papers","#1795d3",3,[],[104,112,117,122,124,130],{"id":105,"name":106,"description":107,"url":108,"color":109,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":105,"translations":110},1,"Actualités & veille","Toutes les dernières actualités sur la conformité GDPR dans l'application.","watch","#6c1414",[111],{"lang":14,"name":106,"description":107},{"id":28,"name":29,"description":35,"url":31,"color":32,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":113},[114,115,116],{"lang":14,"name":29,"description":35},{"lang":37,"name":29,"description":38},{"lang":40,"name":29,"description":41},{"id":49,"name":50,"description":62,"url":52,"color":53,"parentId":28,"count":13,"imageUrl":13,"parent":13,"order":59,"translations":118},[119,120,121],{"lang":14,"name":50,"description":62},{"lang":40,"name":64,"description":65},{"lang":37,"name":67,"description":68},{"id":97,"name":98,"description":13,"url":99,"color":100,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":101,"translations":123},[],{"id":125,"name":126,"description":13,"url":127,"color":128,"parentId":105,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":129},155,"AI","ai","#37c71a",[],{"id":131,"name":132,"description":133,"url":127,"color":134,"parentId":49,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":135},213,"Intelligence artificielle","Tout les articles relatifs à l'intelligence artificielle","#5856d6",[136,137,140],{"lang":14,"name":132,"description":133},{"lang":40,"name":138,"description":139},"Künstliche Intelligenz","Alle Artikel zum Thema künstliche Intelligenz",{"lang":37,"name":141,"description":142},"Inteligencia artificial","Todos los artículos sobre el tema de la inteligencia artificial",[144],{"typeMetaDataId":145,"value":146,"id":147},4,"https://static.dastra.eu/backofficefilescontainer/9c636312-c372-468b-9059-72f09b4963e7/Livret AI Act - 6 étapes pour déployer AIMS.pdf",117357,"https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-original.png",[150,151,152,153,154,155,156],"https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-1000.webp","https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726.webp","https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-1500.webp","https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-800.webp","https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-600.webp","https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-300.webp","https://static.dastra.eu/content/ba53a3ab-a895-4014-aac4-46d69280b15f/capture-decran-2026-03-31-162726-100.webp",59947,17]