[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$fcJmA1Eh4uzZ7yPi_4XROmuw7p_o51BK7Oud2KDyZT9U":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":8,"wordCount":9,"readTime":10,"title":11,"nbDownloads":12,"excerpt":13,"lang":14,"url":15,"intro":16,"featured":17,"state":18,"author":19,"authorId":20,"datePublication":25,"dateCreation":26,"dateUpdate":27,"mainCategory":28,"categories":43,"metaDatas":91,"imageUrl":92,"imageThumbUrls":93,"id":101},true,"Vous en avez assez des newsletters généralistes qui survolent vos vrais enjeux ?Dastra vous propose **DastrActu**, une veille juridique et réglementaire **spécialement pensée pour les DPO, juristes et professionnels de la Privacy**.\r\n\r\n🎯 **Une veille ciblée, utile et ancrée dans la réalité terrain de la protection des données et de l'IA.**\r\n\r\nVoici notre sélection pour **juin 2025** :\r\n\r\n## Back to basics: la CNIL revient sur la qualification des rôles des acteurs dans la chaîne de traitement\r\n\r\nAvant de lancer un traitement de données personnelles, il est essentiel de clarifier les rôles des acteurs impliqués. [La CNIL rappelle](https://www.cnil.fr/fr/rgpd-comment-bien-identifier-son-role), à la lumière [des lignes directrices du CEPD de 2021](https://www.edpb.europa.eu/system/files/2023-10/edpb_guidelines_202007_controllerprocessor_final_fr.pdf#page=57), les contours des notions de **responsable de traitement**, **sous-traitant** et **co-responsable de traitement**, illustrés par des exemples concrets.\r\n\r\nAinsi, des développeurs utilisant un même protocole d’apprentissage fédéré pour entraîner un système d’IA à partir de données dont ils sont initialement chacun responsables peuvent devenir **co-responsables**, dès lors qu’ils déterminent ensemble l’objectif (entraîner l’IA) et les moyens (quelles données exploiter, quel protocole choisir).\r\n\r\nLa CNIL insiste : au-delà des contrats, il est indispensable de **définir précisément qui fait quoi**, d’indiquer le **niveau de responsabilité** de chacun (qui peut varier) et de **documenter la réflexion ayant conduit à la qualification retenue**.\r\n\r\nEnfin, même si la qualification contractuelle fixe les obligations (par exemple la tenue du registre), elle ne lie pas la CNIL, qui pourra toujours requalifier les rôles sur la base des éléments factuels.\r\n\r\n📌 Bon à savoir : la CNIL propose aussi des [exemples sectoriels ](https://www.cnil.fr/fr/qualification-juridique-cas-sectoriels)pour aider les acteurs à mieux se situer dans leurs responsabilités.\r\n\r\n👩‍🚀 **Petit plus Dastra :** \u003Chttps://www.dastra.eu/fr/article/comment-verifier-le-respect-du-rgpd-par-ses-sous-traitants/58946>\r\n\r\n## **La CNIL publie ses recommandations sur l’intérêt légitime en cas de développement des systèmes d’IA**\r\n\r\nDans le prolongement de l'avis adopté par le CEPD en décembre 2024, la CNIL rappelle dans cette [nouvelle fiche](https://www.cnil.fr/fr/base-legale-interet-legitime-developpement-systeme), que l'intérêt légitime est une base légale possible pour le développement des systèmes d'IA, tant que le responsable de traitement documente et examine la conformité de son traitement aux 3 conditions suivantes, appliquées au cas de système d'IA :\r\n\r\n1. **Intérêt licite, précis et existant :** par exemple, le développement de système d'IA afin de faciliter l'accès du public à certaines informations est a priori un intérêt légitime. Toutefois, l'intérêt **cesse d'être légitime s'il ne peut pas être déployé légalement** (ex interdit par l'AI Act) ou s'il n'existe **pas de lien entre le système d'IA et l'activité/mission de l'organisme.**\r\n2. **Nécessaire pour l'objectif du traitement** (et donc pas de possibilité moins attentatoire aux libertés), en tenant compte du principe de **minimisation** des données.\r\n3. **N'outrepasse pas les droits et libertés fondamentaux** de la personne concernée : plus les bénéfices attendus du traitement sont significatifs (pour le responsable de traitement, mais aussi les utilisateurs finaux ou l'intérêt du public), plus il est probable que l’intérêt légitime du responsable l’emporte.    Toutefois, ces bénéfices doivent être **mis en balance avec les incidences potentiellement négatives sur les personnes concernées** (notamment, les risques de perte de confidentialité des données, ou encore les risques de propagation de fausses informations).\r\n\r\nCes incidences sont à évaluer en tenant compte d'éléments tels que les **attentes raisonnables** des personnes ou encore les **mesures additionnelles** mises en place, permettant de les limiter (ex: l'anonymisation, ou un droit d'opposition préalable).\r\n\r\nCette fiche fournit des exemples concrets à l'appui de ces propos, où l'intérêt légitime peut ou ne peut pas être mobilisé.\r\n\r\nSi ces conditions ne sont pas remplies, le consentement devient nécessaire, ou en application de dispositions légales prévoyant ceci.\r\n\r\n👩‍🚀 **Petit plus Dastra :** A noter qu'un[ intérêt commercial peut constituer un intérêt légitime (arrêt Tennisbond de la CJUE du 4 octobre 2024) ](https://www.dastra.eu/fr/article/interets-legitimes-et-objectif-purement-commercial-cest-possible-sous-conditions/58225)sous certaines conditions.\r\n\r\n## **Fiche focus de la CNIL sur l'intérêt légitime et le moissonnage**\r\n\r\nDans la continuité de la fiche exposée ci-dessus, l'autorité française a publié une [fiche focus sur le moissonnage](https://www.cnil.fr/fr/focus-interet-legitime-collecte-par-moissonnage) (web scraping) qui repose généralement sur l'intérêt légitime, et les mesures à mettre en place par le responsable de traitement.\r\n\r\nIl s'agit notamment de devoir **définir en amont des cirières précis de collecte des données,** d'**exclure certaines catégories de données non nécessaires** par l'intermédiaire de filtres ou encore des sites qui s'opposent au moissonnage de leur contenu, **supprimer** les données non pertinentes collectées malgré ces mesures. Ou encore **limiter** la collecte aux données librement accessibles et dont les personnes ont conscience de rendre publiquement accessibles.\r\n\r\nMais aussi, de tenir compte des **attentes raisonnables** des personnes concernées qui varient notamment en fonction du caractère publique des données, de la nature des sites et de leurs restrictions, du type de publication, etc. D'où l'importance de tenir les personnes concernées **informées de la collecte** (par ex une liste mise à jour des sites concernés par le webscraping) **et de leurs droits** (notamment un droit d'opposition en amont de la collecte).\r\n\r\n## **Pixels de suivi : la CNIL lance une consultation publique sur son projet de recommandation**\r\n\r\nLa CNIL vient d’ouvrir une consultation sur son [projet de recommandations concernant l’usage des pixels de suivi intégrés dans les e-mails, ](https://www.cnil.fr/fr/consultation-publique-projet-recommandation-pixels-de-suivi)une technique qui permet à l’expéditeur de savoir si un message a été ouvert. Face à l’augmentation des plaintes, la CNIL précise que :\r\n\r\n- L’usage de ces pixels doit respecter le RGPD et la loi Informatique et Libertés.\r\n- En principe, leur utilisation à des fins marketing (mesure de performance des campagnes, personnalisation, création de profils, etc.) requiert le **consentement préalable** du destinataire.\r\n- Des exceptions existent pour les finalités strictement techniques comme l’authentification, la sécurité ou la mesure **anonyme** du taux global d’ouverture d’e-mails sollicités.\r\n\r\nLe projet insiste sur la nécessité d’un consentement éclairé, distinct pour chaque finalité, ainsi que la possibilité de retrait à tout moment (par exemple via un lien dans le pied de page des e-mails).\r\n\r\n📝 La consultation publique est ouverte jusqu’au **24 juillet 2025**.\r\n\r\nCeci intervient alors que[ l'autorité norvégienne sanctionne, le 10 juin, ](https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2025/ulovlig-deling-av-personopplysninger-gjennom-sporingspiksler-hos-seks-nettsteder/)six sites web pour l’utilisation non conforme de pixels de suivi. Ces sites ont transmis des informations sur leurs visiteurs à des tiers sans disposer d’une base légale appropriée et sans respecter les exigences d’information des utilisateurs.\r\n\r\n## **Projet PANAME: auditer les modèles d’IA pour vérifier leur conformité**\r\n\r\nDans un avis adopté en décembre 2024, le CEPD rappelle que le RGPD s’applique fréquemment aux modèles d’IA entraînés sur des données personnelles, notamment en raison de leurs capacités de mémorisation.\r\n\r\nEn effet, démontrer qu’un modèle est résistant aux attaques portant sur la confidentialité des données est souvent indispensable pour démonter l'anonymisation, et par là, l'exclusion du champ du RGPD. La CNIL publiera prochainement des recommandations pour guider ces analyses.\r\n\r\nCependant, les outils pour conduire ces audits sont encore limités. La littérature scientifique est abondante mais peu adaptée au contexte industriel, les techniques open source nécessitent d’importants développements, et il n’existe pas encore de standard pour formaliser les tests de confidentialité.\r\n\r\nPour répondre à ces enjeux, la CNIL, le PEReN, l’ANSSI et le projet IPoP [lancent **PANAME**, un projet collaboratif ](https://www.cnil.fr/fr/paname-un-partenariat-pour-laudit-de-la-confidentialite-des-modeles-dia)visant à développer une bibliothèque logicielle, en grande partie open source, pour standardiser et simplifier ces audits. L’outil sera testé avec des administrations et des industriels afin de garantir son adéquation aux besoins concrets et aux exigences du RGPD.\r\n\r\n## **E-mails professionnels : la Cour de cassation reconnaît leur statut de données personnelles**\r\n\r\nDans un[ arrêt du 18 juin 2025, ](https://www.courdecassation.fr/decision/6852514ea7fdae5a8046f32f)la Cour de cassation a apporté une clarification importante sur le statut des e-mails professionnels échangés dans le cadre du travail et sur le droit d’accès des salariés à ces messages.\r\n\r\nL’affaire concernait un directeur associé licencié pour faute après des plaintes visant des propos sexistes et à connotation sexuelle. Contestant son licenciement, il avait demandé à son employeur la communication de l’ensemble de ses e-mails professionnels ainsi que des métadonnées associées, pour préparer sa défense. L’employeur avait refusé, arguant que ces éléments, reçus dans le cadre de ses fonctions, n’étaient pas des données personnelles.\r\n\r\nLa Cour de cassation a rejeté cette position, confirmant la décision de la cour d’appel : elle a affirmé **que les courriels professionnels d’un salarié, qu’il envoie ou reçoive, sont bien des données à caractère personnel au sens de l’article 4 du RGPD.** Par conséquent, lorsque le salarié exerce son droit d’accès prévu par l’article 15 du RGPD, **l’employeur doit lui fournir l’ensemble des courriels et métadonnées.**\r\n\r\nLa Cour a toutefois précisé que cette communication pouvait être restreinte si elle portait atteinte aux droits et libertés d’autres personnes. En l’espèce, le salarié pouvait obtenir réparation pour le préjudice subi en raison du non-respect de son droit d’accès.\r\n\r\n## **L’AEPD et l’EDPS mettent en avant l’apprentissage fédéré pour une IA plus respectueuse des données**\r\n\r\nL’Autorité espagnole de protection des données (AEPD) et le Contrôleur européen de la protection des données (EDPS) ont publié un [rapport commun qui examine l’importance stratégique de l’**apprentissage fédéré** (Federated Learning)](https://www.aepd.es/en/guides/tech-dispatch-federated-learning.pdf) pour développer des modèles d’IA conformes aux principes de protection des données.\r\n\r\nCe mode d’entraînement permet de traiter localement les données sur chaque terminal ou site, sans les transférer vers un serveur central. Seuls les paramètres ou résultats d’entraînement sont partagés, ce qui limite l’exposition des données personnelles. L’apprentissage fédéré soutient ainsi des principes tels que la minimisation des données, la limitation des finalités, et renforce la responsabilité des acteurs en facilitant l’auditabilité.\r\n\r\nLe rapport identifie des cas d’usage majeurs, notamment :\r\n\r\n- dans le domaine de la santé, où les données sont particulièrement sensibles,\r\n\r\n- pour les assistants vocaux ou les véhicules autonomes.\r\n\r\nIl souligne toutefois plusieurs défis :\r\n\r\n- garantir la sécurité et la qualité des données dans tout l’écosystème,\r\n\r\n- éviter les biais et ne pas supposer que les modèles ou paramètres sont anonymes sans une analyse approfondie,\r\n\r\n- privilégier une conception « privacy by design » pour réduire les risques et renforcer la confiance entre acteurs.\r\n\r\nAinsi, l’apprentissage fédéré est vu comme une technologie à double levier, favorisant à la fois la protection des données et l’essor de l’économie numérique, en permettant la collaboration sur des données stratégiques sans les partager directement.\r\n\r\n## **Royaume-Uni : De nouvelles lois sur la protection des données**\r\n\r\nLe Data Use and Access (DUAA) Act de 2025, a reçu le 19 juin, l'accord royal. L’Information Commissioner’s Office (ICO) a publié un article soulignant les bénéfices attendus pour les organisations britanniques.\r\n\r\nLe DUAA vise à dynamiser l’économie, moderniser les services publics et simplifier le quotidien des Britanniques. Parmi ses principales dispositions figurent le **partage des données de santé** entre établissements (par exemple entre hôpitaux), la **conservation des données** dans le cadre d’enquêtes judiciaires, ainsi que la **vérification d’identité en ligne**, accompagnée de la création d’un **label de confiance pour les prestataires**.\r\n\r\n#### Pour favoriser l’innovation :\r\n\r\n- **Recherche scientifique** : la DUAA clarifie quand il est possible d’utiliser des données personnelles pour la recherche scientifique, y compris commerciale, et autorise le recours à un « consentement large » couvrant un domaine de recherche.\r\n\r\n- **Dispense d’information individuelle** : permet de réutiliser des données personnelles pour la recherche sans envoyer de nouvelle notice de confidentialité si cela représenterait un effort disproportionné, à condition de protéger les droits des personnes et de publier ces informations sur son site.\r\n\r\n- **Décisions automatisées** : ouvre la possibilité d’utiliser toute base légale (y compris l’intérêt légitime) pour des décisions automatisées ayant un impact significatif, sous réserve de garanties appropriées. Attention, cela ne s’applique pas aux données sensibles.\r\n\r\n#### Pour simplifier la gestion des données :\r\n\r\n- **Nouveau fondement pour les « intérêts légitimes reconnus »** : dispense d’effectuer la mise en balance entre les droits des personnes et l’intérêt poursuivi, par exemple pour la sécurité publique.\r\n\r\n- **Partage facilité avec des autorités** : permet de transmettre des données personnelles à d’autres organismes publics (comme la police) sans devoir vérifier si cela relève de leurs missions, cette vérification incombant à l’organisme demandeur.\r\n\r\n- **Compatibilité présumée** : admet que certains usages secondaires (ex. archivage dans l’intérêt public) sont automatiquement compatibles avec la finalité initiale, sans analyse de compatibilité.\r\n\r\nL’ICO met à disposition des [**lignes directrices pratiques** ](https://ico.org.uk/about-the-ico/what-we-do/legislation-we-cover/data-use-and-access-act-2025/the-data-use-and-access-act-2025-what-does-it-mean-for-organisations/)afin d’aider les entreprises à appliquer ces nouvelles règles dès leur entrée en vigueur.\r\n\r\n## États-Unis : vers une régulation locale de l’IA après la levée du moratoire\r\n\r\nLe **Sénat américain vote à 99 contre 1 la suppression du moratoire sur l’IA, ouvrant la voie à une régulation par les États.**\r\n\r\nLe **moratoire américain sur la régulation de l’IA** désigne une mesure législative adoptée en mai 2025 par la Chambre des représentants des États-Unis, qui vise à **interdire à tous les États américains de réguler l’intelligence artificielle pendant 10 ans,** dans le cadre du projet de loi baptisé « Big Beautiful Bill » par l’administration Trump.\r\n\r\n**Pourquoi?** Les promoteurs du moratoire avancent que la fragmentation réglementaire actuelle (chaque État pouvant adopter ses propres lois) crée une insécurité juridique et nuit à la compétitivité américaine, en particulier face à l’Europe et à la Chine. Les grandes entreprises technologiques soutiennent ce gel, estimant que des règles trop strictes freineraient l’innovation[.](https://www.freenews.fr/actu-du-net/intelligence-artificielle/usa-projet-loi-regulation-ia-2025-2)\r\n\r\nCependant, des critiques issus des deux bords politiques se sont vivement opposés à cette mesure, avertissant qu’une telle interdiction exposerait les consommateurs à des risques et permettrait aux grandes entreprises d’IA d’opérer avec un minimum de responsabilité.\r\n\r\nL’action décisive du Sénat reflète une prise de conscience croissante du besoin d’une politique technologique agile et réactive, en particulier face à des domaines en évolution rapide comme l’IA.\r\n\r\nLa suppression du moratoire marque un tournant pour l’innovation en IA aux États-Unis. Plutôt qu’une interdiction centralisée et potentiellement restrictive au niveau fédéral, la voie est désormais ouverte pour que les États élaborent leurs propres cadres réglementaires.Cela pourrait conduire à une approche plus nuancée de la gouvernance, permettant aux États d’adapter la régulation à leurs contextes économiques, sociaux et technologiques spécifiques.\r\n\r\n## **Texas adopte une loi sur la gouvernance responsable de l’IA**\r\n\r\nLe gouverneur du Texas a signé, en date du 22 juin, la **Texas Responsible Artificial Intelligence Governance Act**, qui entrera en vigueur le 1er septembre 2025. Cette loi, votée à l’unanimité, vise à instaurer un cadre pour l’utilisation responsable de l’IA dans les agences publiques de l’État.\r\n\r\nUne fois la loi entrée en vigueur le 1er janvier 2026, le Texas va :\r\n\r\n- Établir des obligations de base pour les **« développeurs » et « utilisateurs » d’IA**,\r\n\r\n- Interdire les systèmes d’IA destinés au **scoring social** ou à la **discrimination**,\r\n\r\n- Créer un **premier bac à sable réglementaire sur l’IA** aux États-Unis,\r\n\r\n- Confier à l’**Attorney General (procureur général)** l’autorité exclusive pour l’application de la loi, et\r\n\r\n- Prendre le pas sur les réglementations locales en matière d’IA grâce à une **préemption étendue**.\r\n\r\nLe Texas rejoint ainsi un mouvement plus large aux États-Unis visant à encadrer le développement et le déploiement de l’IA dans le secteur public, en garantissant qu’elle soit utilisée de façon éthique et responsable.","\u003Cp>Vous en avez assez des newsletters généralistes qui survolent vos vrais enjeux ?\u003Cbr />\r\nDastra vous propose \u003Cstrong>DastrActu\u003C/strong>, une veille juridique et réglementaire \u003Cstrong>spécialement pensée pour les DPO, juristes et professionnels de la Privacy\u003C/strong>.\u003C/p>\r\n\u003Cp>🎯 \u003Cstrong>Une veille ciblée, utile et ancrée dans la réalité terrain de la protection des données et de l'IA.\u003C/strong>\u003C/p>\r\n\u003Cp>Voici notre sélection pour \u003Cstrong>juin 2025\u003C/strong> :\u003C/p>\r\n\u003Ch2 id=\"back-to-basics-la-cnil-revient-sur-la-qualification-des-roles-des-acteurs-dans-la-chaine-de-traitement\">Back to basics: la CNIL revient sur la qualification des rôles des acteurs dans la chaîne de traitement\u003C/h2>\r\n\u003Cp>Avant de lancer un traitement de données personnelles, il est essentiel de clarifier les rôles des acteurs impliqués. \u003Ca href=\"https://www.cnil.fr/fr/rgpd-comment-bien-identifier-son-role\" rel=\"nofollow\">La CNIL rappelle\u003C/a>, à la lumière \u003Ca href=\"https://www.edpb.europa.eu/system/files/2023-10/edpb_guidelines_202007_controllerprocessor_final_fr.pdf#page=57\" rel=\"nofollow\">des lignes directrices du CEPD de 2021\u003C/a>, les contours des notions de \u003Cstrong>responsable de traitement\u003C/strong>, \u003Cstrong>sous-traitant\u003C/strong> et \u003Cstrong>co-responsable de traitement\u003C/strong>, illustrés par des exemples concrets.\u003C/p>\r\n\u003Cp>Ainsi, des développeurs utilisant un même protocole d’apprentissage fédéré pour entraîner un système d’IA à partir de données dont ils sont initialement chacun responsables peuvent devenir \u003Cstrong>co-responsables\u003C/strong>, dès lors qu’ils déterminent ensemble l’objectif (entraîner l’IA) et les moyens (quelles données exploiter, quel protocole choisir).\u003C/p>\r\n\u003Cp>La CNIL insiste : au-delà des contrats, il est indispensable de \u003Cstrong>définir précisément qui fait quoi\u003C/strong>, d’indiquer le \u003Cstrong>niveau de responsabilité\u003C/strong> de chacun (qui peut varier) et de \u003Cstrong>documenter la réflexion ayant conduit à la qualification retenue\u003C/strong>.\u003C/p>\r\n\u003Cp>Enfin, même si la qualification contractuelle fixe les obligations (par exemple la tenue du registre), elle ne lie pas la CNIL, qui pourra toujours requalifier les rôles sur la base des éléments factuels.\u003C/p>\r\n\u003Cp>📌 Bon à savoir : la CNIL propose aussi des \u003Ca href=\"https://www.cnil.fr/fr/qualification-juridique-cas-sectoriels\" rel=\"nofollow\">exemples sectoriels \u003C/a>pour aider les acteurs à mieux se situer dans leurs responsabilités.\u003C/p>\r\n\u003Cp>👩‍🚀 \u003Cstrong>Petit plus Dastra :\u003C/strong> \u003Ca href=\"https://www.dastra.eu/fr/article/comment-verifier-le-respect-du-rgpd-par-ses-sous-traitants/58946\">https://www.dastra.eu/fr/article/comment-verifier-le-respect-du-rgpd-par-ses-sous-traitants/58946\u003C/a>\u003C/p>\r\n\u003Ch2 id=\"la-cnil-publie-ses-recommandations-sur-linteret-legitime-en-cas-de-developpement-des-systemes-dia\">\u003Cstrong>La CNIL publie ses recommandations sur l’intérêt légitime en cas de développement des systèmes d’IA\u003C/strong>\u003C/h2>\r\n\u003Cp>Dans le prolongement de l'avis adopté par le CEPD en décembre 2024, la CNIL rappelle dans cette \u003Ca href=\"https://www.cnil.fr/fr/base-legale-interet-legitime-developpement-systeme\" rel=\"nofollow\">nouvelle fiche\u003C/a>, que l'intérêt légitime est une base légale possible pour le développement des systèmes d'IA, tant que le responsable de traitement documente et examine la conformité de son traitement aux 3 conditions suivantes, appliquées au cas de système d'IA :\u003C/p>\r\n\u003Col>\r\n\u003Cli>\u003Cstrong>Intérêt licite, précis et existant :\u003C/strong> par exemple, le développement de système d'IA afin de faciliter l'accès du public à certaines informations est a priori un intérêt légitime. Toutefois, l'intérêt \u003Cstrong>cesse d'être légitime s'il ne peut pas être déployé légalement\u003C/strong> (ex interdit par l'AI Act) ou s'il n'existe \u003Cstrong>pas de lien entre le système d'IA et l'activité/mission de l'organisme.\u003C/strong>\u003C/li>\r\n\u003Cli>\u003Cstrong>Nécessaire pour l'objectif du traitement\u003C/strong> (et donc pas de possibilité moins attentatoire aux libertés), en tenant compte du principe de \u003Cstrong>minimisation\u003C/strong> des données.\u003C/li>\r\n\u003Cli>\u003Cstrong>N'outrepasse pas les droits et libertés fondamentaux\u003C/strong> de la personne concernée : plus les bénéfices attendus du traitement sont significatifs (pour le responsable de traitement, mais aussi les utilisateurs finaux ou l'intérêt du public), plus il est probable que l’intérêt légitime du responsable l’emporte. \u003Cbr />\r\nToutefois, ces bénéfices doivent être \u003Cstrong>mis en balance avec les incidences potentiellement négatives sur les personnes concernées\u003C/strong> (notamment, les risques de perte de confidentialité des données, ou encore les risques de propagation de fausses informations).\u003C/li>\r\n\u003C/ol>\r\n\u003Cp>Ces incidences sont à évaluer en tenant compte d'éléments tels que les \u003Cstrong>attentes raisonnables\u003C/strong> des personnes ou encore les \u003Cstrong>mesures additionnelles\u003C/strong> mises en place, permettant de les limiter (ex: l'anonymisation, ou un droit d'opposition préalable).\u003C/p>\r\n\u003Cp>Cette fiche fournit des exemples concrets à l'appui de ces propos, où l'intérêt légitime peut ou ne peut pas être mobilisé.\u003C/p>\r\n\u003Cp>Si ces conditions ne sont pas remplies, le consentement devient nécessaire, ou en application de dispositions légales prévoyant ceci.\u003C/p>\r\n\u003Cp>👩‍🚀 \u003Cstrong>Petit plus Dastra :\u003C/strong> A noter qu'un\u003Ca href=\"https://www.dastra.eu/fr/article/interets-legitimes-et-objectif-purement-commercial-cest-possible-sous-conditions/58225\"> intérêt commercial peut constituer un intérêt légitime (arrêt Tennisbond de la CJUE du 4 octobre 2024) \u003C/a>sous certaines conditions.\u003C/p>\r\n\u003Ch2 id=\"fiche-focus-de-la-cnil-sur-linteret-legitime-et-le-moissonnage\">\u003Cstrong>Fiche focus de la CNIL sur l'intérêt légitime et le moissonnage\u003C/strong>\u003C/h2>\r\n\u003Cp>Dans la continuité de la fiche exposée ci-dessus, l'autorité française a publié une \u003Ca href=\"https://www.cnil.fr/fr/focus-interet-legitime-collecte-par-moissonnage\" rel=\"nofollow\">fiche focus sur le moissonnage\u003C/a> (web scraping) qui repose généralement sur l'intérêt légitime, et les mesures à mettre en place par le responsable de traitement.\u003C/p>\r\n\u003Cp>Il s'agit notamment de devoir \u003Cstrong>définir en amont des cirières précis de collecte des données,\u003C/strong> d'\u003Cstrong>exclure certaines catégories de données non nécessaires\u003C/strong> par l'intermédiaire de filtres ou encore des sites qui s'opposent au moissonnage de leur contenu, \u003Cstrong>supprimer\u003C/strong> les données non pertinentes collectées malgré ces mesures. Ou encore \u003Cstrong>limiter\u003C/strong> la collecte aux données librement accessibles et dont les personnes ont conscience de rendre publiquement accessibles.\u003C/p>\r\n\u003Cp>Mais aussi, de tenir compte des \u003Cstrong>attentes raisonnables\u003C/strong> des personnes concernées qui varient notamment en fonction du caractère publique des données, de la nature des sites et de leurs restrictions, du type de publication, etc. \u003Cbr />\r\n\u003Cbr />\r\nD'où l'importance de tenir les personnes concernées \u003Cstrong>informées de la collecte\u003C/strong> (par ex une liste mise à jour des sites concernés par le webscraping) \u003Cstrong>et de leurs droits\u003C/strong> (notamment un droit d'opposition en amont de la collecte).\u003C/p>\r\n\u003Ch2 id=\"pixels-de-suivi-la-cnil-lance-une-consultation-publique-sur-son-projet-de-recommandation\">\u003Cstrong>Pixels de suivi : la CNIL lance une consultation publique sur son projet de recommandation\u003C/strong>\u003C/h2>\r\n\u003Cp>La CNIL vient d’ouvrir une consultation sur son \u003Ca href=\"https://www.cnil.fr/fr/consultation-publique-projet-recommandation-pixels-de-suivi\" rel=\"nofollow\">projet de recommandations concernant l’usage des pixels de suivi intégrés dans les e-mails, \u003C/a>une technique qui permet à l’expéditeur de savoir si un message a été ouvert. Face à l’augmentation des plaintes, la CNIL précise que :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>L’usage de ces pixels doit respecter le RGPD et la loi Informatique et Libertés.\u003C/li>\r\n\u003Cli>En principe, leur utilisation à des fins marketing (mesure de performance des campagnes, personnalisation, création de profils, etc.) requiert le \u003Cstrong>consentement préalable\u003C/strong> du destinataire.\u003C/li>\r\n\u003Cli>Des exceptions existent pour les finalités strictement techniques comme l’authentification, la sécurité ou la mesure \u003Cstrong>anonyme\u003C/strong> du taux global d’ouverture d’e-mails sollicités.\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Le projet insiste sur la nécessité d’un consentement éclairé, distinct pour chaque finalité, ainsi que la possibilité de retrait à tout moment (par exemple via un lien dans le pied de page des e-mails).\u003C/p>\r\n\u003Cp>📝 La consultation publique est ouverte jusqu’au \u003Cstrong>24 juillet 2025\u003C/strong>.\u003C/p>\r\n\u003Cp>Ceci intervient alors que\u003Ca href=\"https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2025/ulovlig-deling-av-personopplysninger-gjennom-sporingspiksler-hos-seks-nettsteder/\" rel=\"nofollow\"> l'autorité norvégienne sanctionne, le 10 juin, \u003C/a>six sites web pour l’utilisation non conforme de pixels de suivi. Ces sites ont transmis des informations sur leurs visiteurs à des tiers sans disposer d’une base légale appropriée et sans respecter les exigences d’information des utilisateurs.\u003C/p>\r\n\u003Ch2 id=\"projet-paname-auditer-les-modeles-dia-pour-verifier-leur-conformite\">\u003Cstrong>Projet PANAME: auditer les modèles d’IA pour vérifier leur conformité\u003C/strong>\u003C/h2>\r\n\u003Cp>Dans un avis adopté en décembre 2024, le CEPD rappelle que le RGPD s’applique fréquemment aux modèles d’IA entraînés sur des données personnelles, notamment en raison de leurs capacités de mémorisation.\u003C/p>\r\n\u003Cp>En effet, démontrer qu’un modèle est résistant aux attaques portant sur la confidentialité des données est souvent indispensable pour démonter l'anonymisation, et par là, l'exclusion du champ du RGPD. La CNIL publiera prochainement des recommandations pour guider ces analyses.\u003C/p>\r\n\u003Cp>Cependant, les outils pour conduire ces audits sont encore limités. La littérature scientifique est abondante mais peu adaptée au contexte industriel, les techniques open source nécessitent d’importants développements, et il n’existe pas encore de standard pour formaliser les tests de confidentialité.\u003C/p>\r\n\u003Cp>Pour répondre à ces enjeux, la CNIL, le PEReN, l’ANSSI et le projet IPoP \u003Ca href=\"https://www.cnil.fr/fr/paname-un-partenariat-pour-laudit-de-la-confidentialite-des-modeles-dia\" rel=\"nofollow\">lancent \u003Cstrong>PANAME\u003C/strong>, un projet collaboratif \u003C/a>visant à développer une bibliothèque logicielle, en grande partie open source, pour standardiser et simplifier ces audits. L’outil sera testé avec des administrations et des industriels afin de garantir son adéquation aux besoins concrets et aux exigences du RGPD.\u003C/p>\r\n\u003Ch2 id=\"e-mails-professionnels-la-cour-de-cassation-reconnait-leur-statut-de-donnees-personnelles\">\u003Cstrong>E-mails professionnels : la Cour de cassation reconnaît leur statut de données personnelles\u003C/strong>\u003C/h2>\r\n\u003Cp>Dans un\u003Ca href=\"https://www.courdecassation.fr/decision/6852514ea7fdae5a8046f32f\" rel=\"nofollow\"> arrêt du 18 juin 2025, \u003C/a>la Cour de cassation a apporté une clarification importante sur le statut des e-mails professionnels échangés dans le cadre du travail et sur le droit d’accès des salariés à ces messages.\u003C/p>\r\n\u003Cp>L’affaire concernait un directeur associé licencié pour faute après des plaintes visant des propos sexistes et à connotation sexuelle. Contestant son licenciement, il avait demandé à son employeur la communication de l’ensemble de ses e-mails professionnels ainsi que des métadonnées associées, pour préparer sa défense. L’employeur avait refusé, arguant que ces éléments, reçus dans le cadre de ses fonctions, n’étaient pas des données personnelles.\u003C/p>\r\n\u003Cp>La Cour de cassation a rejeté cette position, confirmant la décision de la cour d’appel : elle a affirmé \u003Cstrong>que les courriels professionnels d’un salarié, qu’il envoie ou reçoive, sont bien des données à caractère personnel au sens de l’article 4 du RGPD.\u003C/strong> Par conséquent, lorsque le salarié exerce son droit d’accès prévu par l’article 15 du RGPD, \u003Cstrong>l’employeur doit lui fournir l’ensemble des courriels et métadonnées.\u003C/strong>\u003C/p>\r\n\u003Cp>La Cour a toutefois précisé que cette communication pouvait être restreinte si elle portait atteinte aux droits et libertés d’autres personnes. En l’espèce, le salarié pouvait obtenir réparation pour le préjudice subi en raison du non-respect de son droit d’accès.\u003C/p>\r\n\u003Ch2 id=\"laepd-et-ledps-mettent-en-avant-lapprentissage-federe-pour-une-ia-plus-respectueuse-des-donnees\">\u003Cstrong>L’AEPD et l’EDPS mettent en avant l’apprentissage fédéré pour une IA plus respectueuse des données\u003C/strong>\u003C/h2>\r\n\u003Cp>L’Autorité espagnole de protection des données (AEPD) et le Contrôleur européen de la protection des données (EDPS) ont publié un \u003Ca href=\"https://www.aepd.es/en/guides/tech-dispatch-federated-learning.pdf\" rel=\"nofollow\">rapport commun qui examine l’importance stratégique de l’\u003Cstrong>apprentissage fédéré\u003C/strong> (Federated Learning)\u003C/a> pour développer des modèles d’IA conformes aux principes de protection des données.\u003C/p>\r\n\u003Cp>Ce mode d’entraînement permet de traiter localement les données sur chaque terminal ou site, sans les transférer vers un serveur central. Seuls les paramètres ou résultats d’entraînement sont partagés, ce qui limite l’exposition des données personnelles. L’apprentissage fédéré soutient ainsi des principes tels que la minimisation des données, la limitation des finalités, et renforce la responsabilité des acteurs en facilitant l’auditabilité.\u003C/p>\r\n\u003Cp>Le rapport identifie des cas d’usage majeurs, notamment :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>dans le domaine de la santé, où les données sont particulièrement sensibles,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>pour les assistants vocaux ou les véhicules autonomes.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Il souligne toutefois plusieurs défis :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>garantir la sécurité et la qualité des données dans tout l’écosystème,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>éviter les biais et ne pas supposer que les modèles ou paramètres sont anonymes sans une analyse approfondie,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>privilégier une conception « privacy by design » pour réduire les risques et renforcer la confiance entre acteurs.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Ainsi, l’apprentissage fédéré est vu comme une technologie à double levier, favorisant à la fois la protection des données et l’essor de l’économie numérique, en permettant la collaboration sur des données stratégiques sans les partager directement.\u003C/p>\r\n\u003Ch2 id=\"royaume-uni-de-nouvelles-lois-sur-la-protection-des-donnees\">\u003Cstrong>Royaume-Uni : De nouvelles lois sur la protection des données\u003C/strong>\u003C/h2>\r\n\u003Cp>Le Data Use and Access (DUAA) Act de 2025, a reçu le 19 juin, l'accord royal. L’Information Commissioner’s Office (ICO) a publié un article soulignant les bénéfices attendus pour les organisations britanniques.\u003C/p>\r\n\u003Cp>Le DUAA vise à dynamiser l’économie, moderniser les services publics et simplifier le quotidien des Britanniques. Parmi ses principales dispositions figurent le \u003Cstrong>partage des données de santé\u003C/strong> entre établissements (par exemple entre hôpitaux), la \u003Cstrong>conservation des données\u003C/strong> dans le cadre d’enquêtes judiciaires, ainsi que la \u003Cstrong>vérification d’identité en ligne\u003C/strong>, accompagnée de la création d’un \u003Cstrong>label de confiance pour les prestataires\u003C/strong>.\u003C/p>\r\n\u003Ch4 id=\"pour-favoriser-linnovation\">Pour favoriser l’innovation :\u003C/h4>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>Recherche scientifique\u003C/strong> : la DUAA clarifie quand il est possible d’utiliser des données personnelles pour la recherche scientifique, y compris commerciale, et autorise le recours à un « consentement large » couvrant un domaine de recherche.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Dispense d’information individuelle\u003C/strong> : permet de réutiliser des données personnelles pour la recherche sans envoyer de nouvelle notice de confidentialité si cela représenterait un effort disproportionné, à condition de protéger les droits des personnes et de publier ces informations sur son site.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Décisions automatisées\u003C/strong> : ouvre la possibilité d’utiliser toute base légale (y compris l’intérêt légitime) pour des décisions automatisées ayant un impact significatif, sous réserve de garanties appropriées. Attention, cela ne s’applique pas aux données sensibles.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Ch4 id=\"pour-simplifier-la-gestion-des-donnees\">Pour simplifier la gestion des données :\u003C/h4>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>Nouveau fondement pour les « intérêts légitimes reconnus »\u003C/strong> : dispense d’effectuer la mise en balance entre les droits des personnes et l’intérêt poursuivi, par exemple pour la sécurité publique.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Partage facilité avec des autorités\u003C/strong> : permet de transmettre des données personnelles à d’autres organismes publics (comme la police) sans devoir vérifier si cela relève de leurs missions, cette vérification incombant à l’organisme demandeur.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Compatibilité présumée\u003C/strong> : admet que certains usages secondaires (ex. archivage dans l’intérêt public) sont automatiquement compatibles avec la finalité initiale, sans analyse de compatibilité.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>L’ICO met à disposition des \u003Ca href=\"https://ico.org.uk/about-the-ico/what-we-do/legislation-we-cover/data-use-and-access-act-2025/the-data-use-and-access-act-2025-what-does-it-mean-for-organisations/\" rel=\"nofollow\">\u003Cstrong>lignes directrices pratiques\u003C/strong> \u003C/a>afin d’aider les entreprises à appliquer ces nouvelles règles dès leur entrée en vigueur.\u003C/p>\r\n\u003Ch2 id=\"etats-unis-vers-une-regulation-locale-de-lia-apres-la-levee-du-moratoire\">États-Unis : vers une régulation locale de l’IA après la levée du moratoire\u003C/h2>\r\n\u003Cp>Le \u003Cstrong>Sénat américain vote à 99 contre 1 la suppression du moratoire sur l’IA, ouvrant la voie à une régulation par les États.\u003C/strong>\u003C/p>\r\n\u003Cp>Le \u003Cstrong>moratoire américain sur la régulation de l’IA\u003C/strong> désigne une mesure législative adoptée en mai 2025 par la Chambre des représentants des États-Unis, qui vise à \u003Cstrong>interdire à tous les États américains de réguler l’intelligence artificielle pendant 10 ans,\u003C/strong> dans le cadre du projet de loi baptisé « Big Beautiful Bill » par l’administration Trump.\u003C/p>\r\n\u003Cp>\u003Cstrong>Pourquoi?\u003C/strong> Les promoteurs du moratoire avancent que la fragmentation réglementaire actuelle (chaque État pouvant adopter ses propres lois) crée une insécurité juridique et nuit à la compétitivité américaine, en particulier face à l’Europe et à la Chine. Les grandes entreprises technologiques soutiennent ce gel, estimant que des règles trop strictes freineraient l’innovation\u003Ca href=\"https://www.freenews.fr/actu-du-net/intelligence-artificielle/usa-projet-loi-regulation-ia-2025-2\" rel=\"nofollow\">.\u003C/a>\u003C/p>\r\n\u003Cp>Cependant, des critiques issus des deux bords politiques se sont vivement opposés à cette mesure, avertissant qu’une telle interdiction exposerait les consommateurs à des risques et permettrait aux grandes entreprises d’IA d’opérer avec un minimum de responsabilité.\u003C/p>\r\n\u003Cp>L’action décisive du Sénat reflète une prise de conscience croissante du besoin d’une politique technologique agile et réactive, en particulier face à des domaines en évolution rapide comme l’IA.\u003C/p>\r\n\u003Cp>La suppression du moratoire marque un tournant pour l’innovation en IA aux États-Unis. Plutôt qu’une interdiction centralisée et potentiellement restrictive au niveau fédéral, la voie est désormais ouverte pour que les États élaborent leurs propres cadres réglementaires.\u003Cbr />\r\n\u003Cbr />\r\nCela pourrait conduire à une approche plus nuancée de la gouvernance, permettant aux États d’adapter la régulation à leurs contextes économiques, sociaux et technologiques spécifiques.\u003C/p>\r\n\u003Ch2 id=\"texas-adopte-une-loi-sur-la-gouvernance-responsable-de-lia\">\u003Cstrong>Texas adopte une loi sur la gouvernance responsable de l’IA\u003C/strong>\u003C/h2>\r\n\u003Cp>Le gouverneur du Texas a signé, en date du 22 juin, la \u003Cstrong>Texas Responsible Artificial Intelligence Governance Act\u003C/strong>, qui entrera en vigueur le 1er septembre 2025. Cette loi, votée à l’unanimité, vise à instaurer un cadre pour l’utilisation responsable de l’IA dans les agences publiques de l’État.\u003C/p>\r\n\u003Cp>Une fois la loi entrée en vigueur le 1er janvier 2026, le Texas va :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Établir des obligations de base pour les \u003Cstrong>« développeurs » et « utilisateurs » d’IA\u003C/strong>,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Interdire les systèmes d’IA destinés au \u003Cstrong>scoring social\u003C/strong> ou à la \u003Cstrong>discrimination\u003C/strong>,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Créer un \u003Cstrong>premier bac à sable réglementaire sur l’IA\u003C/strong> aux États-Unis,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Confier à l’\u003Cstrong>Attorney General (procureur général)\u003C/strong> l’autorité exclusive pour l’application de la loi, et\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Prendre le pas sur les réglementations locales en matière d’IA grâce à une \u003Cstrong>préemption étendue\u003C/strong>.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Le Texas rejoint ainsi un mouvement plus large aux États-Unis visant à encadrer le développement et le déploiement de l’IA dans le secteur public, en garantissant qu’elle soit utilisée de façon éthique et responsable.\u003C/p>\r\n","Dastranews: Que s'est il passé au mois de juin 2025 ?","L'actualité conformité vue depuis la station Dastra: une veille utile pour celles et ceux qui travaillent au quotidien sur le terrain de la privacy et de l'IA",2652,15,"DastraNews : Que s'est il passé au mois de juin 2025 ?",0,"","fr","dastractu-que-sest-il-passe-au-mois-juin-2025","L'actualité conformité vue depuis la station Dastra: une veille utile pour celles et ceux qui travaillent au quotidien sur le terrain de la Privacy et l'IA. ",false,"Published",{"id":20,"displayName":21,"avatarUrl":22,"bio":23,"blogUrl":23,"color":23,"userId":20,"creationDate":24},20352,"Leïla Sayssa","https://static.dastra.eu/tenant-3/avatar/20352/TDYeY3C8Rz1lLE/dpo-avatar-h01-150.png",null,"2025-03-03T11:08:22","2025-07-01T06:49:17.472","2025-07-01T08:49:17.4156591","2025-08-20T15:26:47.1035993",{"id":29,"name":30,"description":31,"url":32,"color":33,"parentId":23,"count":23,"imageUrl":23,"parent":23,"order":12,"translations":34},2,"Blog","A list of curated articles provided by the community","blog","#28449a",[35,37,40],{"lang":14,"name":30,"description":36},"Une liste d'articles rédigés par la communauté",{"lang":38,"name":30,"description":39},"es","Una lista de artículos escritos por la comunidad",{"lang":41,"name":30,"description":42},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[44,49,70],{"id":29,"name":30,"description":31,"url":32,"color":33,"parentId":23,"count":23,"imageUrl":23,"parent":23,"order":12,"translations":45},[46,47,48],{"lang":14,"name":30,"description":36},{"lang":38,"name":30,"description":39},{"lang":41,"name":30,"description":42},{"id":50,"name":51,"description":52,"url":53,"color":54,"parentId":29,"count":23,"imageUrl":23,"parent":55,"order":12,"translations":60},9,"News","Stay up to date with the latest news from data protection authorities: decisions, fines, guidelines, and regulatory trends in GDPR and privacy.","news","#1676ca",{"id":29,"name":30,"description":31,"url":32,"color":33,"parentId":23,"count":23,"imageUrl":23,"parent":23,"order":12,"translations":56},[57,58,59],{"lang":14,"name":30,"description":36},{"lang":38,"name":30,"description":39},{"lang":41,"name":30,"description":42},[61,64,67],{"lang":14,"name":62,"description":63},"Actualités","Suivez les dernières actualités des autorités de protection des données (CNIL, EDPS, etc.) : décisions, sanctions, lignes directrices et tendances réglementaires en matière de RGPD et de privacy.",{"lang":38,"name":65,"description":66},"Actualidad","Todos los artículos relativos a las autoridades de protección de datos",{"lang":41,"name":68,"description":69},"Nachrichten","Alle Artikel mit Bezug zu Datenschutzbehörden",{"id":71,"name":72,"description":73,"url":74,"color":75,"parentId":29,"count":23,"imageUrl":23,"parent":76,"order":81,"translations":82},69,"Expertise","Gain insights from our experts on GDPR compliance, data protection, and privacy challenges. In-depth articles, professional analysis, and real-world best practices.","indepth","#000000",{"id":29,"name":30,"description":31,"url":32,"color":33,"parentId":23,"count":23,"imageUrl":23,"parent":23,"order":12,"translations":77},[78,79,80],{"lang":14,"name":30,"description":36},{"lang":38,"name":30,"description":39},{"lang":41,"name":30,"description":42},5,[83,85,88],{"lang":14,"name":72,"description":84},"Bénéficiez des conseils de nos experts sur la conformité RGPD, la protection des données et les enjeux privacy. Articles de fond, analyses et retours d’expérience métier.",{"lang":41,"name":86,"description":87},"Fachwissen","Entdecken Sie die Artikel unserer DSGVO-Experten",{"lang":38,"name":89,"description":90},"Experiencia","Descubre los artículos de nuestros expertos en Privacy",[],"https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-original.jpg",[94,95,96,97,98,99,100],"https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-1000.webp","https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20.webp","https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-1500.webp","https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-800.webp","https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-600.webp","https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-300.webp","https://static.dastra.eu/content/c048b887-656d-45d2-a47a-18298d30dd8d/visuel-article-20-100.webp",59391]