L’essor récent de l’intelligence artificielle ne se limite plus à des systèmes capables d’analyser ou de générer de l’information. Une nouvelle génération d’outils, qualifiée d’« intelligence artificielle agentique », franchit un cap supplémentaire : ces systèmes sont capables de planifier, prendre des décisions et exécuter des actions de manière autonome, en interagissant avec différents services, bases de données et environnements numériques.
Par exemple, dans le cadre d'un déplacement professionnel, un agent peut détecter ce déplacement dans un agenda, et initier proactivement les réservations en interagissant avec des services tiers.
L’agent ne se contente pas de répondre à une requête : il peut anticiper des situations, détecter des changements dans son environnement et initier lui-même des actions pour atteindre l’objectif qui lui a été assigné.
Cette évolution technologique ouvre des perspectives considérables pour l’automatisation de nombreux processus organisationnels, y compris ceux impliquant des traitements de données personnelles.
Cependant, cette capacité d’action autonome transforme profondément la nature des risques en matière de protection des données. Contrairement aux systèmes d’IA traditionnels, les agents peuvent accéder simultanément à de multiples sources d’information, conserver des mémoires persistantes et réaliser des actions automatiques, ce qui complexifie la traçabilité des traitements et la maîtrise des flux de données personnelles.
L’Autorité espagnole de protection des données (AEPD) a publié, en février 2026, un guide consacré à l'IA agentique, afin que l’intégration de ces systèmes dans les organisations ne soit pas envisagée comme un simple outil technologique, mais comme une transformation des processus de traitement des données nécessitant une gouvernance renforcée.
L'intelligence artificielle agentique face à la protection des données personnelles
L’IA agentique impacte directement la manière dont les informations personnelles sont collectées, utilisées et surveillées :
- Accès aux données non structurées : les agents peuvent accéder de manière autonome à des e-mails, des comptes rendus de réunion, des documents internes ou des bases de données clients pour enrichir leur contexte et prendre des décisions plus pertinentes. Ce niveau d’accès introduit un risque important de violation du principe de minimisation des données (art. 5.1 RGPD).
Par exemple, dans un système de cinq agents chargés de rechercher des hôtels, il serait techniquement possible que l’IA consulte des informations inutiles (tels que des préférences internes de clients ou des échanges non liés à la recherche) simplement pour améliorer son contexte.
Cette situation rend difficile la preuve auprès d’une autorité de contrôle que seules les données strictement nécessaires ont été utilisées.
- Décisions automatisées : l'autonomie accrue peut mener à des décisions, sans intervention humaine, ayant des effets juridiques ou significatifs sur les personnes (art. 22 RGPD). Le risque réside dans la difficulté de contrôler et de démontrer que ces décisions n’ont pas d’impact défavorable ou discriminatoire, surtout lorsque plusieurs agents collaborent et interagissent avec de multiples sources de données.
Par exemple, dans un processus de recrutement automatisé, un agent pourrait évaluer des candidatures et rejeter automatiquement certains profils sur la base de critères analysés dans différents systèmes internes (CV, tests, notes d’entretien) et externes (réseaux sociaux, recommandations publiques), et pourrait ainsi défavoriser certains profils.
- Confidentialité et initiative des agents : l’autonomie des agents peut générer des risques spécifiques pour la confidentialité des données. La capacité des agents à agir de manière proactive, sans supervision humaine constante, rend difficile la prévision, le contrôle et la traçabilité des échanges de données. Cela expose les organisations à des violations de confidentialité.
Par exemple, un agent pourrait estimer qu’un service tiers offre l’outil idéal pour traiter une information et décider de transférer automatiquement des fichiers internes de l'entreprise vers des serveurs externes inconnus, via des API non auditées.
Mémoire des agents : il existe un risque de conservation et de réutilisation non intentionnelle des données. Les agents d’IA disposent de mémoires multiples :
- Mémoire de gestion : trace de l’activité et des actions de l’agent.
- Mémoire de travail : sémantique (mise à jour des informations), épisodique (archive des événements) et procédurale (règles d’exécution des tâches).
Ce fonctionnement crée un risque spécifique en matière de protection des données personnelles.
Par exemple, si un agent reçoit une mission impliquant des données de santé et que sa mémoire globale conserve ces informations, l’agent peut ensuite réutiliser ces données pour une tâche totalement différente, sans consentement ni finalité liée à la mission initiale.
Face aux risques spécifiques introduits par l’IA agentique, plusieurs recommandations émergent du guide : intégrer ces systèmes dans la gouvernance de l’information, anticiper les biais et erreurs, limiter les accès aux données, structurer les métadonnées ou encore compartimenter la mémoire des agents.
Ces exigences nécessitent des outils capables de structurer, documenter et piloter les traitements de données personnelles.
Comment un outil de gouvernance comme DASTRA peut-il accompagner ces enjeux ?
Plusieurs fonctionnalités de DASTRA peuvent contribuer à répondre aux problématiques soulevées :
Intégration dans la gouvernance des données Les agents d’IA peuvent être intégrés dans le registre des traitements, permettant de documenter leurs finalités, les catégories de données utilisées, les sources d’information et les destinataires. Cette cartographie facilite la visibilité sur les flux de données générés par ces systèmes.
Documentation et traçabilité des risques Les analyses d’impact relatives à la protection des données (AIPD) peuvent être utilisées pour identifier et documenter les risques spécifiques liés à l’IA agentique, comme l’autonomie décisionnelle, la mémoire persistante ou les interactions avec des services tiers.
Gestion des accès et des flux de données En documentant les rôles, les responsabilités et les catégories d’accès aux données, la gouvernance permet de formaliser les politiques d’accès aux informations traitées par les agents et d’identifier les points sensibles dans les flux de données.
Catalogage des données et métadonnées Une cartographie structurée des données facilite l’identification des sources utilisées par les agents, des types de données traitées et de leur sensibilité, ce qui est essentiel lorsque ces systèmes interagissent avec de multiples bases d’information.
Pilotage des mesures de protection Les mesures telles que la pseudonymisation, la limitation des finalités ou le compartimentage des données peuvent être documentées, suivies et auditées.
