[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$fjXJbZsdc1p1YvERNvMTizRCaDVBPywG98BjIs3emni8":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":8,"wordCount":9,"readTime":10,"title":7,"nbDownloads":11,"excerpt":12,"lang":13,"url":14,"intro":15,"featured":4,"state":16,"author":17,"authorId":18,"datePublication":22,"dateCreation":23,"dateUpdate":24,"mainCategory":25,"categories":40,"metaDatas":67,"imageUrl":68,"imageThumbUrls":69,"id":77},false,"Suite à la confirmation qu'aucune pause ne sera introduite dans le calendrier d'entrée en vigueur de l'AI Act, le très attendu [Code de bonnes pratiques en matière d’IA à usage général (GPAI)](https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai) a enfin été publié par la Commission Européenne.\r\n\r\nEn raison de leur large applicabilité et de leur architecture technique, les modèles de GPAI – entraînés sur d’énormes ensembles de données via l’apprentissage auto-supervisé à grande échelle, sont à la base d'une grande partie des systèmes d’IA déployés dans l’UE. \r\n\r\nLeur polyvalence leur permet d’être intégrés dans un vaste éventail d’applications, indépendamment de leur mode de mise sur le marché.\r\n\r\n## Le Code est publié, et maintenant ?\r\n\r\nLe Code reste soumis à l’évaluation des États membres et de la Commission européenne, qui pourra, en dernier ressort, l’approuver par une décision d’adéquation (prise par l’Office de l’IA et le Conseil de l’IA).\r\n\r\n> **Mise à jour :** Dans un[ avis publié le 1er août 2025,](https://digital-strategy.ec.europa.eu/en/library/commission-opinion-assessment-general-purpose-ai-code-practice) la Commission a estimé que le Code > « couvre de manière adéquate les obligations prévues aux articles 53 et 55 de l'AI Act et répond aux objectifs de l’article 56 de l'AI Act ». \r\n>\r\n> Autrement dit, **le Code constitue désormais un outil volontaire adéquat que les organisations peuvent utiliser pour démontrer leur conformité au règlement.** \r\n\r\nLa publication officielle de la liste des signataires aura lieu le **1er août 2025**, soit la veille de l’entrée en application des obligations spécifiques aux modèles d’IA à usage général (GPAI) prévues par l'AI Act, le **2 août 2025**.\r\n\r\n> **Mise à jour :** Cette liste est désormais disponible sur le site de la Commission. Les signataires actuels incluent Amazon, Anthropic, Google, Mistral AI et OpenAI.\r\n\r\nEn parallèle, la Commission doit publier en juillet des **lignes directrices complémentaires** visant à :\r\n\r\n- clarifier la portée des obligations des fournisseurs de GPAI,\r\n\r\n- définir ce qu’est un modèle d’IA à usage général,\r\n\r\n- distinguer les modèles de GPAI présentant des risques systémiques,\r\n\r\n- identifier qui peut être considéré comme fournisseur de GPAI, en particulier dans les cas de fine-tuning ou de modification de modèles existants.\r\n\r\n> **Mise à jour :** La Commission a publié ces lignes directrices afin d’aider les fournisseurs de modèles d’IA à usage général (GPAI) à se conformer au règlement, notamment aux obligations qui entreront en vigueur le 2 août 2025.\r\n\r\n## Points clés\r\n\r\nLe Code est un **instrument volontaire** conçu pour aider les fournisseurs de modèles d’IA à usage général (GPAI), actuels ou futurs, opérant dans l’UE, à démontrer leur conformité avec les **articles 53 et 55 de l'AI Act**.\r\n\r\nIl est le fruit de **plus d’un an de travail collaboratif**, intégrant les contributions de **plus de 1 000 parties prenantes**, **1 600 observations écrites**, et **plus de 40 ateliers d’experts**. Ce code constitue un exemple emblématique de **co-création réglementaire inclusive et communautaire** à l’ère numérique. Pour en savoir plus sur l’élaboration du code et son calendrier, cliquez [ici](https://digital-strategy.ec.europa.eu/en/policies/ai-code-practice).\r\n\r\nLe **principe de proportionnalité** s’applique tout au long du Code. Les obligations de conformité sont adaptées en fonction de la **taille**, des **capacités** et de la **présence sur le marché** du fournisseur GPAI. Cela garantit que les start-up et les PME soient soumises à des attentes **flexibles et proportionnées**, plutôt qu’à des charges disproportionnées,  conformément au **considérant 109** de l’AI Act.\r\n\r\n### Un guide pratique, et non une obligation supplémentaire\r\n\r\nLe Code **ne crée pas de nouvelles obligations juridiques** au-delà de ce qui est déjà exigé par l’AI Act. Il sert plutôt de **guide pratique d’application**, illustrant comment les fournisseurs de modèles GPAI peuvent se conformer aux obligations existantes.\r\n\r\nConscient du rythme rapide des évolutions en matière d’IA, le Code fera l’objet d’une **révision périodique au moins tous les deux ans**. Le bureau de l’IA devrait proposer un mécanisme de mise à jour simplifié pour garantir que le Code reste aligné sur les pratiques de pointe et les nouveaux risques émergents.\r\n\r\nLe Code se divise en **trois chapitres** :\r\n\r\n1. **Transparence**\r\n\r\n2. **Droit d’auteur**\r\n\r\n3. **Sécurité**\r\n\r\nAinsi, lorsque l’on parle du « Code de bonnes pratiques », il s’agit en réalité de l’ensemble de ces **trois volets**, chacun portant sur une thématique distincte.\r\n\r\n### 1- Transparence :\r\n\r\nLe Code définit des attentes claires en matière de **divulgation** concernant la manière dont les modèles **GPAI** sont **entraînés**, **évalués** et **fonctionnent**. Il inclut un **formulaire standardisé de documentation du modèle**, destiné à garantir un partage d’informations cohérent et complet.\r\n\r\n### 2- Droit d’auteur :\r\n\r\nCette section vise à **protéger les droits de propriété intellectuelle**, en particulier en précisant **comment les données d’entraînement sont collectées** et comment les fournisseurs peuvent **se conformer au droit d’auteur de l’UE**.\r\n\r\n> Ces deux premiers piliers s’appliquent à **tous les fournisseurs de modèles GPAI**.\r\n\r\n### 3- Sécurité :\r\n\r\nDestinée aux modèles **GPAI avancés présentant des risques systémiques**, cette section définit les **meilleures pratiques actuelles** pour **atténuer les risques potentiels**, **prévenir les usages abusifs** et **maintenir la confiance du public** dans l’IA. Elle propose des **mesures techniques et organisationnelles** conformes aux normes émergentes.\r\n\r\n## Une adoption volontaire, mais fortement encouragée\r\n\r\nBien que l’adoption du Code ne soit pas obligatoire, il offre quand même une **présomption de conformité** aux articles 53 et 55 de l’AI Act. La signature du Code peut donc **réduire significativement la charge administrative** des fournisseurs de modèles GPAI en proposant une approche alignée et standardisée.\r\n\r\nLes fournisseurs qui choisissent de ne pas signer devront démontrer d’autres moyens de conformité, ce qui impliquera probablement des **exigences probatoires plus strictes** et un **contrôle réglementaire accru**, comme l’a indiqué la Commission. \r\n\r\nCela fait du Code la **référence de facto** pour prouver un comportement responsable et sécurisé sur le marché européen de l’IA, et potentiellement à l’international.\r\n\r\n## L’application et la supervision seront essentielles\r\n\r\nLe Bureau de l’IA devra disposer des **ressources** et de l’**expertise nécessaires** pour évaluer les différents mécanismes de conformité adoptés par les fournisseurs GPAI. \r\n\r\nMaintenant que le texte est finalisé, le Bureau de l’IA doit se concentrer sur la **mise en œuvre opérationnelle du Code**, afin de garantir que les engagements soient traduits en pratiques concrètes et applicables.\r\n\r\n## Répartition des trois chapitres\r\n\r\n### 1. Concernant la transparence\r\n\r\n### \r\n\r\nEn matière de transparence, le Code de pratique GPAI concrétise les obligations des fournisseurs prévues à l’article 53(1)(a) et (b) de l’AI Act, ainsi que dans les annexes XI et XII, en introduisant un [**formulaire standardisé de documentation du modèle**](https://ec.europa.eu/newsroom/dae/redirection/document/118118)**.** \r\n\r\nCe formulaire permet aux fournisseurs GPAI de compiler et de maintenir les informations techniques et de conformité requises de manière cohérente et structurée.\r\n\r\nAu minimum, les signataires doivent élaborer une documentation technique complète comprenant des détails sur les processus d’entraînement et de test du modèle, les résultats des évaluations, ainsi que les informations méthodologiques pertinentes.\r\n\r\nDe plus, ils doivent préparer une documentation destinée aux fournisseurs en aval qui pourraient intégrer le modèle GPAI dans leurs propres systèmes d’IA, afin de leur permettre de comprendre les capacités et les limites du modèle et d’assurer leur propre conformité.\r\n\r\nBien que les grands fournisseurs de GPAI publient déjà parfois des « fiches modèles », leur format et contenu varient souvent selon le secteur ou le cas d’usage. Le formulaire de documentation du modèle vise à s**tandardiser ces divulgations** en les regroupant dans un format unique et uniforme.\r\n\r\n> Les informations à partager obligatoirement comprennent :\r\n>\r\n> - Les coordonnées à rendre publiques via un site web ou autre moyen approprié ;\r\n>\r\n> - La description des méthodologies d’entraînement, de test et de validation ;\r\n>\r\n> - Les types de données utilisées et leur mode de collecte ; la manière dont les données ont été sélectionnées et les méthodologies utilisées pour garantir la qualité et l’intégrité des données ;\r\n>\r\n> - Les mesures mises en place pour la détection des biais ;\r\n>\r\n> - Et, le cas échéant, les droits obtenus pour les données tierces.\r\n\r\nIl est important que les fournisseurs **mettent à jour cette documentation** régulièrement et conservent les versions antérieures pendant au moins dix ans après la mise sur le marché du modèle.\r\n\r\nLe Code précise également que, en cas de fine-tuning ou de modifications apportées à un modèle GPAI existant, les obligations de transparence doivent s’appliquer de manière proportionnée, en se concentrant uniquement sur les changements introduits par le fournisseur.\r\n\r\nEnfin, le Code établit que **le Bureau de l’IA est le point de contact central** pour les autorités nationales compétentes, ce qui signifie que toutes les demandes officielles d’informations doivent être adressées via ce bureau. \r\n\r\n> Ces demandes doivent clairement indiquer leur fondement juridique et leur objet, et se limiter strictement à ce qui est nécessaire à l’exercice des missions de l’autorité.\r\n\r\n### 2. Concernant le droit d’auteur (Copyright)\r\n\r\n**Politique interne en matière de copyright :**Tous les fournisseurs de GPAI doivent adopter et mettre en œuvre une politique interne de conformité au droit d’auteur conforme à la législation européenne. Cette politique doit :\r\n\r\n- Définir des procédures internes claires régissant la gestion des contenus protégés par le droit d'auteur.\r\n\r\n- Désigner les personnes responsables de la supervision et de la mise en œuvre.\r\n\r\n- Être accompagnée d’un résumé public afin d’améliorer la transparence et la confiance des parties prenantes.\r\n\r\n**Usage légal : restrictions clés et mesures de protection**\r\n\r\n- **Interdiction d’utiliser des contenus piratés :**  Les fournisseurs sont interdits de se fournir auprès de sites web reconnus pour violation de copyright (« piraterie »). Une liste dynamique de ces sites sera maintenue et publiée par les autorités européennes.\r\n\r\n- **Mesures de protection pour le web crawling :**  Les outils d’exploration doivent être conçus pour accéder uniquement à des contenus légalement accessibles, ce qui implique de :\r\n\r\n  - Respecter les paywalls, restrictions d’accès et mesures techniques de protection,\r\n\r\n  - Respecter les opt-outs lisibles par machine (ex. robots.txt) ou protocoles similaires,\r\n\r\n  - Intégration d’outils de détection d’opposition permettant de repérer et répondre aux signaux des titulaires de droits.\r\n\r\n- **Diligence raisonnable pour les jeux de données tiers :**  Les fournisseurs doivent vérifier que tout jeu de données externe utilisé pour l’entraînement respecte les règles européennes en matière de droit d'auteur\r\n\r\n- **Transparence et mécanismes de recours :**  Les fournisseurs doivent :\r\n\r\n  - **Divulguer les spécifications des crawlers** ainsi que les mécanismes de détection des objections.\r\n\r\n  - **Maintenir un point de contact** permettant aux titulaires de droits de demander des informations relatives aux modèles, de déposer des plaintes ou de signaler des préoccupations en matière de droit d’auteur.\r\n\r\n  - **Éviter de pénaliser les contenus indexés par les moteurs de recherche** lorsqu’une objection légitime est soulevée.\r\n\r\n---\r\n\r\n**Obligations pour les systèmes en aval**Pour les modèles d’IA à usage général (GPAI) intégrés dans d’autres systèmes d’IA — qu’ils le soient par le fournisseur ou par un tiers — le Code impose :\r\n\r\n- **La mise en œuvre de mesures** destinées à prévenir la génération de contenus portant atteinte au droit d’auteur.\r\n\r\n- **L’inclusion d’interdictions explicites** dans les politiques d’utilisation acceptable (Acceptable Use Policies), afin de prohiber les usages contrefaisants.\r\n\r\nCes obligations s’appliquent **indépendamment de l’identité de l’utilisateur final**, garantissant ainsi une utilisation responsable tout au long de la chaîne d’approvisionnement de l’IA.\r\n\r\n---\r\n\r\n**Divulgation des résumés des contenus d’entraînement**Afin de permettre aux titulaires de droits d’identifier l’utilisation potentielle de leurs œuvres, les fournisseurs doivent publier des **résumés des données d’entraînement** qui soient :\r\n\r\n- **Suffisamment détaillés** pour permettre une évaluation et, le cas échéant, l’introduction d’objections ou de demandes de retrait.\r\n\r\n- **Publiquement accessibles**, dans le cadre des engagements de transparence du fournisseur.\r\n\r\n### 3. Concernant la sécurité \r\n\r\nLe chapitre **Sécurité** du Code **s’applique spécifiquement aux modèles d’IA à usage général susceptibles de présenter [des risques systémiques](https://www.dastra.eu/fr/guide/risque-systemique/59463).**Les fournisseurs doivent mettre en œuvre un cadre complet de sécurité conformément à l’[article 55 de l’AI Act](https://artificialintelligenceact.eu/article/55/), comprenant notamment :\r\n\r\n- La réalisation d’évaluations approfondies des risques,\r\n\r\n- Des évaluations régulières du modèle,\r\n\r\n- La mise en place d’un suivi post-commercialisation,\r\n\r\n- Le signalement rapide des incidents,\r\n\r\n- La facilitation des évaluations externes.\r\n\r\n---\r\n\r\n**Évaluations et gestion des risques :**\r\n\r\n- Les fournisseurs doivent réaliser des évaluations, y compris des tests adverses, pour détecter et atténuer les risques systémiques, en documentant les résultats.\r\n\r\n- Tout incident grave ou vulnérabilité détectée doit être signalé sans délai au bureau de l'IA et aux autorités nationales compétentes, avec documentation des mesures correctives prises.\r\n\r\n- Ils doivent garantir que leurs systèmes disposent de protections en cybersécurité adéquates.\r\n\r\n---\r\n\r\n**Identification et gestion proactive des risques systémiques :**Les signataires doivent aller au-delà en identifiant activement, quantifiant et gérant les risques systémiques liés à certains modèles GPAI, ce qui inclut :\r\n\r\n- Estimer quand un modèle peut dépasser les seuils de risque applicables,\r\n\r\n- Définir ce qui constitue un niveau acceptable de risque systémique,\r\n\r\n- Maintenir des stratégies claires d’atténuation,\r\n\r\n- Documenter de manière transparente les contrôles de sécurité existants.\r\n\r\nUne fois les risques identifiés, les fournisseurs doivent vérifier s’ils restent dans les limites internes de tolérance au risque, et appliquer des mesures d’atténuation si nécessaire jusqu’à ce que le risque soit ramené à un niveau acceptable.\r\n\r\n---\r\n\r\n**Approche proactive et évolutive de la gestion des risques :**Le Code encourage des stratégies de gouvernance des risques flexibles et prospectives, capables de s’adapter aux menaces émergentes et aux évolutions des capacités des modèles.\r\n\r\n---\r\n\r\n**Plus de documentation, moins de responsabilité intégrée ?**Pour l’instant, la gestion des risques est souvent perçue comme un processus parallèle au développement de l’IA, plutôt qu’intégrée au cycle de vie même du modèle. Bien que les outils comme les rapports de modèle et la surveillance post-commercialisation facilitent la conformité, ils peuvent aussi engendrer des procédures lourdes sans forcément améliorer les résultats techniques ou éthiques.\r\n\r\nLe véritable changement envisagé par le Code est d’intégrer la conscience des risques au cœur du développement des systèmes d’IA, notamment :\r\n\r\n- Avant la sélection des données d’entraînement,\r\n\r\n- Avant la conception des architectures de modèles,\r\n\r\n- Avant les décisions de déploiement.\r\n\r\nIntégrer cet état d’esprit tout au long du cycle de développement, au lieu de s’appuyer uniquement sur la conformité a posteriori , sera essentiel pour construire des systèmes d’IA plus fiables. \r\n\r\n---\r\n\r\n**Envie d’en savoir plus sur comment Dastra peut vous aider à vous conformer à l’AI Act ?[ Cliquez ici](https://www.dastra.eu/fr/contacts/demo).**","\u003Cp>Suite à la confirmation qu'aucune pause ne sera introduite dans le calendrier d'entrée en vigueur de l'AI Act, le très attendu \u003Ca href=\"https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai\" rel=\"nofollow\">Code de bonnes pratiques en matière d’IA à usage général (GPAI)\u003C/a> a enfin été publié par la Commission Européenne.\u003C/p>\r\n\u003Cp>En raison de leur large applicabilité et de leur architecture technique, les modèles de GPAI – entraînés sur d’énormes ensembles de données via l’apprentissage auto-supervisé à grande échelle, sont à la base d'une grande partie des systèmes d’IA déployés dans l’UE.\u003C/p>\r\n\u003Cp>Leur polyvalence leur permet d’être intégrés dans un vaste éventail d’applications, indépendamment de leur mode de mise sur le marché.\u003C/p>\r\n\u003Ch2 id=\"le-code-est-publie-et-maintenant\">Le Code est publié, et maintenant ?\u003C/h2>\r\n\u003Cp>Le Code reste soumis à l’évaluation des États membres et de la Commission européenne, qui pourra, en dernier ressort, l’approuver par une décision d’adéquation (prise par l’Office de l’IA et le Conseil de l’IA).\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>\u003Cstrong>Mise à jour :\u003C/strong> Dans un\u003Ca href=\"https://digital-strategy.ec.europa.eu/en/library/commission-opinion-assessment-general-purpose-ai-code-practice\" rel=\"nofollow\"> avis publié le 1er août 2025,\u003C/a> la Commission a estimé que le Code \u003Cbr />\r\n« couvre de manière adéquate les obligations prévues aux articles 53 et 55 de l'AI Act et répond aux objectifs de l’article 56 de l'AI Act ».\u003C/p>\r\n\u003Cp>Autrement dit, \u003Cstrong>le Code constitue désormais un outil volontaire adéquat que les organisations peuvent utiliser pour démontrer leur conformité au règlement.\u003C/strong>\u003C/p>\r\n\u003C/blockquote>\r\n\u003Cp>La publication officielle de la liste des signataires aura lieu le \u003Cstrong>1er août 2025\u003C/strong>, soit la veille de l’entrée en application des obligations spécifiques aux modèles d’IA à usage général (GPAI) prévues par l'AI Act, le \u003Cstrong>2 août 2025\u003C/strong>.\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>\u003Cstrong>Mise à jour :\u003C/strong> Cette liste est désormais disponible sur le site de la Commission. Les signataires actuels incluent Amazon, Anthropic, Google, Mistral AI et OpenAI.\u003C/p>\r\n\u003C/blockquote>\r\n\u003Cp>En parallèle, la Commission doit publier en juillet des \u003Cstrong>lignes directrices complémentaires\u003C/strong> visant à :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>clarifier la portée des obligations des fournisseurs de GPAI,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>définir ce qu’est un modèle d’IA à usage général,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>distinguer les modèles de GPAI présentant des risques systémiques,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>identifier qui peut être considéré comme fournisseur de GPAI, en particulier dans les cas de fine-tuning ou de modification de modèles existants.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cblockquote>\r\n\u003Cp>\u003Cstrong>Mise à jour :\u003C/strong> La Commission a publié ces lignes directrices afin d’aider les fournisseurs de modèles d’IA à usage général (GPAI) à se conformer au règlement, notamment aux obligations qui entreront en vigueur le 2 août 2025.\u003C/p>\r\n\u003C/blockquote>\r\n\u003Ch2 id=\"points-cles\">Points clés\u003C/h2>\r\n\u003Cp>Le Code est un \u003Cstrong>instrument volontaire\u003C/strong> conçu pour aider les fournisseurs de modèles d’IA à usage général (GPAI), actuels ou futurs, opérant dans l’UE, à démontrer leur conformité avec les \u003Cstrong>articles 53 et 55 de l'AI Act\u003C/strong>.\u003C/p>\r\n\u003Cp>Il est le fruit de \u003Cstrong>plus d’un an de travail collaboratif\u003C/strong>, intégrant les contributions de \u003Cstrong>plus de 1 000 parties prenantes\u003C/strong>, \u003Cstrong>1 600 observations écrites\u003C/strong>, et \u003Cstrong>plus de 40 ateliers d’experts\u003C/strong>. Ce code constitue un exemple emblématique de \u003Cstrong>co-création réglementaire inclusive et communautaire\u003C/strong> à l’ère numérique. Pour en savoir plus sur l’élaboration du code et son calendrier, cliquez \u003Ca href=\"https://digital-strategy.ec.europa.eu/en/policies/ai-code-practice\" rel=\"nofollow\">ici\u003C/a>.\u003C/p>\r\n\u003Cp>Le \u003Cstrong>principe de proportionnalité\u003C/strong> s’applique tout au long du Code. \u003Cbr />\r\n\u003Cbr />\r\nLes obligations de conformité sont adaptées en fonction de la \u003Cstrong>taille\u003C/strong>, des \u003Cstrong>capacités\u003C/strong> et de la \u003Cstrong>présence sur le marché\u003C/strong> du fournisseur GPAI. Cela garantit que les start-up et les PME soient soumises à des attentes \u003Cstrong>flexibles et proportionnées\u003C/strong>, plutôt qu’à des charges disproportionnées,  conformément au \u003Cstrong>considérant 109\u003C/strong> de l’AI Act.\u003C/p>\r\n\u003Ch3 id=\"un-guide-pratique-et-non-une-obligation-supplementaire\">Un guide pratique, et non une obligation supplémentaire\u003C/h3>\r\n\u003Cp>Le Code \u003Cstrong>ne crée pas de nouvelles obligations juridiques\u003C/strong> au-delà de ce qui est déjà exigé par l’AI Act. Il sert plutôt de \u003Cstrong>guide pratique d’application\u003C/strong>, illustrant comment les fournisseurs de modèles GPAI peuvent se conformer aux obligations existantes.\u003C/p>\r\n\u003Cp>Conscient du rythme rapide des évolutions en matière d’IA, le Code fera l’objet d’une \u003Cstrong>révision périodique au moins tous les deux ans\u003C/strong>. Le bureau de l’IA devrait proposer un mécanisme de mise à jour simplifié pour garantir que le Code reste aligné sur les pratiques de pointe et les nouveaux risques émergents.\u003C/p>\r\n\u003Cp>Le Code se divise en \u003Cstrong>trois chapitres\u003C/strong> :\u003C/p>\r\n\u003Col>\r\n\u003Cli>\u003Cp>\u003Cstrong>Transparence\u003C/strong>\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Droit d’auteur\u003C/strong>\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Sécurité\u003C/strong>\u003C/p>\r\n\u003C/li>\r\n\u003C/ol>\r\n\u003Cp>Ainsi, lorsque l’on parle du « Code de bonnes pratiques », il s’agit en réalité de l’ensemble de ces \u003Cstrong>trois volets\u003C/strong>, chacun portant sur une thématique distincte.\u003C/p>\r\n\u003Ch3 id=\"transparence\">1- Transparence :\u003C/h3>\r\n\u003Cp>Le Code définit des attentes claires en matière de \u003Cstrong>divulgation\u003C/strong> concernant la manière dont les modèles \u003Cstrong>GPAI\u003C/strong> sont \u003Cstrong>entraînés\u003C/strong>, \u003Cstrong>évalués\u003C/strong> et \u003Cstrong>fonctionnent\u003C/strong>. Il inclut un \u003Cstrong>formulaire standardisé de documentation du modèle\u003C/strong>, destiné à garantir un partage d’informations cohérent et complet.\u003C/p>\r\n\u003Ch3 id=\"droit-dauteur\">2- Droit d’auteur :\u003C/h3>\r\n\u003Cp>Cette section vise à \u003Cstrong>protéger les droits de propriété intellectuelle\u003C/strong>, en particulier en précisant \u003Cstrong>comment les données d’entraînement sont collectées\u003C/strong> et comment les fournisseurs peuvent \u003Cstrong>se conformer au droit d’auteur de l’UE\u003C/strong>.\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>Ces deux premiers piliers s’appliquent à \u003Cstrong>tous les fournisseurs de modèles GPAI\u003C/strong>.\u003C/p>\r\n\u003C/blockquote>\r\n\u003Ch3 id=\"securite\">3- Sécurité :\u003C/h3>\r\n\u003Cp>Destinée aux modèles \u003Cstrong>GPAI avancés présentant des risques systémiques\u003C/strong>, cette section définit les \u003Cstrong>meilleures pratiques actuelles\u003C/strong> pour \u003Cstrong>atténuer les risques potentiels\u003C/strong>, \u003Cstrong>prévenir les usages abusifs\u003C/strong> et \u003Cstrong>maintenir la confiance du public\u003C/strong> dans l’IA. Elle propose des \u003Cstrong>mesures techniques et organisationnelles\u003C/strong> conformes aux normes émergentes.\u003C/p>\r\n\u003Ch2 id=\"une-adoption-volontaire-mais-fortement-encouragee\">Une adoption volontaire, mais fortement encouragée\u003C/h2>\r\n\u003Cp>Bien que l’adoption du Code ne soit pas obligatoire, il offre quand même une \u003Cstrong>présomption de conformité\u003C/strong> aux articles 53 et 55 de l’AI Act. La signature du Code peut donc \u003Cstrong>réduire significativement la charge administrative\u003C/strong> des fournisseurs de modèles GPAI en proposant une approche alignée et standardisée.\u003C/p>\r\n\u003Cp>Les fournisseurs qui choisissent de ne pas signer devront démontrer d’autres moyens de conformité, ce qui impliquera probablement des \u003Cstrong>exigences probatoires plus strictes\u003C/strong> et un \u003Cstrong>contrôle réglementaire accru\u003C/strong>, comme l’a indiqué la Commission.\u003C/p>\r\n\u003Cp>Cela fait du Code la \u003Cstrong>référence de facto\u003C/strong> pour prouver un comportement responsable et sécurisé sur le marché européen de l’IA, et potentiellement à l’international.\u003C/p>\r\n\u003Ch2 id=\"lapplication-et-la-supervision-seront-essentielles\">L’application et la supervision seront essentielles\u003C/h2>\r\n\u003Cp>Le Bureau de l’IA devra disposer des \u003Cstrong>ressources\u003C/strong> et de l’\u003Cstrong>expertise nécessaires\u003C/strong> pour évaluer les différents mécanismes de conformité adoptés par les fournisseurs GPAI.\u003C/p>\r\n\u003Cp>Maintenant que le texte est finalisé, le Bureau de l’IA doit se concentrer sur la \u003Cstrong>mise en œuvre opérationnelle du Code\u003C/strong>, afin de garantir que les engagements soient traduits en pratiques concrètes et applicables.\u003C/p>\r\n\u003Ch2 id=\"repartition-des-trois-chapitres\">Répartition des trois chapitres\u003C/h2>\r\n\u003Ch3 id=\"concernant-la-transparence\">1. Concernant la transparence\u003C/h3>\r\n\u003Ch3 id=\"section\">\u003C/h3>\r\n\u003Cp>En matière de transparence, le Code de pratique GPAI concrétise les obligations des fournisseurs prévues à l’article 53(1)(a) et (b) de l’AI Act, ainsi que dans les annexes XI et XII, en introduisant un \u003Ca href=\"https://ec.europa.eu/newsroom/dae/redirection/document/118118\" rel=\"nofollow\">\u003Cstrong>formulaire standardisé de documentation du modèle\u003C/strong>\u003C/a>\u003Cstrong>.\u003C/strong>\u003C/p>\r\n\u003Cp>Ce formulaire permet aux fournisseurs GPAI de compiler et de maintenir les informations techniques et de conformité requises de manière cohérente et structurée.\u003C/p>\r\n\u003Cp>Au minimum, les signataires doivent élaborer une documentation technique complète comprenant des détails sur les processus d’entraînement et de test du modèle, les résultats des évaluations, ainsi que les informations méthodologiques pertinentes.\u003C/p>\r\n\u003Cp>De plus, ils doivent préparer une documentation destinée aux fournisseurs en aval qui pourraient intégrer le modèle GPAI dans leurs propres systèmes d’IA, afin de leur permettre de comprendre les capacités et les limites du modèle et d’assurer leur propre conformité.\u003C/p>\r\n\u003Cp>Bien que les grands fournisseurs de GPAI publient déjà parfois des « fiches modèles », leur format et contenu varient souvent selon le secteur ou le cas d’usage. Le formulaire de documentation du modèle vise à s\u003Cstrong>tandardiser ces divulgations\u003C/strong> en les regroupant dans un format unique et uniforme.\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>Les informations à partager obligatoirement comprennent :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Les coordonnées à rendre publiques via un site web ou autre moyen approprié ;\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>La description des méthodologies d’entraînement, de test et de validation ;\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Les types de données utilisées et leur mode de collecte ; la manière dont les données ont été sélectionnées et les méthodologies utilisées pour garantir la qualité et l’intégrité des données ;\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Les mesures mises en place pour la détection des biais ;\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Et, le cas échéant, les droits obtenus pour les données tierces.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003C/blockquote>\r\n\u003Cp>Il est important que les fournisseurs \u003Cstrong>mettent à jour cette documentation\u003C/strong> régulièrement et conservent les versions antérieures pendant au moins dix ans après la mise sur le marché du modèle.\u003C/p>\r\n\u003Cp>Le Code précise également que, en cas de fine-tuning ou de modifications apportées à un modèle GPAI existant, les obligations de transparence doivent s’appliquer de manière proportionnée, en se concentrant uniquement sur les changements introduits par le fournisseur.\u003C/p>\r\n\u003Cp>Enfin, le Code établit que \u003Cstrong>le Bureau de l’IA est le point de contact central\u003C/strong> pour les autorités nationales compétentes, ce qui signifie que toutes les demandes officielles d’informations doivent être adressées via ce bureau.\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>Ces demandes doivent clairement indiquer leur fondement juridique et leur objet, et se limiter strictement à ce qui est nécessaire à l’exercice des missions de l’autorité.\u003C/p>\r\n\u003C/blockquote>\r\n\u003Ch3 id=\"concernant-le-droit-dauteur-copyright\">2. Concernant le droit d’auteur (Copyright)\u003C/h3>\r\n\u003Cp>\u003Cbr />\r\n\u003Cstrong>Politique interne en matière de copyright :\u003C/strong>\u003Cbr />\r\nTous les fournisseurs de GPAI doivent adopter et mettre en œuvre une politique interne de conformité au droit d’auteur conforme à la législation européenne. Cette politique doit :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Définir des procédures internes claires régissant la gestion des contenus protégés par le droit d'auteur.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Désigner les personnes responsables de la supervision et de la mise en œuvre.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Être accompagnée d’un résumé public afin d’améliorer la transparence et la confiance des parties prenantes.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>\u003Cstrong>Usage légal : restrictions clés et mesures de protection\u003C/strong>\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>Interdiction d’utiliser des contenus piratés :\u003C/strong>\u003Cbr />\r\nLes fournisseurs sont interdits de se fournir auprès de sites web reconnus pour violation de copyright (« piraterie »). Une liste dynamique de ces sites sera maintenue et publiée par les autorités européennes.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Mesures de protection pour le web crawling :\u003C/strong>\u003Cbr />\r\nLes outils d’exploration doivent être conçus pour accéder uniquement à des contenus légalement accessibles, ce qui implique de :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Respecter les paywalls, restrictions d’accès et mesures techniques de protection,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Respecter les opt-outs lisibles par machine (ex. robots.txt) ou protocoles similaires,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Intégration d’outils de détection d’opposition permettant de repérer et répondre aux signaux des titulaires de droits.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Diligence raisonnable pour les jeux de données tiers :\u003C/strong>\u003Cbr />\r\nLes fournisseurs doivent vérifier que tout jeu de données externe utilisé pour l’entraînement respecte les règles européennes en matière de droit d'auteur\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Transparence et mécanismes de recours :\u003C/strong>\u003Cbr />\r\nLes fournisseurs doivent :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>Divulguer les spécifications des crawlers\u003C/strong> ainsi que les mécanismes de détection des objections.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Maintenir un point de contact\u003C/strong> permettant aux titulaires de droits de demander des informations relatives aux modèles, de déposer des plaintes ou de signaler des préoccupations en matière de droit d’auteur.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Éviter de pénaliser les contenus indexés par les moteurs de recherche\u003C/strong> lorsqu’une objection légitime est soulevée.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Obligations pour les systèmes en aval\u003C/strong>\u003Cbr />\r\nPour les modèles d’IA à usage général (GPAI) intégrés dans d’autres systèmes d’IA — qu’ils le soient par le fournisseur ou par un tiers — le Code impose :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>La mise en œuvre de mesures\u003C/strong> destinées à prévenir la génération de contenus portant atteinte au droit d’auteur.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>L’inclusion d’interdictions explicites\u003C/strong> dans les politiques d’utilisation acceptable (Acceptable Use Policies), afin de prohiber les usages contrefaisants.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Ces obligations s’appliquent \u003Cstrong>indépendamment de l’identité de l’utilisateur final\u003C/strong>, garantissant ainsi une utilisation responsable tout au long de la chaîne d’approvisionnement de l’IA.\u003C/p>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Divulgation des résumés des contenus d’entraînement\u003C/strong>\u003Cbr />\r\nAfin de permettre aux titulaires de droits d’identifier l’utilisation potentielle de leurs œuvres, les fournisseurs doivent publier des \u003Cstrong>résumés des données d’entraînement\u003C/strong> qui soient :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>Suffisamment détaillés\u003C/strong> pour permettre une évaluation et, le cas échéant, l’introduction d’objections ou de demandes de retrait.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Publiquement accessibles\u003C/strong>, dans le cadre des engagements de transparence du fournisseur.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Ch3 id=\"concernant-la-securite\">3. Concernant la sécurité\u003C/h3>\r\n\u003Cp>\u003Cbr />\r\nLe chapitre \u003Cstrong>Sécurité\u003C/strong> du Code \u003Cstrong>s’applique spécifiquement aux modèles d’IA à usage général susceptibles de présenter \u003Ca href=\"https://www.dastra.eu/fr/guide/risque-systemique/59463\">des risques systémiques\u003C/a>.\u003C/strong>\u003Cbr />\r\n\u003Cbr />\r\nLes fournisseurs doivent mettre en œuvre un cadre complet de sécurité conformément à l’\u003Ca href=\"https://artificialintelligenceact.eu/article/55/\" rel=\"nofollow\">article 55 de l’AI Act\u003C/a>, comprenant notamment :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>La réalisation d’évaluations approfondies des risques,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Des évaluations régulières du modèle,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>La mise en place d’un suivi post-commercialisation,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Le signalement rapide des incidents,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>La facilitation des évaluations externes.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Évaluations et gestion des risques :\u003C/strong>\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Les fournisseurs doivent réaliser des évaluations, y compris des tests adverses, pour détecter et atténuer les risques systémiques, en documentant les résultats.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Tout incident grave ou vulnérabilité détectée doit être signalé sans délai au bureau de l'IA et aux autorités nationales compétentes, avec documentation des mesures correctives prises.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Ils doivent garantir que leurs systèmes disposent de protections en cybersécurité adéquates.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Identification et gestion proactive des risques systémiques :\u003C/strong>\u003Cbr />\r\nLes signataires doivent aller au-delà en identifiant activement, quantifiant et gérant les risques systémiques liés à certains modèles GPAI, ce qui inclut :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Estimer quand un modèle peut dépasser les seuils de risque applicables,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Définir ce qui constitue un niveau acceptable de risque systémique,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Maintenir des stratégies claires d’atténuation,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Documenter de manière transparente les contrôles de sécurité existants.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Une fois les risques identifiés, les fournisseurs doivent vérifier s’ils restent dans les limites internes de tolérance au risque, et appliquer des mesures d’atténuation si nécessaire jusqu’à ce que le risque soit ramené à un niveau acceptable.\u003C/p>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Approche proactive et évolutive de la gestion des risques :\u003C/strong>\u003Cbr />\r\nLe Code encourage des stratégies de gouvernance des risques flexibles et prospectives, capables de s’adapter aux menaces émergentes et aux évolutions des capacités des modèles.\u003C/p>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Plus de documentation, moins de responsabilité intégrée ?\u003C/strong>\u003Cbr />\r\nPour l’instant, la gestion des risques est souvent perçue comme un processus parallèle au développement de l’IA, plutôt qu’intégrée au cycle de vie même du modèle. Bien que les outils comme les rapports de modèle et la surveillance post-commercialisation facilitent la conformité, ils peuvent aussi engendrer des procédures lourdes sans forcément améliorer les résultats techniques ou éthiques.\u003C/p>\r\n\u003Cp>Le véritable changement envisagé par le Code est d’intégrer la conscience des risques au cœur du développement des systèmes d’IA, notamment :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>Avant la sélection des données d’entraînement,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Avant la conception des architectures de modèles,\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>Avant les décisions de déploiement.\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Intégrer cet état d’esprit tout au long du cycle de développement, au lieu de s’appuyer uniquement sur la conformité a posteriori , sera essentiel pour construire des systèmes d’IA plus fiables.\u003C/p>\r\n\u003Chr />\r\n\u003Cp>\u003Cstrong>Envie d’en savoir plus sur comment Dastra peut vous aider à vous conformer à l’AI Act ?\u003Ca href=\"https://www.dastra.eu/fr/contacts/demo\"> Cliquez ici\u003C/a>.\u003C/strong>\u003C/p>\r\n","Code de bonnes pratiques GPAI: ce que vous devez savoir","AI Act : le Code de conduite GPAI est disponible. Résumés, obligations et implications pour les fournisseurs d’IA à usage général.",2469,14,0,null,"fr","code-de-conduite-pour-lia-a-usage-general-ce-que-vous-devez-savoir","Quelques jours après l’annonce qu’aucune pause ne sera prévue dans la mise en œuvre de l'AI Act, le très attendu Code de bonnes pratiques en matière d’IA à usage général est enfin là. Cliquez ici pour découvrir les points essentiels !","Published",{"id":18,"displayName":19,"avatarUrl":20,"bio":12,"blogUrl":12,"color":12,"userId":18,"creationDate":21},20352,"Leïla Sayssa","https://static.dastra.eu/tenant-3/avatar/20352/TDYeY3C8Rz1lLE/dpo-avatar-h01-150.png","2025-03-03T11:08:22","2025-07-18T08:02:00","2025-08-01T08:02:16.2608325","2025-08-19T15:06:07.7348578",{"id":26,"name":27,"description":28,"url":29,"color":30,"parentId":12,"count":12,"imageUrl":12,"parent":12,"order":11,"translations":31},2,"Blog","A list of curated articles provided by the community","blog","#28449a",[32,34,37],{"lang":13,"name":27,"description":33},"Une liste d'articles rédigés par la communauté",{"lang":35,"name":27,"description":36},"es","Una lista de artículos escritos por la comunidad",{"lang":38,"name":27,"description":39},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[41,46],{"id":26,"name":27,"description":28,"url":29,"color":30,"parentId":12,"count":12,"imageUrl":12,"parent":12,"order":11,"translations":42},[43,44,45],{"lang":13,"name":27,"description":33},{"lang":35,"name":27,"description":36},{"lang":38,"name":27,"description":39},{"id":47,"name":48,"description":49,"url":50,"color":51,"parentId":26,"count":12,"imageUrl":12,"parent":52,"order":57,"translations":58},69,"Expertise","Gain insights from our experts on GDPR compliance, data protection, and privacy challenges. In-depth articles, professional analysis, and real-world best practices.","indepth","#000000",{"id":26,"name":27,"description":28,"url":29,"color":30,"parentId":12,"count":12,"imageUrl":12,"parent":12,"order":11,"translations":53},[54,55,56],{"lang":13,"name":27,"description":33},{"lang":35,"name":27,"description":36},{"lang":38,"name":27,"description":39},5,[59,61,64],{"lang":13,"name":48,"description":60},"Bénéficiez des conseils de nos experts sur la conformité RGPD, la protection des données et les enjeux privacy. Articles de fond, analyses et retours d’expérience métier.",{"lang":38,"name":62,"description":63},"Fachwissen","Entdecken Sie die Artikel unserer DSGVO-Experten",{"lang":35,"name":65,"description":66},"Experiencia","Descubre los artículos de nuestros expertos en Privacy",[],"https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-original.jpg",[70,71,72,73,74,75,76],"https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-1000.webp","https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1.webp","https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-1500.webp","https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-800.webp","https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-600.webp","https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-300.webp","https://static.dastra.eu/content/4d7ff478-946a-4ea7-854c-b3a07f9e4eb0/visuel-article-1-100.webp",59490]