[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$fpm6jZYFI7yWlekuZkn3vezrOsgRkSPycnir3hu98aXo":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":8,"wordCount":9,"readTime":10,"title":11,"nbDownloads":12,"excerpt":13,"lang":14,"url":15,"intro":16,"featured":4,"state":17,"author":18,"authorId":19,"datePublication":23,"dateCreation":24,"dateUpdate":25,"mainCategory":26,"categories":41,"metaDatas":47,"imageUrl":48,"imageThumbUrls":49,"id":57},false,"Il s'est écoulé près d'un an depuis l'entrée en vigueur officielle de la loi européenne sur l'intelligence artificielle (IA). Bien que certains jalons, tels que la publication du Code de bonnes pratiques pour l'IA d'usage général (GPAI), aient connu des retards, la prochaine étape majeure est désormais imminente.\r\n\r\nÀ compter du 2 août 2025, plusieurs dispositions essentielles du Règlement (UE) 2024/1689 ou Règlement sur l’Intelligence Artificielle (« RIA ») sont entrées en vigueur et acquièrent désormais un caractère juridiquement contraignant. Ces dispositions comprennent notamment :\r\n\r\n- **Les règles de gouvernance, à savoir la gouvernance au niveau de l'Union et les autorités nationales compétentes ; et**\r\n\r\n- **Les obligations concernant les modèles d'IA d'usage général.**\r\n\r\nCi-dessous, nous explorons la signification de ces changements en pratique et ce que les organisations devraient faire pour se préparer.\r\n\r\nPour plus d'informations sur le calendrier, consultez [le calendrier officiel.](https://artificialintelligenceact.eu/implementation-timeline/)\r\n\r\n## Concernant les obligations des fournisseurs de GPAI\r\n\r\nLes fournisseurs de modèles GPAI, qu'ils soient développeurs originaux ou ceux qui modifient substantiellement le modèle GPAI avant de le mettre sur le marché, doivent se conformer au [chapitre V de l'AI Act](https://artificialintelligenceact.eu/fr/chapter/5/) à partir du 2 août.\r\n\r\nDécouvrez dans [cet article si vous êtes considéré comme un fournisseur de GPAI.](https://www.dastra.eu/fr/guide/construire-un-gpai-vous-pourriez-etre-le-fournisseur/59486)\r\n\r\n\u003Ctable style=\"min-width: 100px\">\r\n\u003Ccolgroup>\u003Ccol style=\"min-width: 25px\">\u003Ccol style=\"min-width: 25px\">\u003Ccol style=\"min-width: 25px\">\u003Ccol style=\"min-width: 25px\">\u003C/colgroup>\u003Ctbody>\u003Ctr>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Catégorie de modèle\u003C/strong>\u003C/p>\u003C/th>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Champ d'application &amp; définition\u003C/strong>\u003C/p>\u003C/th>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Assise légale\u003C/strong>\u003C/p>\u003C/th>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Obligations du fournisseur\u003C/strong>\u003C/p>\u003C/th>\u003C/tr>\u003Ctr>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Modèle d'IA à usage général (\u003C/strong>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://www.dastra.eu/fr/guide/general-purpose-ai-gpai-model/59460\">\u003Cstrong>GPAI)\u003C/strong>\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"nofollow\" href=\"https://artificialintelligenceact.eu/fr/article/3/\">Article 3(63) de l'AI Act\u003C/a>\u003C/p>\u003Cul class=\"tight\" data-tight=\"true\">\u003Cli>\u003Cp>La quantité cumulée de calcul utilisée pour son entraînement mesurée en opérations en virgule flottante (FLOP) est supérieure à 10^23.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Le modèle est capable d'effectuer une large gamme de tâches distinctes\u003C/strong> telles que générer du langage (texte ou audio), text-to-image ou text-to-video.\u003C/p>\u003C/li>\u003C/ul>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://artificialintelligenceact.eu/fr/article/53/\">Article 53 de l'AI Act\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cul class=\"tight\" data-tight=\"true\">\u003Cli>\u003Cp>Développer et maintenir une \u003Cstrong>documentation technique\u003C/strong> à jour qui couvre les \u003Cstrong>processus de formation et de test\u003C/strong>, ainsi que les \u003Cstrong>résultats des évaluations de performance\u003C/strong>. Cette documentation doit être mise à disposition sur demande auprès du Bureau de l'IA et des autorités compétentes.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Elaborer des \u003Cstrong>documents et des informations \u003C/strong>pour les fournisseurs en aval souhaitant \u003Cstrong>intégrer le modèle\u003C/strong> dans leurs propres systèmes d'IA.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Mettre en œuvre et maintenir une \u003Cstrong>politique de conformité\u003C/strong> à la \u003Cstrong>loi européenne sur le droit d'auteur\u003C/strong> qui garantit l'utilisation légale de contenus protégés lors du développement du modèle.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Rendre public un résumé détaillé\u003C/strong> du \u003Cstrong>contenu des données de formation\u003C/strong>, en se basant sur le \u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://digital-strategy.ec.europa.eu/fr/library/explanatory-notice-and-template-public-summary-training-content-general-purpose-ai-models\">\u003Cstrong>modèle du Bureau de l'IA de l'UE\u003C/strong>, \u003C/a>pour garantir transparence et responsabilité.\u003C/p>\u003C/li>\u003C/ul>\u003C/td>\u003C/tr>\u003Ctr>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Modèle GPAI présentant un \u003C/strong>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://www.dastra.eu/en/guide/systemic-risk/59461\">\u003Cstrong>risque systémique\u003C/strong>\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://artificialintelligenceact.eu/article/3/\">Article 3(65) de l'AI Act\u003C/a>\u003C/p>\u003Cul>\u003Cli>\u003Cp>possède des \u003Cstrong>capabilités à fort impact,\u003C/strong> c'est-à-dire qui \u003Cem>'\u003C/em>\u003Cstrong>\u003Cem>égalent ou dépassent celles enregistrées dans les modèles les plus avancés\u003C/em>\u003C/strong>', \u003Cstrong>ayant une incidence significative sur le marché de l'Union en raison de leur portée\u003C/strong>\u003Cbr>Cela est \u003Cstrong>présumé\u003C/strong> lorsque la quantité cumulée de calcul utilisée pour son entraînement\u003Cstrong> dépasse 10^25 FLOPs.\u003C/strong>\u003C/p>\u003C/li>\u003Cli>\u003Cp>désigné comme tel \u003Cstrong>ex officio\u003C/strong> par la Commission, ou sur la base d'alertes concernant ses capacités à fort impact de la part du panel scientifique.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>Une liste de modèles présentant un risque systémique sera publiée et régulièrement mise à jour.\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://artificialintelligenceact.eu/article/55/\">Article 55 de l'AI Act\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cul class=\"tight\" data-tight=\"true\">\u003Cli>\u003Cp>Réaliser des \u003Cstrong>évaluations de modèles \u003C/strong>utilisant des protocoles et des outils standardisés, y compris la mise en œuvre et la documentation de \u003Cstrong>tests adversariaux\u003C/strong> pour identifier et atténuer les \u003Cstrong>risques systémiques\u003C/strong> potentiels.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Évaluer et atténuer en continu les \u003Cstrong>risques systémiques\u003C/strong>, y compris identifier leurs causes profondes et mettre en œuvre des stratégies appropriées de réduction des risques.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Surveiller, documenter et rapporter\u003C/strong> tout \u003Cstrong>incident sérieux\u003C/strong> et les \u003Cstrong>actions correctives proposées\u003C/strong> au \u003Cstrong>Bureau de l'IA\u003C/strong> et aux \u003Cstrong>autorités nationales.\u003C/strong>\u003C/p>\u003C/li>\u003Cli>\u003Cp>Maintenir et appliquer un niveau approprié de \u003Cstrong>cybersécurité\u003C/strong> pour protéger l'intégrité, la disponibilité et la confidentialité du modèle et de ses composants.\u003C/p>\u003C/li>\u003C/ul>\u003C/td>\u003C/tr>\u003C/tbody>\r\n\u003C/table>\r\n\r\n## En dehors de l'UE ?\r\n\r\nPour **les fournisseurs non européens, il est nécessaire de nommer un représentant autorisé** établi dans l'UE [(Article 54 de l'AI Act).](https://artificialintelligenceact.eu/fr/article/54/)\r\n\r\nCe représentant agit comme le principal point de contact pour les autorités européennes, examine la documentation technique et coopère avec les autorités pour garantir le respect des obligations réglementaires.\r\n\r\n## Le code de bonnes pratiques : un chemin volontaire vers la conformité\r\n\r\nCela devrait être lu en conjonction avec le [**Code de bonnes pratiques en matière d'IA à usage général (GPAI)** ](https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai)de la Commission européenne, qui fournit un cadre de référence clé pour les parties prenantes tout au long de la chaîne de valeur de l'IA.\r\n\r\nLe Code est un **outil volontaire** destiné à aider les fournisseurs de modèles GPAI opérant dans ou ciblant le marché de l'UE à démontrer leur **conformité avec les Articles 53 et 55** de l'AI Act.\r\n\r\n**Pour un aperçu complet du Code et de ses implications pratiques, consultez notre [article détaillé ici](https://www.dastra.eu/en/article/general-purpose-ai-code-of-practice-what-you-need-to-know/59438).**\r\n\r\n## La course à la nomination des autorités de surveillance\r\n\r\n**Les États Membres doivent désigner des autorités d'ici le 2 août** :\r\n\r\n1. **Une autorité de surveillance du marché** qui veille à ce que seuls les produits conformes au droit de l’UE soient mis sur le marché, conformément au règlement (UE) 2019/1020.\r\n\r\n2. **Une autorité notifiante** qui évalue, désigne et contrôle les organismes d’évaluation de la conformité (essais, certifications, inspections).\r\n\r\n3. **Une autorité publique nationale** chargée de garantir le respect des droits fondamentaux pour les systèmes d’IA à haut risque (annexe III), avec pouvoir d’accès aux documents requis.\r\n\r\nLes deux premières sont appelées **autorités nationales compétentes**, qui doivent agir de manière indépendante, disposer de ressources suffisantes et coopérer avec la Commission.\r\n\r\nCependant, dans de nombreux États Membres (par exemple, l'Espagne), ces autorités n'ont **pas encore été officiellement nommées**. C'est également le cas en France.\r\n\r\nIl est possible de suivre le progrès des états membres au sujet [ici](https://artificialintelligenceact.eu/fr/national-implementation-plans/).","\u003Cp>Il s'est écoulé près d'un an depuis l'entrée en vigueur officielle de la loi européenne sur l'intelligence artificielle (IA). Bien que certains jalons, tels que la publication du Code de bonnes pratiques pour l'IA d'usage général (GPAI), aient connu des retards, la prochaine étape majeure est désormais imminente.\u003C/p>\r\n\u003Cp>À compter du 2 août 2025, plusieurs dispositions essentielles du Règlement (UE) 2024/1689 ou Règlement sur l’Intelligence Artificielle (« RIA ») sont entrées en vigueur et acquièrent désormais un caractère juridiquement contraignant. Ces dispositions comprennent notamment :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cp>\u003Cstrong>Les règles de gouvernance, à savoir la gouvernance au niveau de l'Union et les autorités nationales compétentes ; et\u003C/strong>\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Les obligations concernant les modèles d'IA d'usage général.\u003C/strong>\u003C/p>\r\n\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Ci-dessous, nous explorons la signification de ces changements en pratique et ce que les organisations devraient faire pour se préparer.\u003C/p>\r\n\u003Cp>Pour plus d'informations sur le calendrier, consultez \u003Ca href=\"https://artificialintelligenceact.eu/implementation-timeline/\" rel=\"nofollow\">le calendrier officiel.\u003C/a>\u003C/p>\r\n\u003Ch2 id=\"concernant-les-obligations-des-fournisseurs-de-gpai\">Concernant les obligations des fournisseurs de GPAI\u003C/h2>\r\n\u003Cp>Les fournisseurs de modèles GPAI, qu'ils soient développeurs originaux ou ceux qui modifient substantiellement le modèle GPAI avant de le mettre sur le marché, doivent se conformer au \u003Ca href=\"https://artificialintelligenceact.eu/fr/chapter/5/\" rel=\"nofollow\">chapitre V de l'AI Act\u003C/a> à partir du 2 août.\u003C/p>\r\n\u003Cp>Découvrez dans \u003Ca href=\"https://www.dastra.eu/fr/guide/construire-un-gpai-vous-pourriez-etre-le-fournisseur/59486\">cet article si vous êtes considéré comme un fournisseur de GPAI.\u003C/a>\u003C/p>\r\n\u003Ctable style=\"min-width: 100px\">\r\n\u003Ccolgroup>\u003Ccol style=\"min-width: 25px\">\u003Ccol style=\"min-width: 25px\">\u003Ccol style=\"min-width: 25px\">\u003Ccol style=\"min-width: 25px\">\u003C/colgroup>\u003Ctbody>\u003Ctr>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Catégorie de modèle\u003C/strong>\u003C/p>\u003C/th>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Champ d'application &amp; définition\u003C/strong>\u003C/p>\u003C/th>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Assise légale\u003C/strong>\u003C/p>\u003C/th>\u003Cth colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Obligations du fournisseur\u003C/strong>\u003C/p>\u003C/th>\u003C/tr>\u003Ctr>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Modèle d'IA à usage général (\u003C/strong>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://www.dastra.eu/fr/guide/general-purpose-ai-gpai-model/59460\">\u003Cstrong>GPAI)\u003C/strong>\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"nofollow\" href=\"https://artificialintelligenceact.eu/fr/article/3/\">Article 3(63) de l'AI Act\u003C/a>\u003C/p>\u003Cul class=\"tight\" data-tight=\"true\">\u003Cli>\u003Cp>La quantité cumulée de calcul utilisée pour son entraînement mesurée en opérations en virgule flottante (FLOP) est supérieure à 10^23.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Le modèle est capable d'effectuer une large gamme de tâches distinctes\u003C/strong> telles que générer du langage (texte ou audio), text-to-image ou text-to-video.\u003C/p>\u003C/li>\u003C/ul>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://artificialintelligenceact.eu/fr/article/53/\" rel=\"nofollow\">Article 53 de l'AI Act\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cul class=\"tight\" data-tight=\"true\">\u003Cli>\u003Cp>Développer et maintenir une \u003Cstrong>documentation technique\u003C/strong> à jour qui couvre les \u003Cstrong>processus de formation et de test\u003C/strong>, ainsi que les \u003Cstrong>résultats des évaluations de performance\u003C/strong>. Cette documentation doit être mise à disposition sur demande auprès du Bureau de l'IA et des autorités compétentes.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Elaborer des \u003Cstrong>documents et des informations \u003C/strong>pour les fournisseurs en aval souhaitant \u003Cstrong>intégrer le modèle\u003C/strong> dans leurs propres systèmes d'IA.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Mettre en œuvre et maintenir une \u003Cstrong>politique de conformité\u003C/strong> à la \u003Cstrong>loi européenne sur le droit d'auteur\u003C/strong> qui garantit l'utilisation légale de contenus protégés lors du développement du modèle.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Rendre public un résumé détaillé\u003C/strong> du \u003Cstrong>contenu des données de formation\u003C/strong>, en se basant sur le \u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://digital-strategy.ec.europa.eu/fr/library/explanatory-notice-and-template-public-summary-training-content-general-purpose-ai-models\" rel=\"nofollow\">\u003Cstrong>modèle du Bureau de l'IA de l'UE\u003C/strong>, \u003C/a>pour garantir transparence et responsabilité.\u003C/p>\u003C/li>\u003C/ul>\u003C/td>\u003C/tr>\u003Ctr>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Cstrong>Modèle GPAI présentant un \u003C/strong>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://www.dastra.eu/en/guide/systemic-risk/59461\">\u003Cstrong>risque systémique\u003C/strong>\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://artificialintelligenceact.eu/article/3/\" rel=\"nofollow\">Article 3(65) de l'AI Act\u003C/a>\u003C/p>\u003Cul>\u003Cli>\u003Cp>possède des \u003Cstrong>capabilités à fort impact,\u003C/strong> c'est-à-dire qui \u003Cem>'\u003C/em>\u003Cstrong>\u003Cem>égalent ou dépassent celles enregistrées dans les modèles les plus avancés\u003C/em>\u003C/strong>', \u003Cstrong>ayant une incidence significative sur le marché de l'Union en raison de leur portée\u003C/strong>\u003Cbr>Cela est \u003Cstrong>présumé\u003C/strong> lorsque la quantité cumulée de calcul utilisée pour son entraînement\u003Cstrong> dépasse 10^25 FLOPs.\u003C/strong>\u003C/p>\u003C/li>\u003Cli>\u003Cp>désigné comme tel \u003Cstrong>ex officio\u003C/strong> par la Commission, ou sur la base d'alertes concernant ses capacités à fort impact de la part du panel scientifique.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>Une liste de modèles présentant un risque systémique sera publiée et régulièrement mise à jour.\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cp>\u003Ca rel=\"noopener noreferrer nofollow\" href=\"https://artificialintelligenceact.eu/article/55/\" rel=\"nofollow\">Article 55 de l'AI Act\u003C/a>\u003C/p>\u003C/td>\u003Ctd colspan=\"1\" rowspan=\"1\">\u003Cul class=\"tight\" data-tight=\"true\">\u003Cli>\u003Cp>Réaliser des \u003Cstrong>évaluations de modèles \u003C/strong>utilisant des protocoles et des outils standardisés, y compris la mise en œuvre et la documentation de \u003Cstrong>tests adversariaux\u003C/strong> pour identifier et atténuer les \u003Cstrong>risques systémiques\u003C/strong> potentiels.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Évaluer et atténuer en continu les \u003Cstrong>risques systémiques\u003C/strong>, y compris identifier leurs causes profondes et mettre en œuvre des stratégies appropriées de réduction des risques.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Surveiller, documenter et rapporter\u003C/strong> tout \u003Cstrong>incident sérieux\u003C/strong> et les \u003Cstrong>actions correctives proposées\u003C/strong> au \u003Cstrong>Bureau de l'IA\u003C/strong> et aux \u003Cstrong>autorités nationales.\u003C/strong>\u003C/p>\u003C/li>\u003Cli>\u003Cp>Maintenir et appliquer un niveau approprié de \u003Cstrong>cybersécurité\u003C/strong> pour protéger l'intégrité, la disponibilité et la confidentialité du modèle et de ses composants.\u003C/p>\u003C/li>\u003C/ul>\u003C/td>\u003C/tr>\u003C/tbody>\r\n\u003C/table>\r\n\u003Ch2 id=\"en-dehors-de-lue\">En dehors de l'UE ?\u003C/h2>\r\n\u003Cp>Pour \u003Cstrong>les fournisseurs non européens, il est nécessaire de nommer un représentant autorisé\u003C/strong> établi dans l'UE \u003Ca href=\"https://artificialintelligenceact.eu/fr/article/54/\" rel=\"nofollow\">(Article 54 de l'AI Act).\u003C/a>\u003C/p>\r\n\u003Cp>Ce représentant agit comme le principal point de contact pour les autorités européennes, examine la documentation technique et coopère avec les autorités pour garantir le respect des obligations réglementaires.\u003C/p>\r\n\u003Ch2 id=\"le-code-de-bonnes-pratiques-un-chemin-volontaire-vers-la-conformite\">Le code de bonnes pratiques : un chemin volontaire vers la conformité\u003C/h2>\r\n\u003Cp>Cela devrait être lu en conjonction avec le \u003Ca href=\"https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai\" rel=\"nofollow\">\u003Cstrong>Code de bonnes pratiques en matière d'IA à usage général (GPAI)\u003C/strong> \u003C/a>de la Commission européenne, qui fournit un cadre de référence clé pour les parties prenantes tout au long de la chaîne de valeur de l'IA.\u003C/p>\r\n\u003Cp>Le Code est un \u003Cstrong>outil volontaire\u003C/strong> destiné à aider les fournisseurs de modèles GPAI opérant dans ou ciblant le marché de l'UE à démontrer leur \u003Cstrong>conformité avec les Articles 53 et 55\u003C/strong> de l'AI Act.\u003C/p>\r\n\u003Cp>\u003Cstrong>Pour un aperçu complet du Code et de ses implications pratiques, consultez notre \u003Ca href=\"https://www.dastra.eu/en/article/general-purpose-ai-code-of-practice-what-you-need-to-know/59438\">article détaillé ici\u003C/a>.\u003C/strong>\u003C/p>\r\n\u003Ch2 id=\"la-course-a-la-nomination-des-autorites-de-surveillance\">La course à la nomination des autorités de surveillance\u003C/h2>\r\n\u003Cp>\u003Cstrong>Les États Membres doivent désigner des autorités d'ici le 2 août\u003C/strong> :\u003C/p>\r\n\u003Col>\r\n\u003Cli>\u003Cp>\u003Cstrong>Une autorité de surveillance du marché\u003C/strong> qui veille à ce que seuls les produits conformes au droit de l’UE soient mis sur le marché, conformément au règlement (UE) 2019/1020.\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Une autorité notifiante\u003C/strong> qui évalue, désigne et contrôle les organismes d’évaluation de la conformité (essais, certifications, inspections).\u003C/p>\r\n\u003C/li>\r\n\u003Cli>\u003Cp>\u003Cstrong>Une autorité publique nationale\u003C/strong> chargée de garantir le respect des droits fondamentaux pour les systèmes d’IA à haut risque (annexe III), avec pouvoir d’accès aux documents requis.\u003C/p>\r\n\u003C/li>\r\n\u003C/ol>\r\n\u003Cp>Les deux premières sont appelées \u003Cstrong>autorités nationales compétentes\u003C/strong>, qui doivent agir de manière indépendante, disposer de ressources suffisantes et coopérer avec la Commission.\u003C/p>\r\n\u003Cp>Cependant, dans de nombreux États Membres (par exemple, l'Espagne), ces autorités n'ont \u003Cstrong>pas encore été officiellement nommées\u003C/strong>. C'est également le cas en France.\u003C/p>\r\n\u003Cp>Il est possible de suivre le progrès des états membres au sujet \u003Ca href=\"https://artificialintelligenceact.eu/fr/national-implementation-plans/\" rel=\"nofollow\">ici\u003C/a>.\u003C/p>\r\n","Acte sur l'IA phase deux : quels changements le 2 août ?","AI Act phase deux : Les fournisseurs de GPAI doivent se préparer à de nouvelles obligations effectives le 2 août 2025.",1365,8,"AI Act : ce qui change au 2 août 2025",0,null,"fr","ai-act-ce-qui-change-au-deux-aout-2025","Alors que la seconde phase d'application du règlement sur l'IA approche, les fournisseurs de modèles à usage général doivent se préparer à respecter un nouvel ensemble d'obligations réglementaires qui entreront en vigueur le 2 août 2025.","Published",{"id":19,"displayName":20,"avatarUrl":21,"bio":13,"blogUrl":13,"color":13,"userId":19,"creationDate":22},20352,"Leïla Sayssa","https://static.dastra.eu/tenant-3/avatar/20352/TDYeY3C8Rz1lLE/dpo-avatar-h01-150.png","2025-03-03T11:08:22","2025-07-25T13:37:00","2025-07-25T13:37:06.5380075","2025-09-01T14:45:30.6924388",{"id":27,"name":28,"description":29,"url":30,"color":31,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":32},2,"Blog","A list of curated articles provided by the community","blog","#28449a",[33,35,38],{"lang":14,"name":28,"description":34},"Une liste d'articles rédigés par la communauté",{"lang":36,"name":28,"description":37},"es","Una lista de artículos escritos por la comunidad",{"lang":39,"name":28,"description":40},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[42],{"id":27,"name":28,"description":29,"url":30,"color":31,"parentId":13,"count":13,"imageUrl":13,"parent":13,"order":12,"translations":43},[44,45,46],{"lang":14,"name":28,"description":34},{"lang":36,"name":28,"description":37},{"lang":39,"name":28,"description":40},[],"https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-original.jpg",[50,51,52,53,54,55,56],"https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-1000.webp","https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25.webp","https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-1500.webp","https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-800.webp","https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-600.webp","https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-300.webp","https://static.dastra.eu/content/18e8c83e-56c1-4b7c-9e37-c427bc30e977/visuel-article-25-100.webp",59469]