[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$fDFSFeBDniRwf7L9Z5GVoqIH-8jiOl6y0GI_OxU74ylM":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":8,"wordCount":9,"readTime":10,"title":7,"nbDownloads":11,"excerpt":12,"lang":13,"url":14,"intro":15,"featured":16,"state":17,"author":18,"authorId":19,"datePublication":23,"dateCreation":24,"dateUpdate":25,"mainCategory":26,"categories":41,"metaDatas":47,"imageUrl":48,"imageThumbUrls":49,"id":57},true,"Vous en avez assez des newsletters généralistes qui survolent vos vrais enjeux ?Dastra vous propose **DastrActu**, une veille juridique et réglementaire **spécialement pensée pour les DPO, juristes et professionnels de la Privacy**.\r\n\r\n🎯 **Une veille ciblée, utile et ancrée dans la réalité terrain de la protection des données et de l'IA.**\r\n\r\nVoici notre sélection pour **juillet 2025** :\r\n\r\n## **La Commission européenne publie le modèle de résumé des des données utilisées pour former les modèles GPAI**\r\n\r\nLa Commission européenne a publié son long attendu [**modèle de résumé des données utilisées pour former les modèles,**](https://digital-strategy.ec.europa.eu/en/library/explanatory-notice-and-template-public-summary-training-content-general-purpose-ai-models) désormais une **exigence obligatoire** pour les fournisseurs de modèles d'IA à usage général (GPAI) opérant au sein de l'UE.\r\n\r\nCette évolution représente une **étape réglementaire significative** avec des **implications mondiales** potentielles. En rendant les divulgations des données de formation accessibles au public, l'UE pourrait, sans le vouloir, habiliter les titulaires de droits, y compris ceux en dehors de l'UE, à **initier des réclamations pour violation de droits d'auteur**.\r\n\r\nCette mesure, contrairement au Code de bonnes pratiques volontaire, introduit une **obligation de transparence contraignante** en vertu de la loi sur l'IA de l'UE.\r\n\r\n> Pour plus de détails sur les obligations des fournisseurs GPAI, cliquez[ ici.](https://www.dastra.eu/fr/article/ai-act-ce-qui-change-au-deux-aout-2025/59469)\r\n\r\n## Le Code de bonnes pratiques en matière d'IA à usage général est là\r\n\r\nQuelques jours après avoir appris qu'il n'y aurait pas de pause dans la loi sur l'IA, le tant attendu [Code de bonnes pratiques en matière d'IA à usage général (GPAI)](https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai) est enfin là !Le 10 juillet 2025, la Commission européenne a publié le Code de pratique sur l'IA, établissant une nouvelle norme pour la façon dont l'écosystème IA (des grands fournisseurs de modèles aux start-ups et PME) peut se préparer aux prochaines obligations GPAI en vertu de l'AI act. C’est un **outil volontaire conçu** pour aider les fournisseurs de modèles d'IA à usage général à démontrer leur conformité avec leurs obligations en vertu des articles 53 et 55 du règlement.Ces obligations s'appliqueront à partir du 2 août 2025, bien que certaines exceptions existent.Le Code se concentre sur trois domaines, cœur d'un déploiement responsable de l'IA :\r\n\r\n1. **Transparence :** engagements clairs concernant le partage d'informations sur la manière dont les modèles d'IA à usage général sont formés, évalués et comment ils fonctionnent.\r\n2. **Droits d'auteur** : Garantir le respect des droits de propriété intellectuelle, en particulier comment les données de formation s'alignent avec les protections des droits d'auteur.\r\n3. **Sécurité :** Mesures pour atténuer les risques systémiques, prévenir les abus et maintenir la confiance du public.\r\n\r\n🚀La suite ? Le Code sera évalué par le Bureau de l'IA et la Commission qui pourraient l'approuver par une décision d'adéquation.\r\n\r\n## La Commission européenne publie des lignes directrices à destination des fournisseurs de modèles GPAI\r\n\r\nNouvelles lignes directrices [de la Commission européenne pour aider les fournisseurs de modèles d'IA à usage général](https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-general-purpose-ai-models-under-ai-act) à se conformer à l'AI Act, notamment leurs obligations qui entreront en vigueur le 2 août 2025.Les points clés des lignes directrices comprennent :\r\n\r\n- Définition des modèles d'IA à usage général : formés en utilisant plus de 10²³ *FLOPs* (puissance de calcul nécessaire à l'entraînement du modèle) et capables de générer du texte, de l'audio, des images ou des vidéos à partir d'instructions textuelles.\r\n- Clarification de termes comme « fournisseur » et « mise sur le marché ».\r\n- Exemptions pour les modèles *open-source* qui respectent les normes de transparence.\r\n- Impact de l'adhésion au Code de bonnes pratiques.\r\n- Obligations supplémentaires pour les fournisseurs de modèles puissants qui posent des [risques systémiques](https://www.dastra.eu/fr/guide/risque-systemique/59463), y compris des obligations d'évaluation et de mitigation des risques.\r\n\r\n## L'AEPD clarifie son rôle avant l'application de l'AI Act\r\n\r\nL'[Autorité espagnole de protection des données (AEPD) a publié](https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/la-aepd-recuerda-que-ya-puede-actuar-ante-sistemas-de-ia?mkt_tok=MTM4LUVaTS0wNDIAAAGbs7_dasuaJGa9KK98JvZuVADVU0cUr_-S8RU0lwYndcjQHEYdfRPz0wXKdlFqpBnMhqClLflFkrX3ZKyn5OqKdTyB_E-dCleMB10XVM7mAJd5wQ) une analyse clarifiant son rôle en vertu du règlement européen sur l'intelligence artificielle (IA), avant l'entrée en vigueur des dispositions clés le **2 août 2025**.\r\n\r\nBien que l'Espagne n'ait pas encore adopté de législation nationale pour désigner formellement une **autorité de surveillance du marché**, l'AEPD note que le projet de loi actuel prévoit qu'elle assume cette responsabilité dans des domaines nécessitant une **indépendance fonctionnelle**, tels que pour les **systèmes d'IA prohibés**.\r\n\r\nEn attendant, l'AEPD réaffirme son autorité existante pour **superviser l'utilisation des données personnelles dans les systèmes d'IA**, notamment lorsque les systèmes prohibés peuvent enfreindre les droits de protection des données.\r\n\r\nElle conseille aux organisations déployant ou fournissant des services d'IA de commencer à se préparer à une conformité totale avec l'AI Act et souligne la nécessité de renforcer ses propres capacités internes en prévision des responsabilités élargies.\r\n\r\n## La CNIL finalise ses recommandations sur le RGPD et le développement de systèmes d'IA\r\n\r\nLa CNIL vient de publier [un ensemble de recommandations](https://www.cnil.fr/en/ai-cnil-finalises-its-recommendations-development-artificial-intelligence-systems) visant à garantir que le développement des technologies d'IA reste compatible avec les exigences du RGPD.\r\n\r\nCes lignes directrices s'adressent à un large éventail d'acteurs, que vous travailliez sur des modèles d'apprentissage automatique, des systèmes d'IA à usage général, ou tout autre type d'IA impliquant le traitement de données personnelles.\r\n\r\nLe document cible spécifiquement la **phase de développement** des systèmes d'IA, y compris la conception du système, la création et la structuration de l'ensemble de données, et le processus de formation.\r\n\r\nIl est important de noter que la CNIL a également fourni une **checklist de conformité** pour aider les développeurs et les organisations à identifier les points clés à vérifier tout au long de cette phase de développement.\r\n\r\n## La loi britannique sur l'utilisation et l'accès des données (DUAA) a reçu l'assentiment royal\r\n\r\nLa loi sur les données (utilisation et accès) de 2025 a reçu l'assentiment royal le 19 juin 2025 (DUAA) et réforme la législation sur la protection des données au Royaume-Uni, y compris le RGPD britannique, la DPA 2018, ainsi que le PECR.La nouvelle loi sera mise en œuvre par étapes, la plupart des dispositions devant entrer en vigueur dans les deux à six mois, bien que certaines mesures puissent nécessiter jusqu'à un an pour être entièrement mises en œuvre. Découvrez [ce que le DUAA signifie pour votre organisation ici.](https://www.dastra.eu/en/article/what-the-duaa-means-for-your-organization/59414)\r\n\r\n## La Commission européenne publie un projet de décision d'adéquation pour le Royaume-Uni\r\n\r\nLa Commission européenne a publié ses projets de décisions d'adéquation pour les transferts de données vers le Royaume-Uni, à la fois [sous le RGPD](https://commission.europa.eu/document/download/6f636fa0-30d4-4c05-a713-64484ad913fa_en?filename=Draft%20Renewal%20of%20EU%20adequacy%20decision%20for%20the%20UK%20under%20the%20GDPR.pdf) et [la directive sur le droit pénal (LED).](https://commission.europa.eu/document/download/0c943f80-7616-436c-b44f-afad98e97022_en?filename=Draft%20Renewal%20of%20EU%20adequacy%20decision%20for%20the%20UK%20under%20the%20LED.pdf)Les modifications récentes introduites par la loi britannique Data Use and Access Act (DUAA) ne compromettent pas le cadre de protection des données du Royaume-Uni. Le Royaume-Uni est toujours considéré comme offrant un niveau adéquat de protection des données personnelles provenant de l'UE.Les projets de décisions seront examinés par le Comité européen de la protection des données (CEPD) et nécessiteront une approbation avant leur adoption formelle.\r\n\r\n## Le CEPD et l'EDPS ont publié un avis conjoint sur la proposition de simplification du RGPD\r\n\r\nLe CEPD et l'EDPS ont émis un [avis conjoint le 8 juillet sur la proposition de réglementation de ](https://www.edpb.europa.eu/system/files/2025-07/edpb_edps_jointopinion_202501_proposalsimplification_en.pdf)la Commission européenne.  sur les mesures de simplification concernant le RGPD.Ils accueillent les simplifications tant qu'elles sont proportionnées, équilibrées et basées sur la nécessité, et surtout, qu'elles ne portent pas atteinte à la protection des droits fondamentaux des individus - ce qui va à l'encontre des principes fondamentaux du RGPD. Notamment concernant l'obligation de tenue de registre (Art.30 (5) RGPD) : la dérogation actuelle du RGPD s'applique lorsque les organisations ont moins de 250 employés (sauf si certaines conditions sont remplies). Avec la proposition, la dérogation s'appliquera aux organisations employant moins de 750 employés.Cependant, même avec moins de 750 personnes, l'organisation devra tenir un registre lorsque le traitement est susceptible d'entraîner un risque élevé pour les droits et libertés des individus. Les deux institutions ont également demandé aux co-législateurs quelques éclaircissements supplémentaires.","\u003Cp>Vous en avez assez des newsletters généralistes qui survolent vos vrais enjeux ?\u003Cbr />\r\nDastra vous propose \u003Cstrong>DastrActu\u003C/strong>, une veille juridique et réglementaire \u003Cstrong>spécialement pensée pour les DPO, juristes et professionnels de la Privacy\u003C/strong>.\u003C/p>\r\n\u003Cp>🎯 \u003Cstrong>Une veille ciblée, utile et ancrée dans la réalité terrain de la protection des données et de l'IA.\u003C/strong>\u003C/p>\r\n\u003Cp>Voici notre sélection pour \u003Cstrong>juillet 2025\u003C/strong> :\u003C/p>\r\n\u003Ch2 id=\"la-commission-europeenne-publie-le-modele-de-resume-des-des-donnees-utilisees-pour-former-les-modeles-gpai\">\u003Cstrong>La Commission européenne publie le modèle de résumé des des données utilisées pour former les modèles GPAI\u003C/strong>\u003C/h2>\r\n\u003Cp>La Commission européenne a publié son long attendu \u003Ca href=\"https://digital-strategy.ec.europa.eu/en/library/explanatory-notice-and-template-public-summary-training-content-general-purpose-ai-models\" rel=\"nofollow\">\u003Cstrong>modèle de résumé des données utilisées pour former les modèles,\u003C/strong>\u003C/a> désormais une \u003Cstrong>exigence obligatoire\u003C/strong> pour les fournisseurs de modèles d'IA à usage général (GPAI) opérant au sein de l'UE.\u003C/p>\r\n\u003Cp>Cette évolution représente une \u003Cstrong>étape réglementaire significative\u003C/strong> avec des \u003Cstrong>implications mondiales\u003C/strong> potentielles. \u003Cbr />\r\n\u003Cbr />\r\nEn rendant les divulgations des données de formation accessibles au public, l'UE pourrait, sans le vouloir, habiliter les titulaires de droits, y compris ceux en dehors de l'UE, à \u003Cstrong>initier des réclamations pour violation de droits d'auteur\u003C/strong>.\u003C/p>\r\n\u003Cp>Cette mesure, contrairement au Code de bonnes pratiques volontaire, introduit une \u003Cstrong>obligation de transparence contraignante\u003C/strong> en vertu de la loi sur l'IA de l'UE.\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>Pour plus de détails sur les obligations des fournisseurs GPAI, cliquez\u003Ca href=\"https://www.dastra.eu/fr/article/ai-act-ce-qui-change-au-deux-aout-2025/59469\"> ici.\u003C/a>\u003C/p>\r\n\u003C/blockquote>\r\n\u003Ch2 id=\"le-code-de-bonnes-pratiques-en-matiere-dia-a-usage-general-est-la\">Le Code de bonnes pratiques en matière d'IA à usage général est là\u003C/h2>\r\n\u003Cp>Quelques jours après avoir appris qu'il n'y aurait pas de pause dans la loi sur l'IA, le tant attendu \u003Ca href=\"https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai\" rel=\"nofollow\">Code de bonnes pratiques en matière d'IA à usage général (GPAI)\u003C/a> est enfin là !\u003Cbr />\r\n\u003Cbr />\r\nLe 10 juillet 2025, la Commission européenne a publié le Code de pratique sur l'IA, établissant une nouvelle norme pour la façon dont l'écosystème IA (des grands fournisseurs de modèles aux start-ups et PME) peut se préparer aux prochaines obligations GPAI en vertu de l'AI act. \u003Cbr />\r\n\u003Cbr />\r\nC’est un \u003Cstrong>outil volontaire conçu\u003C/strong> pour aider les fournisseurs de modèles d'IA à usage général à démontrer leur conformité avec leurs obligations en vertu des articles 53 et 55 du règlement.\u003Cbr />\r\n\u003Cbr />\r\nCes obligations s'appliqueront à partir du 2 août 2025, bien que certaines exceptions existent.\u003Cbr />\r\n\u003Cbr />\r\nLe Code se concentre sur trois domaines, cœur d'un déploiement responsable de l'IA :\u003C/p>\r\n\u003Col>\r\n\u003Cli>\u003Cstrong>Transparence :\u003C/strong> engagements clairs concernant le partage d'informations sur la manière dont les modèles d'IA à usage général sont formés, évalués et comment ils fonctionnent.\u003C/li>\r\n\u003Cli>\u003Cstrong>Droits d'auteur\u003C/strong> : Garantir le respect des droits de propriété intellectuelle, en particulier comment les données de formation s'alignent avec les protections des droits d'auteur.\u003C/li>\r\n\u003Cli>\u003Cstrong>Sécurité :\u003C/strong> Mesures pour atténuer les risques systémiques, prévenir les abus et maintenir la confiance du public.\u003C/li>\r\n\u003C/ol>\r\n\u003Cp>🚀La suite ? \u003Cbr />\r\nLe Code sera évalué par le Bureau de l'IA et la Commission qui pourraient l'approuver par une décision d'adéquation.\u003C/p>\r\n\u003Ch2 id=\"la-commission-europeenne-publie-des-lignes-directrices-a-destination-des-fournisseurs-de-modeles-gpai\">La Commission européenne publie des lignes directrices à destination des fournisseurs de modèles GPAI\u003C/h2>\r\n\u003Cp>Nouvelles lignes directrices \u003Ca href=\"https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-general-purpose-ai-models-under-ai-act\" rel=\"nofollow\">de la Commission européenne pour aider les fournisseurs de modèles d'IA à usage général\u003C/a> à se conformer à l'AI Act, notamment leurs obligations qui entreront en vigueur le 2 août 2025.\u003Cbr />\r\n\u003Cbr />\r\nLes points clés des lignes directrices comprennent :\u003C/p>\r\n\u003Cul>\r\n\u003Cli>Définition des modèles d'IA à usage général : formés en utilisant plus de 10²³ \u003Cem>FLOPs\u003C/em> (puissance de calcul nécessaire à l'entraînement du modèle) et capables de générer du texte, de l'audio, des images ou des vidéos à partir d'instructions textuelles.\u003C/li>\r\n\u003Cli>Clarification de termes comme « fournisseur » et « mise sur le marché ».\u003C/li>\r\n\u003Cli>Exemptions pour les modèles \u003Cem>open-source\u003C/em> qui respectent les normes de transparence.\u003C/li>\r\n\u003Cli>Impact de l'adhésion au Code de bonnes pratiques.\u003C/li>\r\n\u003Cli>Obligations supplémentaires pour les fournisseurs de modèles puissants qui posent des \u003Ca href=\"https://www.dastra.eu/fr/guide/risque-systemique/59463\">risques systémiques\u003C/a>, y compris des obligations d'évaluation et de mitigation des risques.\u003C/li>\r\n\u003C/ul>\r\n\u003Ch2 id=\"laepd-clarifie-son-role-avant-lapplication-de-lai-act\">L'AEPD clarifie son rôle avant l'application de l'AI Act\u003C/h2>\r\n\u003Cp>L'\u003Ca href=\"https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/la-aepd-recuerda-que-ya-puede-actuar-ante-sistemas-de-ia?mkt_tok=MTM4LUVaTS0wNDIAAAGbs7_dasuaJGa9KK98JvZuVADVU0cUr_-S8RU0lwYndcjQHEYdfRPz0wXKdlFqpBnMhqClLflFkrX3ZKyn5OqKdTyB_E-dCleMB10XVM7mAJd5wQ\" rel=\"nofollow\">Autorité espagnole de protection des données (AEPD) a publié\u003C/a> une analyse clarifiant son rôle en vertu du règlement européen sur l'intelligence artificielle (IA), avant l'entrée en vigueur des dispositions clés le \u003Cstrong>2 août 2025\u003C/strong>.\u003C/p>\r\n\u003Cp>Bien que l'Espagne n'ait pas encore adopté de législation nationale pour désigner formellement une \u003Cstrong>autorité de surveillance du marché\u003C/strong>, l'AEPD note que le projet de loi actuel prévoit qu'elle assume cette responsabilité dans des domaines nécessitant une \u003Cstrong>indépendance fonctionnelle\u003C/strong>, tels que pour les \u003Cstrong>systèmes d'IA prohibés\u003C/strong>.\u003C/p>\r\n\u003Cp>En attendant, l'AEPD réaffirme son autorité existante pour \u003Cstrong>superviser l'utilisation des données personnelles dans les systèmes d'IA\u003C/strong>, notamment lorsque les systèmes prohibés peuvent enfreindre les droits de protection des données.\u003C/p>\r\n\u003Cp>Elle conseille aux organisations déployant ou fournissant des services d'IA de commencer à se préparer à une conformité totale avec l'AI Act et souligne la nécessité de renforcer ses propres capacités internes en prévision des responsabilités élargies.\u003C/p>\r\n\u003Ch2 id=\"la-cnil-finalise-ses-recommandations-sur-le-rgpd-et-le-developpement-de-systemes-dia\">La CNIL finalise ses recommandations sur le RGPD et le développement de systèmes d'IA\u003C/h2>\r\n\u003Cp>La CNIL vient de publier \u003Ca href=\"https://www.cnil.fr/en/ai-cnil-finalises-its-recommendations-development-artificial-intelligence-systems\" rel=\"nofollow\">un ensemble de recommandations\u003C/a> visant à garantir que le développement des technologies d'IA reste compatible avec les exigences du RGPD.\u003C/p>\r\n\u003Cp>Ces lignes directrices s'adressent à un large éventail d'acteurs, que vous travailliez sur des modèles d'apprentissage automatique, des systèmes d'IA à usage général, ou tout autre type d'IA impliquant le traitement de données personnelles.\u003C/p>\r\n\u003Cp>Le document cible spécifiquement la \u003Cstrong>phase de développement\u003C/strong> des systèmes d'IA, y compris la conception du système, la création et la structuration de l'ensemble de données, et le processus de formation.\u003C/p>\r\n\u003Cp>Il est important de noter que la CNIL a également fourni une \u003Cstrong>checklist de conformité\u003C/strong> pour aider les développeurs et les organisations à identifier les points clés à vérifier tout au long de cette phase de développement.\u003C/p>\r\n\u003Ch2 id=\"la-loi-britannique-sur-lutilisation-et-lacces-des-donnees-duaa-a-recu-lassentiment-royal\">La loi britannique sur l'utilisation et l'accès des données (DUAA) a reçu l'assentiment royal\u003C/h2>\r\n\u003Cp>La loi sur les données (utilisation et accès) de 2025 a reçu l'assentiment royal le 19 juin 2025 (DUAA) et réforme la législation sur la protection des données au Royaume-Uni, y compris le RGPD britannique, la DPA 2018, ainsi que le PECR.\u003Cbr />\r\n\u003Cbr />\r\nLa nouvelle loi sera mise en œuvre par étapes, la plupart des dispositions devant entrer en vigueur dans les deux à six mois, bien que certaines mesures puissent nécessiter jusqu'à un an pour être entièrement mises en œuvre. \u003Cbr />\r\n\u003Cbr />\r\nDécouvrez \u003Ca href=\"https://www.dastra.eu/en/article/what-the-duaa-means-for-your-organization/59414\">ce que le DUAA signifie pour votre organisation ici.\u003C/a>\u003C/p>\r\n\u003Ch2 id=\"la-commission-europeenne-publie-un-projet-de-decision-dadequation-pour-le-royaume-uni\">La Commission européenne publie un projet de décision d'adéquation pour le Royaume-Uni\u003C/h2>\r\n\u003Cp>La Commission européenne a publié ses projets de décisions d'adéquation pour les transferts de données vers le Royaume-Uni, à la fois \u003Ca href=\"https://commission.europa.eu/document/download/6f636fa0-30d4-4c05-a713-64484ad913fa_en?filename=Draft%20Renewal%20of%20EU%20adequacy%20decision%20for%20the%20UK%20under%20the%20GDPR.pdf\" rel=\"nofollow\">sous le RGPD\u003C/a> et \u003Ca href=\"https://commission.europa.eu/document/download/0c943f80-7616-436c-b44f-afad98e97022_en?filename=Draft%20Renewal%20of%20EU%20adequacy%20decision%20for%20the%20UK%20under%20the%20LED.pdf\" rel=\"nofollow\">la directive sur le droit pénal (LED).\u003C/a>\u003Cbr />\r\n\u003Cbr />\r\nLes modifications récentes introduites par la loi britannique Data Use and Access Act (DUAA) ne compromettent pas le cadre de protection des données du Royaume-Uni. Le Royaume-Uni est toujours considéré comme offrant un niveau adéquat de protection des données personnelles provenant de l'UE.\u003Cbr />\r\n\u003Cbr />\r\nLes projets de décisions seront examinés par le Comité européen de la protection des données (CEPD) et nécessiteront une approbation avant leur adoption formelle.\u003C/p>\r\n\u003Ch2 id=\"le-cepd-et-ledps-ont-publie-un-avis-conjoint-sur-la-proposition-de-simplification-du-rgpd\">Le CEPD et l'EDPS ont publié un avis conjoint sur la proposition de simplification du RGPD\u003C/h2>\r\n\u003Cp>Le CEPD et l'EDPS ont émis un \u003Ca href=\"https://www.edpb.europa.eu/system/files/2025-07/edpb_edps_jointopinion_202501_proposalsimplification_en.pdf\" rel=\"nofollow\">avis conjoint le 8 juillet sur la proposition de réglementation de \u003C/a>la Commission européenne.  sur les mesures de simplification concernant le RGPD.\u003Cbr />\r\n\u003Cbr />\r\nIls accueillent les simplifications tant qu'elles sont proportionnées, équilibrées et basées sur la nécessité, et surtout, qu'elles ne portent pas atteinte à la protection des droits fondamentaux des individus - ce qui va à l'encontre des principes fondamentaux du RGPD. \u003Cbr />\r\n\u003Cbr />\r\nNotamment concernant l'obligation de tenue de registre (Art.30 (5) RGPD) : la dérogation actuelle du RGPD s'applique lorsque les organisations ont moins de 250 employés (sauf si certaines conditions sont remplies). Avec la proposition, la dérogation s'appliquera aux organisations employant moins de 750 employés.\u003Cbr />\r\n\u003Cbr />\r\nCependant, même avec moins de 750 personnes, l'organisation devra tenir un registre lorsque le traitement est susceptible d'entraîner un risque élevé pour les droits et libertés des individus. \u003Cbr />\r\n\u003Cbr />\r\nLes deux institutions ont également demandé aux co-législateurs quelques éclaircissements supplémentaires.\u003C/p>\r\n","DastraNews : que s'est-il passé au mois juillet ?","L'actualité conformité vue depuis la station Dastra: une veille utile pour celles et ceux qui travaillent au quotidien sur le terrain de la privacy et de l'IA.",1459,8,0,null,"fr","dastranews-que-sest-il-passe-en-juillet","L'actualité conformité vue depuis la station Dastra: une veille utile pour celles et ceux qui travaillent au quotidien sur le terrain de la Privacy et de l'IA.",false,"Published",{"id":19,"displayName":20,"avatarUrl":21,"bio":12,"blogUrl":12,"color":12,"userId":19,"creationDate":22},20352,"Leïla Sayssa","https://static.dastra.eu/tenant-3/avatar/20352/TDYeY3C8Rz1lLE/dpo-avatar-h01-150.png","2025-03-03T11:08:22","2025-07-31T08:00:00","2025-08-20T15:00:06.3415811","2025-09-02T08:31:25.8653627",{"id":27,"name":28,"description":29,"url":30,"color":31,"parentId":12,"count":12,"imageUrl":12,"parent":12,"order":11,"translations":32},2,"Blog","A list of curated articles provided by the community","blog","#28449a",[33,35,38],{"lang":13,"name":28,"description":34},"Une liste d'articles rédigés par la communauté",{"lang":36,"name":28,"description":37},"es","Una lista de artículos escritos por la comunidad",{"lang":39,"name":28,"description":40},"de","Eine Liste von Artikeln, die von der Community verfasst wurden",[42],{"id":27,"name":28,"description":29,"url":30,"color":31,"parentId":12,"count":12,"imageUrl":12,"parent":12,"order":11,"translations":43},[44,45,46],{"lang":13,"name":28,"description":34},{"lang":36,"name":28,"description":37},{"lang":39,"name":28,"description":40},[],"https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-original.webp",[50,51,52,53,54,55,56],"https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-1000.webp","https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr.webp","https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-1500.webp","https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-800.webp","https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-600.webp","https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-300.webp","https://static.dastra.eu/content/936686d3-7d01-45c6-a0ea-3790d364817a/dastranews-fr-100.webp",59531]