[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"$fbsuwoLWYDThbCaVzoUoKx1cNVQpFBqC9iLZKVG24P2E":3},{"sections":4,"resultAnalysis":330,"id":858,"version":859,"newVersion":22,"label":860,"isPinned":56,"isShared":56,"sharingToken":861,"isRevision":22,"isBlockAnalysisShared":56,"nbReferences":862,"referenceId":9,"nbResponses":11,"parentId":9,"revisionDescription":9,"logoUrl":863,"description":864,"scheduleIntervalDays":9,"versionNumber":50,"dateCreation":865,"dateUpdate":866,"dateArchived":9,"archived":22,"type":867,"typeIndex":50,"typeColor":9,"typeIcon":9,"typeText":868,"creator":869,"objectType":877,"objectTypeIndex":878,"objectTypeColor":879,"objectTypeIcon":880,"objectTypeText":881,"defaultOwners":882,"tags":884,"privacyHubs":9,"nbQuestions":357,"nbQuestionsRequired":11,"nbDatas":11,"deadLineDays":9},[5,86,147,208,269],{"id":6,"slug":7,"label":8,"emoji":9,"type":10,"typeIndex":11,"typeColor":9,"typeIcon":9,"typeText":12,"descriptionHtml":13,"questions":14,"sections":85},"52da49bb-f7d3-4b15-82a9-3c979449428a","initial","Protection des données personnelles et vie privée",null,"Default",0,"SectionType_Default","\u003Cp>L’\u003Cstrong>AI Act\u003C/strong> met un accent particulier sur la protection des données personnelles et de la vie privée pour les systèmes d’intelligence artificielle (SIA) à haut risque, soulignant leur rôle central dans la préservation des droits fondamentaux. Voici les points essentiels pour comprendre et mettre en œuvre ces exigences dans le cadre des évaluations d'impact.\u003C/p>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>Les principes fondamentaux de protection des données\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>\u003Cstrong>La confidentialité et et la sécurité des données\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Confidentialité des données\u003C/strong> : Les données personnelles doivent être protégées contre tout accès non autorisé grâce à des mesures techniques (ex. chiffrement) et organisationnelles (ex. limitation des accès).\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Sécurité des données\u003C/strong> : Garantir que les données soient stockées, transférées et utilisées en toute sécurité pour éviter les cyberattaques ou violations.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>La minimisation des données et la pertinence\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Minimisation des données\u003C/strong> : Collecter uniquement les données strictement nécessaires au fonctionnement du SIA.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Pertinence\u003C/strong> : S'assurer que les données utilisées sont pertinentes et alignées sur les finalités définies.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les droits des individus\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Accès et contrôle\u003C/strong> : Les individus doivent pouvoir accéder à leurs données, les rectifier ou demander leur suppression conformément au RGPD.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Consentement éclairé\u003C/strong> : Les utilisateurs doivent être informés de manière claire et obtenir leur consentement pour l’utilisation de leurs données.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>Les exigences spécifiques de l'AI Act\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>\u003Cstrong>La documentation et la transparence\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Décrire comment les données personnelles sont collectées, utilisées, stockées et partagées.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Documenter les mesures mises en place pour garantir la protection des données et minimiser les risques.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>L'évaluation d'impact\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Réaliser une évaluation détaillée pour identifier les risques potentiels sur la vie privée et les droits fondamentaux.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Proposer des mesures correctives pour atténuer ces risques.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>L'anonymisation et pseudonymisation\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Lorsque cela est possible, utiliser des techniques pour anonymiser ou pseudonymiser les données afin de réduire les risques liés à leur traitement.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>La traçabilité\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Documenter les flux de données pour garantir leur traçabilité et faciliter les audits.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>Les risques courants et les solutions pouvant être apportées\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>\u003Cstrong>Risque 1 : Collecte excessive de données\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Solution\u003C/strong> : Mettre en place des politiques de minimisation des données et auditer régulièrement les processus.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Risque 2 : Violations de données\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Solution\u003C/strong> : Utiliser des protocoles de sécurité avancés (chiffrement, tests de pénétration) et former les employés.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Risque 3 : Réidentification à partir de données anonymes\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Solution\u003C/strong> : Combiner l'anonymisation avec des mesures organisationnelles (contrôles d'accès stricts, contrats de confidentialité).\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>Les rôles et les responsabilités\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>\u003Cstrong>Les fournisseurs de SIA\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Intégrer la protection des données dès la conception (\u003Cstrong>privacy by design\u003C/strong>).\u003C/p>\u003C/li>\u003Cli>\u003Cp>Garantir que les modèles et les données respectent les normes de confidentialité.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les déployeurs (ou opérateurs)\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Assurer la conformité des pratiques opérationnelles avec les exigences légales.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Surveiller l’utilisation des données pour détecter tout usage inapproprié.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les autorités de surveillance\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Évaluer si les systèmes respectent les normes de l’AI Act.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Sanctionner les non-conformités graves mettant en péril les droits des individus.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>La protection des données personnelles et de la vie privée est une exigence clé pour les SIA à haut risque. L'AI Act impose des mesures strictes pour garantir que ces droits soient respectés tout au long du cycle de vie du système, depuis sa conception jusqu'à son déploiement et son exploitation. Une évaluation rigoureuse et une documentation transparente sont indispensables pour assurer la conformité et la confiance des utilisateurs.\u003C/p>",[15,58],{"id":16,"slug":17,"label":18,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":23,"displayConditions":9,"answers":24,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"a1e8f069-ea24-463b-b956-862e57ac12a2","96497b42-0825-41bf-9982-93c2b16114e3","Le système traite-t-il des données personnelles sensibles (santé, biométrie, origine ethnique, etc.) ?","Radio",7,"Liste de cases à cocher (une seule réponse)",false,[],[25,39,47,52],{"id":26,"color":27,"rangeValue":9,"label":28,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":30},"d936f14d-a209-4a86-a8cd-7d7c133563b9","#17a2b8","Oui, de manière fréquente.",5,[31],{"id":32,"label":33,"userId":9,"color":9,"description":34,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"e51af7b4-2805-4f67-bd9a-31d199ef5b99","Renforcer la pseudonymisation et le cryptage pour le RGPD.","\u003Cp>Si les données sensibles sont traitées, renforcer les mécanismes de pseudonymisation et de cryptage pour respecter le RGPD.\u003C/p>","Medium",2,"#ffc107","Moyen",{"id":40,"color":41,"rangeValue":9,"label":42,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":44},"71268a22-9461-4d22-8e94-a9f0469c0a13","#727a94","Occasionnellement.",3,[45],{"id":46,"label":33,"userId":9,"color":9,"description":34,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"2f14ffc7-9436-498c-854e-d7d52a873fc7",{"id":48,"color":37,"rangeValue":9,"label":49,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":51},"cdb5e099-3680-4e14-a274-6e23c49342ac","Non, pas de traitement de données sensibles.",1,[],{"id":53,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":57},"012da095-f070-42b3-ad20-ce180f6cb4c3","#E7630A","Non applicable.",true,[],{"id":59,"slug":60,"label":61,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":62,"displayConditions":9,"answers":63,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"9712554d-a226-4cd2-a0f3-8b128768a05a","2597b147-8f98-47b0-91e5-55de69095f89","Les utilisateurs ont-ils la possibilité de donner un consentement explicite pour le traitement de leurs données personnelles ?",[],[64,68,76,82],{"id":65,"color":27,"rangeValue":9,"label":66,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":67},"5d222752-2930-4bc1-b573-d6e49ade0049","Oui, systématiquement.",[],{"id":69,"color":41,"rangeValue":9,"label":70,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":71},"301ec3e4-9fd4-4b96-8b5a-8343e4b1b8be","Parfois, selon les cas d’usage.",[72],{"id":73,"label":74,"userId":9,"color":9,"description":75,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"73c6395a-2a33-4488-a764-819ca6141c85","Établir des processus de consentement explicite pour les données sensibles.","\u003Cp>Mettre en place des processus clairs de recueil du consentement explicite, notamment dans le cas de données sensibles.\u003C/p>",{"id":77,"color":37,"rangeValue":9,"label":78,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":79},"9c644935-0b62-4c2c-beef-b5d05b92346c","Non, le consentement n'est pas requis.",[80],{"id":81,"label":74,"userId":9,"color":9,"description":75,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"c44d49b3-c37a-4015-b5ff-f5bdd5ebdc8b",{"id":83,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":84},"594ee8a9-9a61-4c8f-82e4-ddaca114e102",[],[],{"id":87,"slug":88,"label":89,"emoji":9,"type":10,"typeIndex":11,"typeColor":9,"typeIcon":9,"typeText":12,"descriptionHtml":90,"questions":91,"sections":146},"e3949a9c-8c4b-42fd-87bb-2c650772bed3","discrimination-et-equite","Discrimination et équité","\u003Cp>Dans le cadre de l’\u003Cstrong>AI Act\u003C/strong>, les systèmes d’intelligence artificielle (SIA) à haut risque doivent être évalués pour garantir qu’ils ne créent ni n’amplifient de discriminations et qu’ils respectent des principes d’équité. Voici une formation concise pour comprendre ces enjeux.\u003C/p>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>La discrimination dans les SIA\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>\u003Cstrong>Les origines de la discrimination\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Des données biaisées\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les données utilisées pour entraîner les modèles peuvent refléter des inégalités ou des préjugés existants dans la société.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Des modèles inadéquats\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les algorithmes peuvent amplifier les biais présents dans les données.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Des contextes mal définis\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Des modèles conçus pour un groupe de population peuvent produire des résultats inéquitables pour d’autres.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Des exemples courants de discrimination\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Le refus d’accès à des prêts pour certaines populations en raison de biais socio-économiques dans les données.\u003C/p>\u003C/li>\u003Cli>\u003Cp>La discrimination de genre dans les processus de recrutement automatisés.\u003C/p>\u003C/li>\u003Cli>\u003Cp>La sur-représentation ou sous-représentation de certains groupes dans des systèmes de reconnaissance faciale.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>L'équité dans les SIA\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>L’équité vise à garantir que les systèmes traitent tous les utilisateurs sans discrimination injustifiée, indépendamment de leur origine, genre, statut socio-économique ou autres caractéristiques protégées.\u003C/p>\u003Cp>\u003Cstrong>Les exigences clés selon l’AI Act\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La transparence\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les critères de décision doivent être clairement documentés et justifiables.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Le biais minimisé\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les fournisseurs et opérateurs doivent prouver que les biais sont réduits au minimum raisonnablement possible.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les évaluations d’impact\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Une évaluation spécifique des effets potentiels sur les droits fondamentaux, y compris la non-discrimination, est requise avant la mise en service.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>Les pratiques pour minimiser la discrimination\u003C/u>\u003C/strong>\u003C/h3>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Qualité des données\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Utiliser des jeux de données variés et représentatifs.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Effectuer des audits réguliers pour identifier et corriger les biais.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Conception du modèle\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Mettre en œuvre des algorithmes équitables qui incluent des objectifs explicites de non-discrimination.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Tester les modèles sur des scénarios diversifiés.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Supervision humaine\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Impliquer des experts en éthique et des parties prenantes pour valider les résultats.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Documentation et traçabilité\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Maintenir des registres détaillés sur les données, les méthodes d’entraînement, et les décisions du système.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>Les responsabilités des acteurs\u003C/u>\u003C/strong>\u003C/h3>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Fournisseurs\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Fournir des modèles sans biais identifié et clairement documenter les méthodes utilisées pour minimiser la discrimination.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Déployeurs (opérateurs)\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Surveiller l’impact des systèmes en temps réel pour identifier toute discrimination émergente.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Régulateurs\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Auditer les systèmes à haut risque pour garantir leur conformité avec les exigences d’équité.\u003Cbr>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Cp>Discrimination et équité sont au cœur des préoccupations réglementaires dans l’AI Act pour les SIA à haut risque. Une gestion proactive de ces enjeux est essentielle pour garantir des systèmes d’IA justes, fiables, et respectueux des droits fondamentaux.\u003C/p>",[92,119],{"id":93,"slug":94,"label":95,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":96,"displayConditions":9,"answers":97,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"6cf66872-ce70-4bed-a10f-4c7876e7a116","bfd59999-38b8-4478-a79f-18224d26f1fa","Le système peut-il entraîner des décisions discriminatoires basées sur le genre, l’origine ethnique, ou d’autres critères protégés ?",[],[98,102,110,116],{"id":99,"color":27,"rangeValue":9,"label":100,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":101},"f49231c6-b224-4a8a-8aed-7eed7d7fc99e","Oui, des risques ont été identifiés.",[],{"id":103,"color":41,"rangeValue":9,"label":104,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":105},"ee411f27-1756-4c05-8f32-e3918a43ad26","Potentiellement, dans certains scénarios.",[106],{"id":107,"label":108,"userId":9,"color":9,"description":109,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"96e4c66b-18a8-46f4-bb73-24a235694a2c","Auditer les algorithmes pour corriger les biais dans les données d’entraînement.","\u003Cp>Auditer les algorithmes pour détecter et corriger les biais discriminatoires potentiels dans les jeux de données d’entraînement.\u003C/p>",{"id":111,"color":37,"rangeValue":9,"label":112,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":113},"89f31670-bdde-462d-88f4-01712cb5d3e8","Non, aucun risque de discrimination identifié.",[114],{"id":115,"label":108,"userId":9,"color":9,"description":109,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"14bfdbe2-45b2-427f-8254-83b510efadba",{"id":117,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":118},"f2e43f5b-94f6-401d-8984-2bd80d75419a",[],{"id":120,"slug":121,"label":122,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":123,"displayConditions":9,"answers":124,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"3271bcb8-e324-4214-9ead-4179a419fa6c","7f0512a9-72da-4603-ac3f-9372b352c8d1","Des mécanismes sont-ils en place pour corriger les décisions ou prédictions du système en cas de discrimination constatée ?",[],[125,129,137,143],{"id":126,"color":27,"rangeValue":9,"label":127,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":128},"fd51b156-4e5c-4fa8-b39a-0aaab68844aa","Oui, des procédures spécifiques sont définies.",[],{"id":130,"color":41,"rangeValue":9,"label":131,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":132},"1e6d0b7c-3688-46ad-88b0-4f688183233b","Partiellement, des mesures existent mais sont limitées.",[133],{"id":134,"label":135,"userId":9,"color":9,"description":136,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"fe61e70e-258a-4f8f-990b-79c121366dec","Mettre en place un examen continu des résultats pour corriger les biais.","\u003Cp>Créer un processus d’examen continu des résultats du système afin de détecter et de corriger tout biais discriminatoire.\u003C/p>",{"id":138,"color":37,"rangeValue":9,"label":139,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":140},"d89d136e-609f-437f-a180-8f55c65bb7f6","Non, aucun mécanisme correctif prévu.",[141],{"id":142,"label":135,"userId":9,"color":9,"description":136,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"11be5e23-ae24-43c2-999c-3072e7446a88",{"id":144,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":145},"b3e4b52a-8dcb-452f-b8e0-71aa24c64519",[],[],{"id":148,"slug":149,"label":150,"emoji":9,"type":10,"typeIndex":11,"typeColor":9,"typeIcon":9,"typeText":12,"descriptionHtml":151,"questions":152,"sections":207},"5eb344ad-4402-46c8-9c72-fc87fc53efea","transparence-et-explicabilite","Transparence et explicabilité","\u003Cp>Les systèmes d’intelligence artificielle (IA), en particulier ceux considérés à haut risque, doivent être conçus et utilisés de manière à respecter les droits fondamentaux. Deux principes clés imposés par l’AI Act sont la \u003Cstrong>transparence\u003C/strong> et l’\u003Cstrong>explicabilité\u003C/strong>. Ces exigences permettent aux parties prenantes (fournisseurs, déployeurs, utilisateurs) de comprendre et de maîtriser les décisions prises par l’IA, tout en garantissant une utilisation éthique et conforme aux réglementations.\u003C/p>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>La transparence pour garantir la clarté\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>La transparence consiste à fournir des informations accessibles et compréhensibles sur les systèmes d’IA pour tous les utilisateurs concernés.\u003C/p>\u003Cp>\u003Cstrong>Les exigences principales :\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>L'information sur les fonctionnalités\u003C/strong> :\u003Cbr>Les systèmes doivent préciser leurs objectifs, leurs limites, et les types de données utilisées.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>La traçabilité\u003C/strong> :\u003Cbr>Les étapes de conception, d’entraînement, et de déploiement doivent être documentées pour permettre des audits.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>La communication claire\u003C/strong> :\u003Cbr>Les utilisateurs doivent être informés lorsque des systèmes d’IA interagissent avec eux ou influencent des décisions qui les concernent.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les risques :\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Manque de clarté sur le rôle du système d’IA.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Complexité technique pouvant décourager la compréhension.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les solutions :\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Fournir des guides utilisateur adaptés au public cible.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Mettre en œuvre des interfaces qui expliquent l’utilisation et les limites du système.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>L'explicabilité pour comprendre les décisions de l’IA\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>L’explicabilité va au-delà de la transparence en expliquant pourquoi et comment une décision ou une prédiction a été faite par le système.\u003C/p>\u003Cp>\u003Cstrong>Les exigences principales :\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>L'interprétabilité des modèles\u003C/strong> :\u003Cbr>Les décisions doivent être explicables pour les utilisateurs, en particulier dans des contextes sensibles (ex. : médecine, justice).\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>La justification des résultats\u003C/strong> :\u003Cbr>Chaque sortie du système doit être liée à des données ou règles clairement identifiables.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>L'accessibilité aux audits\u003C/strong> :\u003Cbr>Les autorités et experts doivent avoir accès aux informations détaillées pour évaluer la conformité.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les risques :\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Utilisation de modèles opaques (« black box ») rendant difficile l’explication des résultats.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Impact négatif sur les droits fondamentaux en cas d’erreur non justifiable.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les solutions :\u003C/strong>\u003C/p>\u003Cul>\u003Cli>\u003Cp>Préférer des modèles d’IA plus simples ou hybrides (balance entre performance et explicabilité).\u003C/p>\u003C/li>\u003Cli>\u003Cp>Utiliser des outils spécialisés pour expliquer les décisions (ex. : SHAP, LIME).\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>Les rôles et les responsabilités\u003C/u>\u003C/strong>\u003C/h3>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Les fournisseurs\u003C/strong> : Fournir la documentation complète sur le fonctionnement et les limites du système.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les déployeurs (ou opérateurs)\u003C/strong> : S’assurer que les utilisateurs disposent des outils et des formations nécessaires pour comprendre l’IA.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les utilisateurs\u003C/strong> : Vérifier les informations reçues et signaler tout manque de clarté.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Cp>L'AI Act impose des obligations strictes en matière de transparence et d’explicabilité pour garantir que les systèmes d’IA sont compréhensibles, traçables et respectueux des droits fondamentaux. Ces principes permettent d'instaurer une confiance indispensable dans l’utilisation de l’intelligence artificielle.\u003C/p>",[153,180],{"id":154,"slug":155,"label":156,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":157,"displayConditions":9,"answers":158,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"ad31d2e0-5bd8-4069-af81-ea0205b96185","02803b1d-1f44-4f95-a753-f1263db25610","Le système d’IA permet-il aux utilisateurs d'obtenir des explications sur la manière dont les décisions sont prises ?",[],[159,163,171,177],{"id":160,"color":27,"rangeValue":9,"label":161,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":162},"ca4e1de0-bc34-41f7-8a20-7a16ee826ac0","Oui, les explications sont claires et accessibles.",[],{"id":164,"color":41,"rangeValue":9,"label":165,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":166},"db3dcfbd-6436-4b8c-9c1e-a4123be68224","Les explications sont disponibles, mais limitées.",[167],{"id":168,"label":169,"userId":9,"color":9,"description":170,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"4ca25159-25ec-4d77-ae18-cfb401c44e07","Renforcer la documentation pour améliorer l'explicabilité des décisions.","\u003Cp>Améliorer la documentation et la transparence des algorithmes pour garantir une meilleure explicabilité des décisions.\u003C/p>",{"id":172,"color":37,"rangeValue":9,"label":173,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":174},"97cc9450-55dc-4d1d-8a2c-7a1a9fc18e7d","Non, aucune explication n’est fournie.",[175],{"id":176,"label":169,"userId":9,"color":9,"description":170,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"7455a37c-df1b-4b08-a956-adde84b0657a",{"id":178,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":179},"51ac7498-9868-4bea-b7f3-ff315798e5d8",[],{"id":181,"slug":182,"label":183,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":184,"displayConditions":9,"answers":185,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"253b4125-8cb8-4b27-8482-e14fba9346bd","d82ac203-eaea-44c8-a355-a8443cc6065b","Les utilisateurs sont-ils informés qu'ils interagissent avec un système d'IA et non avec un être humain ?",[],[186,190,198,204],{"id":187,"color":27,"rangeValue":9,"label":188,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":189},"288593ef-6b94-4ac9-8bcf-bcc4f5622136","Oui, toujours.",[],{"id":191,"color":41,"rangeValue":9,"label":192,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":193},"3eeeafdf-8ad7-4635-9da9-32b549e8114b","Parfois, selon le cas d’usage.",[194],{"id":195,"label":196,"userId":9,"color":9,"description":197,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"43bd3f80-3542-4e4f-aa42-fbc837507b4b","Ajouter des notifications claires pour les interactions critiques avec l'IA.","\u003Cp>Intégrer des notifications claires lorsque les utilisateurs interagissent avec une IA, notamment dans des contextes critiques (services publics, santé).\u003C/p>",{"id":199,"color":37,"rangeValue":9,"label":200,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":201},"f6768e41-1c15-46bc-9639-4fd8fa6c336f","Non, cela n’est pas communiqué.",[202],{"id":203,"label":196,"userId":9,"color":9,"description":197,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"11889de3-bc91-4895-b67c-d6b992eaeafd",{"id":205,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":206},"64fcf712-d0a3-4cee-b6ee-dcf6afdf2ddd",[],[],{"id":209,"slug":210,"label":211,"emoji":9,"type":10,"typeIndex":11,"typeColor":9,"typeIcon":9,"typeText":12,"descriptionHtml":212,"questions":213,"sections":268},"f6b9df6f-bb6b-46be-8b2b-807207ad8b94","securite-et-surete-des-utilisateurs","Sécurité et sûreté des utilisateurs","\u003Cp>L’évaluation de l’impact sur les droits fondamentaux est un élément central pour la mise en conformité des systèmes d’intelligence artificielle (SIA) à haut risque, tel qu'encadré par l'AI Act. Cette évaluation doit comprendre une analyse approfondie des risques pour la \u003Cstrong>sécurité \u003C/strong>et la \u003Cstrong>sûreté \u003C/strong>des utilisateurs, afin de garantir que l’utilisation du système ne porte pas atteinte à leurs droits fondamentaux.\u003C/p>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>La sécurité des utilisateurs\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>La \u003Cstrong>sécurité des utilisateurs\u003C/strong> concerne la protection des personnes contre les risques physiques et psychologiques associés à l'utilisation d'un SIA. L'AI Act insiste sur la nécessité d’évaluer les risques potentiels pour la sécurité, en particulier dans les systèmes qui peuvent avoir un impact direct sur la vie des utilisateurs.\u003C/p>\u003Cp>\u003Cstrong>Les exigences de l'AI Act\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>L'identification des risques\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les SIA doivent identifier et évaluer les risques potentiels pour la sécurité des utilisateurs tout au long du cycle de vie du système.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Cela inclut des risques tels que les accidents, les blessures, ou même la manipulation abusive des systèmes.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les mesures de sécurité\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les SIA doivent mettre en place des mesures de sécurité pour protéger les utilisateurs, telles que des protections contre les défaillances du système, des alertes en cas de danger, et des mécanismes d'arrêt d'urgence.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Des exemples de risques\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La manipulation malveillante\u003C/strong> : Les systèmes peuvent être piratés ou manipulés pour nuire aux utilisateurs.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>La mauvaise performance du système\u003C/strong> : Des erreurs dans les prédictions ou les décisions prises par un SIA pourraient avoir des conséquences graves (par exemple, dans le cas de véhicules autonomes ou de systèmes médicaux).\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>La sûreté des utilisateurs\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>La \u003Cstrong>sûreté des utilisateurs\u003C/strong> se réfère à la protection des utilisateurs contre les risques liés à la vie privée et aux violations des données. L'AI Act impose des exigences strictes pour garantir la sûreté des utilisateurs, notamment en ce qui concerne la confidentialité des données personnelles utilisées par les SIA.\u003C/p>\u003Cp>\u003Cstrong>Les exigences de l'AI Act\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La protection des données personnelles\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les systèmes doivent respecter les règles du RGPD, y compris la minimisation des données et la pseudonymisation ou anonymisation des informations personnelles.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>La transparence et consentement\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les utilisateurs doivent être informés de l’utilisation de leurs données et donner leur consentement explicite avant toute collecte ou traitement.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les contrôles d’accès et sécurité des données\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Des mesures techniques doivent être mises en place pour empêcher l’accès non autorisé aux données des utilisateurs.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Des exemples de risques\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La violation de la vie privée\u003C/strong> : La collecte ou le traitement non autorisé de données sensibles peut exposer les utilisateurs à des violations de leur vie privée.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>L'exploitation des données\u003C/strong> : Une utilisation abusive des informations personnelles à des fins commerciales ou discriminatoires.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>Les mesures et les solutions pour garantir la sécurité et la sûreté\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>\u003Cstrong>Les solutions proposées par l'AI Act\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Des audits réguliers\u003C/strong> : Les SIA à haut risque doivent subir des audits réguliers pour évaluer les risques pour la sécurité et la sûreté des utilisateurs.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Une mise à jour continue\u003C/strong> : Les systèmes doivent être mis à jour régulièrement pour corriger les vulnérabilités et les failles de sécurité.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Une évaluation de la sécurité et de la sûreté avant le déploiement\u003C/strong> : Avant leur mise en service, les SIA doivent être rigoureusement testés pour vérifier qu’ils respectent les exigences de sécurité.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>Les rôles et les responsabilités des acteurs\u003C/u>\u003C/strong>\u003C/h3>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Les fournisseurs\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Responsables de la conception et de l'entraînement des SIA en tenant compte des exigences de sécurité et de sûreté des utilisateurs. Ils doivent fournir une documentation sur les mesures prises pour protéger les utilisateurs.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les déployeurs (ou opérateurs)\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>En charge de la surveillance des performances du système après déploiement et de la gestion des risques pour la sécurité et la sûreté en fonction des retours des utilisateurs.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les représentants autorisés\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Assurent que les systèmes respectent les obligations légales concernant la sécurité et la sûreté des utilisateurs dans les juridictions concernées.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Cp>Dans le cadre de l'AI Act, la sécurité et la sûreté des utilisateurs sont des priorités cruciales pour les SIA à haut risque. L’évaluation de l'impact sur les droits fondamentaux doit impérativement inclure une analyse détaillée des risques pour garantir que les systèmes protègent efficacement les utilisateurs contre les dangers physiques, psychologiques et numériques.\u003C/p>",[214,241],{"id":215,"slug":216,"label":217,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":218,"displayConditions":9,"answers":219,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"4c114ef2-0032-42a1-a1f8-3b481ee3eb34","9bdc2300-64ac-4d7c-af1d-6e912881399f","Le système peut-il entraîner des dommages physiques ou psychologiques aux utilisateurs ?",[],[220,224,232,238],{"id":221,"color":27,"rangeValue":9,"label":222,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":223},"090725a2-7d2f-4054-9065-f0f1fa020530","Oui, il existe un risque élevé de dommages.",[],{"id":225,"color":41,"rangeValue":9,"label":226,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":227},"c05bf856-ff54-45d3-9507-47bae2038406","Des risques modérés sont possibles.",[228],{"id":229,"label":230,"userId":9,"color":9,"description":231,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"61b507a6-ee00-4b78-a6be-61b93a6124f2","Évaluer les risques et établir des mesures de sécurité pour les utilisateurs.","\u003Cp>Effectuer une évaluation des risques et mettre en place des mesures de sécurité pour protéger les utilisateurs.\u003C/p>",{"id":233,"color":37,"rangeValue":9,"label":234,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":235},"aa7058ef-6c76-4f38-800c-65a4a9a1e459","Non, aucun risque identifié.",[236],{"id":237,"label":230,"userId":9,"color":9,"description":231,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"a9b13ae8-e497-4687-a891-8bc5ffc8feed",{"id":239,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":240},"7e6afd2c-c1ad-44e2-8cf7-7cd9fd2378cb",[],{"id":242,"slug":243,"label":244,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":245,"displayConditions":9,"answers":246,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"13ce0d2c-bf21-4de0-959c-95961efe0893","999f9dab-93fa-48f2-b4a1-1fc421b29724","Le système a-t-il été testé pour garantir qu’il ne présente pas de risques pour la sécurité physique des utilisateurs ?",[],[247,251,259,265],{"id":248,"color":27,"rangeValue":9,"label":249,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":250},"6fe68dda-8fea-4123-a7b3-69aaced7eeaa","Oui, des tests approfondis ont été réalisés.",[],{"id":252,"color":41,"rangeValue":9,"label":253,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":254},"59313105-b3f3-498f-a5bf-99f7c2f75112","Partiellement, des tests limités ont été effectués.",[255],{"id":256,"label":257,"userId":9,"color":9,"description":258,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"fadd242b-1973-49cf-912e-4fb5f9303815","Tester rigoureusement pour corriger les risques pour la sécurité des utilisateur","\u003Cp>Effectuer des tests rigoureux pour identifier et corriger tout risque pour la sécurité physique et psychologique des utilisateurs.\u003C/p>",{"id":260,"color":37,"rangeValue":9,"label":261,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":262},"66404e16-133e-48d6-a33c-c972d341494b","Non, aucune mesure de sécurité testée.",[263],{"id":264,"label":257,"userId":9,"color":9,"description":258,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"7f12b4a0-d8d5-490e-bec6-8f1693c4a76e",{"id":266,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":267},"3e827bff-3ef8-4c8d-a36b-7755231c8e77",[],[],{"id":270,"slug":271,"label":272,"emoji":9,"type":10,"typeIndex":11,"typeColor":9,"typeIcon":9,"typeText":12,"descriptionHtml":273,"questions":274,"sections":329},"a9230a4e-1fdd-4bf3-bead-84bace79f13c","liberte-et-autonomie-des-utilisateurs","Liberté et autonomie des utilisateurs","\u003Cp>Dans le cadre de l'AI Act, l'évaluation de l'impact sur les droits fondamentaux est essentielle, notamment pour les systèmes d'intelligence artificielle (SIA) classés comme haut risque. Un aspect crucial de cette évaluation concerne la \u003Cstrong>liberté et l'autonomie des utilisateurs\u003C/strong>.\u003C/p>\u003Cp>\u003C/p>\u003Ch3>\u003Cstrong>\u003Cu>La liberté et l'autonomie des utilisateurs\u003C/u>\u003C/strong>\u003C/h3>\u003Cp>L'AI Act et d'autres régulations européennes (comme le RGPD) mettent en avant la nécessité de protéger la liberté et l'autonomie des utilisateurs dans le contexte des SIA. L'idée est que ces systèmes ne doivent pas restreindre la capacité des individus à prendre des décisions libres et informées.\u003C/p>\u003Cp>\u003Cstrong>Les principes clés \u003C/strong>:\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La transparence et l'information\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les utilisateurs doivent être pleinement informés des décisions prises par les systèmes d'IA, particulièrement dans les systèmes à haut risque. Cette information doit être claire, accessible et compréhensible.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Cela inclut des explications sur le fonctionnement des algorithmes, les objectifs du système, ainsi que les conséquences des décisions prises par l'IA.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Le consentement libre et éclairé\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les utilisateurs doivent avoir la possibilité de donner leur consentement librement, sans pression ou manipulation. Cela est particulièrement important dans des contextes où les décisions automatisées peuvent avoir un impact significatif sur leurs vies (par exemple, en matière d'emploi, de crédit, ou de santé).\u003C/p>\u003C/li>\u003Cli>\u003Cp>Le consentement ne doit pas être obtenu par défaut ou être implicite. Il doit être donné après une information complète et sans restrictions de choix.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>L'autonomie décisionnelle\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les utilisateurs doivent conserver un certain contrôle sur les décisions affectant leur vie, même si celles-ci sont influencées ou prises par un SIA. L'IA ne doit pas être utilisée pour contraindre ou manipuler les utilisateurs à agir contre leurs intérêts ou leur volonté.\u003C/p>\u003C/li>\u003Cli>\u003Cp>Dans le cas de décisions significatives, comme celles concernant l'accès à des services ou des ressources (par exemple, un prêt bancaire ou une opportunité d'emploi), les utilisateurs doivent être en mesure de contester ou d'obtenir un réexamen humain de la décision prise par le SIA.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Ch3>\u003Cstrong>\u003Cu>Exigences de l’AI Act\u003C/u>\u003C/strong>\u003C/h3>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La protection contre la manipulation\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les SIA doivent être conçus de manière à éviter les pratiques manipulatrices qui réduisent la liberté de choix des utilisateurs. Cela inclut la prévention des biais cognitifs ou des pressions psychologiques dans les interactions avec les systèmes.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>L'évaluation d'impact sur les droits fondamentaux\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Lorsqu'un SIA est susceptible d’affecter les droits fondamentaux des individus (par exemple, la liberté d'expression ou le droit à un traitement équitable), une évaluation approfondie doit être réalisée pour s'assurer que la conception et l'usage du système respectent ces droits. La transparence sur l'usage des données, ainsi que la possibilité d’intervenir sur les décisions prises par l’IA, doivent être garanties.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>L'accès à un recours humain\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>Les utilisateurs doivent pouvoir demander un examen humain des décisions prises par un système d’IA, notamment dans les situations où une décision automatisée a des conséquences juridiques ou significatives pour l'utilisateur. Cela permet de garantir que l’autonomie décisionnelle n’est pas complètement transférée à la machine.\u003C/p>\u003C/li>\u003C/ul>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les risques\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>La manipulation et Le contrôle excessif\u003C/strong> : Si les utilisateurs ne sont pas bien informés, ils peuvent être soumis à des décisions automatisées qui ne respectent pas leur autonomie ou leur liberté de choix.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Les biais et la discrimination\u003C/strong> : Les systèmes d'IA peuvent renforcer des biais existants, ce qui peut restreindre les opportunités d'un utilisateur ou influencer négativement ses décisions.\u003C/p>\u003C/li>\u003C/ul>\u003Cp>\u003Cstrong>Les solutions\u003C/strong> :\u003C/p>\u003Cul>\u003Cli>\u003Cp>\u003Cstrong>Des audits de transparence\u003C/strong> : Effectuer des audits réguliers pour vérifier la conformité des systèmes avec les exigences de transparence et d’autonomie.\u003C/p>\u003C/li>\u003Cli>\u003Cp>\u003Cstrong>Une interface utilisateur claire et explicative\u003C/strong> : Assurer que les interfaces des SIA permettent une compréhension facile des décisions prises et des recours possibles.\u003C/p>\u003Cp>\u003C/p>\u003C/li>\u003C/ul>\u003Cp>L'AI Act insiste sur l'importance de garantir que les utilisateurs conservent leur liberté et autonomie lorsqu'ils interagissent avec des systèmes d'IA, en particulier ceux à haut risque. La transparence, le consentement éclairé, la capacité à contester les décisions automatisées et la protection contre la manipulation sont des principes fondamentaux pour assurer la protection des droits individuels.\u003C/p>",[275,302],{"id":276,"slug":277,"label":278,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":279,"displayConditions":9,"answers":280,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"cf323920-64ff-49ce-8b72-1ae50b37fd1d","ea533952-3af7-4068-ae80-16a373f6c9b4","Le système limite-t-il de manière disproportionnée l’autonomie des utilisateurs dans la prise de décisions ?",[],[281,289,295,299],{"id":282,"color":27,"rangeValue":9,"label":283,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":284},"6efdaac2-32c6-4d73-8f00-b274054fc7f0","Oui, il y a un risque élevé de limitation de l’autonomie.",[285],{"id":286,"label":287,"userId":9,"color":9,"description":288,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"244bbd63-07a6-493b-9a40-641bc59af5ba","Permettre aux utilisateurs de contester les décisions de l'IA.","\u003Cp>S’assurer que les utilisateurs peuvent contester les décisions prises par l’IA et recourir à un examen humain des décisions automatisées.\u003C/p>",{"id":290,"color":41,"rangeValue":9,"label":291,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":292},"18115633-7640-43c3-a006-113784e6523c","Des limitations modérées sont possibles.",[293],{"id":294,"label":287,"userId":9,"color":9,"description":288,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"5f38507a-c80a-44fb-8b0e-efdd7ec58fff",{"id":296,"color":37,"rangeValue":9,"label":297,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":298},"b636f644-b99e-4b42-a280-a901bfadbf37","Non, aucune limitation n’a été identifiée.",[],{"id":300,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":301},"3eeeed9f-f9d7-4e25-8f38-dd3910504f30",[],{"id":303,"slug":304,"label":305,"tooltipHtml":9,"descriptionHtml":9,"badResponseCommentHtml":9,"goodResponseCommentHtml":9,"placeholder":9,"min":9,"max":9,"regex":9,"unit":9,"type":19,"typeIndex":20,"typeColor":9,"typeIcon":9,"typeText":21,"dynamicSelectType":9,"editableOptions":22,"complianceRules":306,"displayConditions":9,"answers":307,"listQuestions":9,"required":22,"requiredJustification":22,"suggestTask":22,"riskEnabled":56,"native":22},"b853bfa8-6700-470f-b013-fd6500ee705e","b4ee84ae-407f-4efa-8373-b3767432899c","Les utilisateurs peuvent-ils facilement désactiver ou éviter les systèmes d’IA s'ils ne souhaitent pas y recourir ?",[],[308,312,320,326],{"id":309,"color":27,"rangeValue":9,"label":310,"slug":9,"description":9,"score":29,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":311},"3019d4c0-209a-464a-a067-7409602082a4","Oui, ils peuvent le faire à tout moment.",[],{"id":313,"color":41,"rangeValue":9,"label":314,"slug":9,"description":9,"score":43,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":315},"5fd9b941-2a6f-48ff-a540-b5b59ea6d227","Dans certains cas seulement.",[316],{"id":317,"label":318,"userId":9,"color":9,"description":319,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"561a1ccb-6d02-4cfa-a560-4ead134f132b","Autoriser la désactivation de l'IA ou le choix d'une alternative humaine.","\u003Cp>Mettre en place des mécanismes qui permettent aux utilisateurs de désactiver l’IA ou de choisir une alternative humaine.\u003C/p>",{"id":321,"color":37,"rangeValue":9,"label":322,"slug":9,"description":9,"score":50,"nonApplicable":22,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":323},"bd505fed-2546-4002-bc0e-d372c960a55b","Non, cela n’est pas possible.",[324],{"id":325,"label":318,"userId":9,"color":9,"description":319,"priority":35,"priorityIndex":36,"priorityColor":37,"priorityIcon":9,"priorityText":38},"af4c178a-def2-4c1f-8c57-bc6c37f61192",{"id":327,"color":54,"rangeValue":9,"label":55,"slug":9,"description":9,"score":9,"nonApplicable":56,"tooltip":9,"goodAnswer":22,"redFlag":22,"impact":9,"probability":9,"taskSuggestions":328},"64d4563c-2c7e-4ec4-8a96-f5614258ac0d",[],[],[331,446,549,652,755],{"id":332,"label":333,"variant":334,"variantIndex":36,"variantColor":37,"variantIcon":335,"variantText":336,"contentHtml":337,"displayConditions":338},"2614c067-969b-41c2-8c37-d8b47cc82735","Il existe un risque pour la protection de vos données.","Warning","icon-alert-circle","Point d'attention","\u003Cp>Selon les résultats de ce questionnaire, des actions correctives s’imposent afin de réduire les risques liés à la \u003Cstrong>protection des données\u003C/strong>. En effet, votre score élevé dans la section 1 du questionnaire révèle un risque significatif associé à l’impact global de votre/vos système(s) d’IA.\u003C/p>",{"id":339,"separator":340,"field":9,"operator":341,"value":9,"rules":342},"69739d02-3aa5-437b-b296-183d4156aa21","Or","equal",[343,359,372,385,397,409,422,434],{"id":344,"separator":345,"field":9,"operator":341,"value":9,"rules":346},"d89d6d50-88ef-423d-aad4-478d384b2471","And",[347,350,353],{"id":348,"separator":9,"field":16,"operator":341,"value":26,"rules":349},"2ad0abb9-5104-4125-bb37-aeaa2a55986c",[],{"id":351,"separator":9,"field":59,"operator":341,"value":65,"rules":352},"7af39565-8b57-4861-bfe1-0fcda17392f0",[],{"id":354,"separator":9,"field":355,"operator":356,"value":357,"rules":358},"0179d7d3-f991-4c4c-905e-0acd5f2eb8c6","score","greaterThanInclusive",10,[],{"id":360,"separator":345,"field":9,"operator":341,"value":9,"rules":361},"e2508aa4-af33-4e67-ac71-865d4661027b",[362,365,368],{"id":363,"separator":9,"field":16,"operator":341,"value":26,"rules":364},"2b6c8668-8602-4bd6-8f31-0938ae448bda",[],{"id":366,"separator":9,"field":59,"operator":341,"value":69,"rules":367},"9c56daa7-0c1a-4f17-97c2-df6cb69a0ea5",[],{"id":369,"separator":9,"field":355,"operator":356,"value":370,"rules":371},"398a8ac0-134a-47cc-a8a2-d389d6099d1a",8,[],{"id":373,"separator":345,"field":9,"operator":341,"value":9,"rules":374},"02950969-4dbe-4192-a770-b5fa549b600a",[375,378,381],{"id":376,"separator":9,"field":16,"operator":341,"value":26,"rules":377},"3924e01e-4f96-47eb-af5a-227dc318488a",[],{"id":379,"separator":9,"field":59,"operator":341,"value":77,"rules":380},"0affd2db-a571-4fd1-9614-b68239df5e62",[],{"id":382,"separator":9,"field":355,"operator":356,"value":383,"rules":384},"34dcde02-a249-4d7f-b9a8-07cd8fd00b3d",6,[],{"id":386,"separator":345,"field":9,"operator":341,"value":9,"rules":387},"81dd8c08-c04e-46f3-bf21-f9ff97814637",[388,391,394],{"id":389,"separator":9,"field":16,"operator":341,"value":40,"rules":390},"5c8cc75f-20a5-47ff-9650-9727b5e81414",[],{"id":392,"separator":9,"field":59,"operator":341,"value":65,"rules":393},"10693a12-97ab-4562-bc14-b48ed843f3bd",[],{"id":395,"separator":9,"field":355,"operator":356,"value":370,"rules":396},"05285e84-e8b8-44b0-861f-0b83b56898a9",[],{"id":398,"separator":345,"field":9,"operator":341,"value":9,"rules":399},"410190c1-14ab-4c29-a703-60927d612d3b",[400,403,406],{"id":401,"separator":9,"field":16,"operator":341,"value":40,"rules":402},"d8a082a7-c53a-4ad2-aa69-ea2ed4e5f954",[],{"id":404,"separator":9,"field":59,"operator":341,"value":69,"rules":405},"f52a013a-4ca9-454d-b586-7f189c209e8a",[],{"id":407,"separator":9,"field":355,"operator":356,"value":383,"rules":408},"6c3c1de9-e319-4a66-9115-d32edcaf43c4",[],{"id":410,"separator":345,"field":9,"operator":341,"value":9,"rules":411},"ecba6044-47db-451c-aee1-61d08236f5b4",[412,415,418],{"id":413,"separator":9,"field":16,"operator":341,"value":40,"rules":414},"f54bf801-372e-4e24-a905-f97d201d46af",[],{"id":416,"separator":9,"field":59,"operator":341,"value":77,"rules":417},"357ff087-1877-4fe1-a035-6b8d4b325de8",[],{"id":419,"separator":9,"field":355,"operator":356,"value":420,"rules":421},"0f462341-84ca-4632-ae82-c904f52b0bf9",4,[],{"id":423,"separator":345,"field":9,"operator":341,"value":9,"rules":424},"b905863d-9eb8-4c01-ab1c-51ce05fa6c56",[425,428,431],{"id":426,"separator":9,"field":16,"operator":341,"value":48,"rules":427},"ea331ab9-3986-40e1-842c-7154ba30fc9b",[],{"id":429,"separator":9,"field":59,"operator":341,"value":65,"rules":430},"c8f194be-2667-47f1-b055-79797f364159",[],{"id":432,"separator":9,"field":355,"operator":356,"value":383,"rules":433},"f37f47ac-7918-4e1e-8ea4-7d77b445e1ab",[],{"id":435,"separator":345,"field":9,"operator":341,"value":9,"rules":436},"0800d460-ae98-4953-99ac-fd31715c41f7",[437,440,443],{"id":438,"separator":9,"field":16,"operator":341,"value":48,"rules":439},"9218c080-2ce1-4e82-941c-5b011a8f525f",[],{"id":441,"separator":9,"field":59,"operator":341,"value":69,"rules":442},"c0fe9919-da13-4ba1-b717-7d5365f6876c",[],{"id":444,"separator":9,"field":355,"operator":356,"value":420,"rules":445},"fd45941a-5d99-40e9-b563-b6d4875fb9a5",[],{"id":447,"label":448,"variant":334,"variantIndex":36,"variantColor":37,"variantIcon":335,"variantText":336,"contentHtml":449,"displayConditions":450},"89109eb9-507f-46e8-915c-7e1a47ff60e2","Il existe un risque pour l'équité et non-discrimination.","\u003Cp>Les résultats de ce questionnaire indiquent qu’il est nécessaire de mettre en place des actions correctives pour réduire les risques liés à l’\u003Cstrong>équité et à la non-discrimination\u003C/strong>. En effet, votre score élevé dans la section 2 du questionnaire met en évidence un risque significatif concernant l’impact global de votre/vos système(s) d’IA.\u003C/p>",{"id":451,"separator":340,"field":9,"operator":341,"value":9,"rules":452},"2ce0f94c-7fe7-454d-8809-dcd84e318176",[453,465,477,489,501,513,525,537],{"id":454,"separator":345,"field":9,"operator":341,"value":9,"rules":455},"f4271c28-93ee-40be-b050-248d94e13a3c",[456,459,462],{"id":457,"separator":9,"field":93,"operator":341,"value":99,"rules":458},"0bf60520-40cc-4ec0-8bab-bc5b3e2ea734",[],{"id":460,"separator":9,"field":120,"operator":341,"value":126,"rules":461},"bcc7e6bc-24bf-4f56-ada2-802423c2a88f",[],{"id":463,"separator":9,"field":355,"operator":356,"value":357,"rules":464},"4d1e3a73-7591-4fa7-a8b7-2f0a42898c79",[],{"id":466,"separator":345,"field":9,"operator":341,"value":9,"rules":467},"4592ce2f-6cdf-43e9-bdba-fb3c1ca1b54f",[468,471,474],{"id":469,"separator":9,"field":93,"operator":341,"value":99,"rules":470},"0f430b09-83c5-4200-b898-898b18750044",[],{"id":472,"separator":9,"field":120,"operator":341,"value":130,"rules":473},"7b73fce6-5b75-4a87-8035-7114acb46953",[],{"id":475,"separator":9,"field":355,"operator":356,"value":370,"rules":476},"0f11cb5e-2663-4d2d-abfb-eb5c4f8437c9",[],{"id":478,"separator":345,"field":9,"operator":341,"value":9,"rules":479},"e6b9983a-43ab-4f5b-8f34-ed6931320fd9",[480,483,486],{"id":481,"separator":9,"field":93,"operator":341,"value":99,"rules":482},"a9131e58-3451-4d1a-91e9-a294a5e1f101",[],{"id":484,"separator":9,"field":120,"operator":341,"value":138,"rules":485},"a6026960-f277-4b31-8e1d-98f2d91ced95",[],{"id":487,"separator":9,"field":355,"operator":356,"value":383,"rules":488},"72e32bc7-c900-41e5-bf08-f766d257577f",[],{"id":490,"separator":345,"field":9,"operator":341,"value":9,"rules":491},"cfaa51fb-881c-41cd-88c7-e472b7615ec3",[492,495,498],{"id":493,"separator":9,"field":93,"operator":341,"value":103,"rules":494},"e406be6a-c10e-4002-a4da-9d5ee6fc0e9f",[],{"id":496,"separator":9,"field":120,"operator":341,"value":126,"rules":497},"5f84708c-070c-4e3d-94b3-f63bc34ee01b",[],{"id":499,"separator":9,"field":355,"operator":356,"value":370,"rules":500},"b23467a1-5b71-459f-a145-0ca8f7ab800a",[],{"id":502,"separator":345,"field":9,"operator":341,"value":9,"rules":503},"c6b00f90-0cfe-4d00-9429-9da7edee3bc4",[504,507,510],{"id":505,"separator":9,"field":93,"operator":341,"value":103,"rules":506},"0fc38409-37f0-41e3-a6ce-d3926c83358b",[],{"id":508,"separator":9,"field":120,"operator":341,"value":130,"rules":509},"5577f7e9-1f30-4b0e-a909-df675666e62f",[],{"id":511,"separator":9,"field":355,"operator":356,"value":383,"rules":512},"ff503f76-5ab1-43dd-956e-d19f44a22289",[],{"id":514,"separator":345,"field":9,"operator":341,"value":9,"rules":515},"7e538a20-5669-4b71-adc3-5bc5e33a24c1",[516,519,522],{"id":517,"separator":9,"field":93,"operator":341,"value":103,"rules":518},"706ef28a-8e0b-40b0-903b-eddadd2ebf2b",[],{"id":520,"separator":9,"field":120,"operator":341,"value":138,"rules":521},"52071813-3a5f-45c3-956e-f247b5326152",[],{"id":523,"separator":9,"field":355,"operator":356,"value":420,"rules":524},"a442dd49-9878-418d-9ddc-7ccc4a87ff1e",[],{"id":526,"separator":345,"field":9,"operator":341,"value":9,"rules":527},"f5bb772b-d0fb-4b2b-b626-bcfe5d531b09",[528,531,534],{"id":529,"separator":9,"field":93,"operator":341,"value":111,"rules":530},"d5be8712-fb2e-43bb-a1fe-712d82a0ecd2",[],{"id":532,"separator":9,"field":120,"operator":341,"value":126,"rules":533},"e0ea7b3d-243b-4c9e-a18d-846bf3981696",[],{"id":535,"separator":9,"field":355,"operator":356,"value":383,"rules":536},"df59414b-097e-40af-8b30-0411af5656c9",[],{"id":538,"separator":345,"field":9,"operator":341,"value":9,"rules":539},"d651bd6b-2313-45bc-b33a-caff1971b359",[540,543,546],{"id":541,"separator":9,"field":93,"operator":341,"value":111,"rules":542},"cae0c6e2-3cc5-4b61-a341-c5c2cd24033c",[],{"id":544,"separator":9,"field":120,"operator":341,"value":130,"rules":545},"bf2d0de0-40cd-44c7-b486-71d0cdcb22fa",[],{"id":547,"separator":9,"field":355,"operator":356,"value":420,"rules":548},"424215be-6583-4ad2-86dd-37fa0427de3a",[],{"id":550,"label":551,"variant":334,"variantIndex":36,"variantColor":37,"variantIcon":335,"variantText":336,"contentHtml":552,"displayConditions":553},"d42fd516-cd58-4e9d-811e-460c0fce7784","Il existe un risque pour la transparence.","\u003Cp>Les résultats de ce questionnaire mettent en évidence la nécessité de prendre des actions correctives pour réduire les risques liés à la \u003Cstrong>transparence\u003C/strong>. En effet, un score élevé dans la section 3 indique un risque significatif concernant l’impact global de votre/vos système(s) d’IA.\u003C/p>",{"id":554,"separator":340,"field":9,"operator":341,"value":9,"rules":555},"4b899c5f-01da-43ac-96c9-2ebb7498844e",[556,568,580,592,604,616,628,640],{"id":557,"separator":345,"field":9,"operator":341,"value":9,"rules":558},"11daf862-c071-4d2d-8330-ab461f95ae69",[559,562,565],{"id":560,"separator":9,"field":154,"operator":341,"value":160,"rules":561},"4aea8f64-a4fe-4db4-89e3-9a1b6164cc10",[],{"id":563,"separator":9,"field":181,"operator":341,"value":187,"rules":564},"19e960a1-7095-41a7-9e41-35d718ee9fdb",[],{"id":566,"separator":9,"field":355,"operator":356,"value":357,"rules":567},"b6d7cb41-a4fa-46d3-a985-8d7e00ba02a4",[],{"id":569,"separator":345,"field":9,"operator":341,"value":9,"rules":570},"eb1a4eb0-52dc-41e6-9f54-73702021b63e",[571,574,577],{"id":572,"separator":9,"field":154,"operator":341,"value":160,"rules":573},"7f474ee7-80ad-4e66-a3e8-1045985f0033",[],{"id":575,"separator":9,"field":181,"operator":341,"value":191,"rules":576},"f9381dbe-9832-4401-af12-e2965ad604bf",[],{"id":578,"separator":9,"field":355,"operator":356,"value":370,"rules":579},"1d4601d7-6bcf-412e-b1de-39ee595f7860",[],{"id":581,"separator":345,"field":9,"operator":341,"value":9,"rules":582},"f594483d-676c-4027-90d5-f3406057994e",[583,586,589],{"id":584,"separator":9,"field":154,"operator":341,"value":160,"rules":585},"8ecaf0ff-2a8f-4c0a-b496-e13aa38ae918",[],{"id":587,"separator":9,"field":181,"operator":341,"value":199,"rules":588},"08af9808-35d9-435a-bb92-aa79631c4bc5",[],{"id":590,"separator":9,"field":355,"operator":356,"value":383,"rules":591},"23224cdd-7fd7-409f-8704-b1ceb2e285fc",[],{"id":593,"separator":345,"field":9,"operator":341,"value":9,"rules":594},"b165095d-2fb0-44b4-ace7-6dc715a5a0ad",[595,598,601],{"id":596,"separator":9,"field":154,"operator":341,"value":164,"rules":597},"128f33e3-f873-4ebf-922f-db4d74e1224f",[],{"id":599,"separator":9,"field":181,"operator":341,"value":187,"rules":600},"a893a77b-dfb7-4b31-92a2-8fcdf72323be",[],{"id":602,"separator":9,"field":355,"operator":356,"value":370,"rules":603},"bc8abaa7-ce0b-40ed-af2e-e58f7443a2c8",[],{"id":605,"separator":345,"field":9,"operator":341,"value":9,"rules":606},"9d366df5-9a29-4ecd-a844-e2928b4c54c9",[607,610,613],{"id":608,"separator":9,"field":154,"operator":341,"value":164,"rules":609},"2e35c909-9408-4761-9c71-46c489084658",[],{"id":611,"separator":9,"field":181,"operator":341,"value":191,"rules":612},"4446da44-0376-4750-82bc-f15c754dacdf",[],{"id":614,"separator":9,"field":355,"operator":356,"value":383,"rules":615},"6711a2ea-3ca9-43b5-a838-c813c93d7e97",[],{"id":617,"separator":345,"field":9,"operator":341,"value":9,"rules":618},"122d565c-373f-4240-a3d8-58a2dcc96339",[619,622,625],{"id":620,"separator":9,"field":154,"operator":341,"value":164,"rules":621},"ca92cdf8-7709-4c73-8869-5038f6ec7705",[],{"id":623,"separator":9,"field":181,"operator":341,"value":199,"rules":624},"82bc3b4e-a73e-4590-9ebc-e4cc80e422f7",[],{"id":626,"separator":9,"field":355,"operator":356,"value":420,"rules":627},"aeb8ec07-cde9-4df9-a3c4-88ce7be2a3ff",[],{"id":629,"separator":345,"field":9,"operator":341,"value":9,"rules":630},"50bfa4c8-0a59-4a23-ab48-6ed7e3447e68",[631,634,637],{"id":632,"separator":9,"field":154,"operator":341,"value":172,"rules":633},"a0913be4-fea0-42eb-9c4b-92a0cb64a644",[],{"id":635,"separator":9,"field":181,"operator":341,"value":187,"rules":636},"51d8e285-17ff-457b-85e3-948f836a539b",[],{"id":638,"separator":9,"field":355,"operator":356,"value":383,"rules":639},"4fc90dc0-39ce-48f4-ac69-67d12272e8a5",[],{"id":641,"separator":345,"field":9,"operator":341,"value":9,"rules":642},"a995bcf3-6e9e-40ca-b60c-962d2486fbc3",[643,646,649],{"id":644,"separator":9,"field":154,"operator":341,"value":172,"rules":645},"614f8cde-c1ef-424c-9ae2-71817b1932c9",[],{"id":647,"separator":9,"field":181,"operator":341,"value":191,"rules":648},"2661d11a-1ae8-4858-aaf9-89980396750d",[],{"id":650,"separator":9,"field":355,"operator":356,"value":420,"rules":651},"9e49754d-72ac-4cb2-9eb8-a4aea9c9c8b5",[],{"id":653,"label":654,"variant":334,"variantIndex":36,"variantColor":37,"variantIcon":335,"variantText":336,"contentHtml":655,"displayConditions":656},"024818b9-7a14-41d7-8db7-4365668bc5ca","Il existe un risque pour la sécurité.","\u003Cp>Les résultats de ce questionnaire soulignent la nécessité d’entreprendre des actions correctives afin de réduire les risques liés à la \u003Cstrong>sécurité\u003C/strong>. En effet, votre score élevé dans la section 4 indique un risque significatif concernant l’impact global de votre/vos système(s) d’IA.\u003C/p>",{"id":657,"separator":340,"field":9,"operator":341,"value":9,"rules":658},"fe3587fb-fb1f-4eb5-a661-0946f6d4db64",[659,671,683,695,707,719,731,743],{"id":660,"separator":345,"field":9,"operator":341,"value":9,"rules":661},"62c936a6-7368-455a-9b50-28a5aa2e88c8",[662,665,668],{"id":663,"separator":9,"field":215,"operator":341,"value":221,"rules":664},"ae1ff6f8-672b-4fa5-ae09-ee6d1b3f59b7",[],{"id":666,"separator":9,"field":242,"operator":341,"value":248,"rules":667},"b7fb2e79-1116-4cbd-86ac-31443f8c1c15",[],{"id":669,"separator":9,"field":355,"operator":356,"value":357,"rules":670},"88d8a44d-1bb9-4353-8170-366cc3dab628",[],{"id":672,"separator":345,"field":9,"operator":341,"value":9,"rules":673},"0a831d10-7f95-4c80-a1b8-8c22b0e56c5a",[674,677,680],{"id":675,"separator":9,"field":215,"operator":341,"value":221,"rules":676},"dcba00b6-2284-4bfe-ad5e-2a5d5d3a2dbe",[],{"id":678,"separator":9,"field":242,"operator":341,"value":252,"rules":679},"63fac79a-1935-44ec-96ba-8271ffdcd771",[],{"id":681,"separator":9,"field":355,"operator":356,"value":370,"rules":682},"bb8c3205-c26b-4128-8673-1534206d96be",[],{"id":684,"separator":345,"field":9,"operator":341,"value":9,"rules":685},"d70969c5-6b39-4d62-a17c-dc96cae5a1ff",[686,689,692],{"id":687,"separator":9,"field":215,"operator":341,"value":221,"rules":688},"b6bbe331-8bd4-4e58-a5b7-8d4bd9df142c",[],{"id":690,"separator":9,"field":242,"operator":341,"value":260,"rules":691},"99b0dfb8-dc0b-4eb5-9b99-c8f2e8f4cda8",[],{"id":693,"separator":9,"field":355,"operator":356,"value":383,"rules":694},"02f7d6e5-983c-45f7-8f0a-5c759c172f16",[],{"id":696,"separator":345,"field":9,"operator":341,"value":9,"rules":697},"c2fe3e00-6a0a-4343-a03c-ed8268861083",[698,701,704],{"id":699,"separator":9,"field":215,"operator":341,"value":225,"rules":700},"70ea7d72-3dc3-49f3-9b85-b7b81c859c6e",[],{"id":702,"separator":9,"field":242,"operator":341,"value":248,"rules":703},"247ba8b8-894c-40ee-a260-cf887a28d029",[],{"id":705,"separator":9,"field":355,"operator":356,"value":370,"rules":706},"66142cd6-7e9a-42e8-99c0-f30330cf65df",[],{"id":708,"separator":345,"field":9,"operator":341,"value":9,"rules":709},"992e0b45-6af3-45e5-a999-3c853218cda5",[710,713,716],{"id":711,"separator":9,"field":215,"operator":341,"value":225,"rules":712},"b82a1807-cc47-400e-a24c-c0750c53e993",[],{"id":714,"separator":9,"field":242,"operator":341,"value":252,"rules":715},"a5fa017a-426e-4865-bba4-5df3095f3a66",[],{"id":717,"separator":9,"field":355,"operator":356,"value":383,"rules":718},"39039f01-6385-4064-8add-9c86661ce6f6",[],{"id":720,"separator":345,"field":9,"operator":341,"value":9,"rules":721},"5747292f-d8a8-4d09-9736-b54ecdb76ed4",[722,725,728],{"id":723,"separator":9,"field":215,"operator":341,"value":225,"rules":724},"f7109f7d-9a9d-457a-b20f-1ff50ba7e9c3",[],{"id":726,"separator":9,"field":242,"operator":341,"value":260,"rules":727},"7f45c05d-521a-450b-81e9-7b2b5e66e7f2",[],{"id":729,"separator":9,"field":355,"operator":356,"value":420,"rules":730},"c56af021-a009-4052-8620-a917d4d4c082",[],{"id":732,"separator":345,"field":9,"operator":341,"value":9,"rules":733},"3521e7e3-a87c-49ab-8a7f-fd7aa65a62f9",[734,737,740],{"id":735,"separator":9,"field":215,"operator":341,"value":233,"rules":736},"e5646f9c-44b1-4c24-8ddb-182deb12ffff",[],{"id":738,"separator":9,"field":242,"operator":341,"value":248,"rules":739},"2d76bbc3-696d-4c3b-9df1-15df6c767238",[],{"id":741,"separator":9,"field":355,"operator":356,"value":383,"rules":742},"75d78bd8-ad10-456a-aa6b-37a5b78d3e13",[],{"id":744,"separator":345,"field":9,"operator":341,"value":9,"rules":745},"f6bbe60e-102c-4f12-8c88-5633c8a4b6fe",[746,749,752],{"id":747,"separator":9,"field":215,"operator":341,"value":233,"rules":748},"300514ea-d6fc-444a-8164-b2907786e8a2",[],{"id":750,"separator":9,"field":242,"operator":341,"value":252,"rules":751},"811a4e7f-caaf-4fac-a219-d2130a54ce62",[],{"id":753,"separator":9,"field":355,"operator":356,"value":420,"rules":754},"7ca31f10-06d1-4483-a071-8165471ef5b8",[],{"id":756,"label":757,"variant":334,"variantIndex":36,"variantColor":37,"variantIcon":335,"variantText":336,"contentHtml":758,"displayConditions":759},"b705921c-0175-4e65-9c64-1eb64c3403aa","Il existe un risque pour la liberté et l'autonomie.","\u003Cp>Les résultats de ce questionnaire mettent en évidence la nécessité d’actions correctives pour réduire les risques liés à la \u003Cstrong>liberté et à l’autonomie\u003C/strong>. En effet, un score élevé dans la section 5 indique un risque significatif concernant l’impact global de votre/vos système(s) d’IA.\u003C/p>",{"id":760,"separator":340,"field":9,"operator":341,"value":9,"rules":761},"9e91d87b-3bd0-45af-b42d-a7d2eb6b51a7",[762,774,786,798,810,822,834,846],{"id":763,"separator":345,"field":9,"operator":341,"value":9,"rules":764},"551e71d5-f643-44ff-adae-83af591d123f",[765,768,771],{"id":766,"separator":9,"field":276,"operator":341,"value":282,"rules":767},"bfd4e6af-1161-4b17-ae16-24b7a1755c26",[],{"id":769,"separator":9,"field":303,"operator":341,"value":309,"rules":770},"43de4de4-aa41-4406-af28-6139ca027155",[],{"id":772,"separator":9,"field":355,"operator":356,"value":357,"rules":773},"963c0672-e7e8-47f9-b67a-cb564c5258c3",[],{"id":775,"separator":345,"field":9,"operator":341,"value":9,"rules":776},"c45166a6-46ac-4eaf-a86f-2734bd538c7c",[777,780,783],{"id":778,"separator":9,"field":276,"operator":341,"value":282,"rules":779},"15e5f52c-da5b-48d8-907c-aff181ce9f6c",[],{"id":781,"separator":9,"field":303,"operator":341,"value":313,"rules":782},"7540e3f9-fa55-43a1-a58c-3da3c3a60d0a",[],{"id":784,"separator":9,"field":355,"operator":356,"value":370,"rules":785},"825d67a5-24ee-4d11-9e9e-20bdd0a2f3cc",[],{"id":787,"separator":345,"field":9,"operator":341,"value":9,"rules":788},"7eec905d-0a26-4cc6-b387-bde11c738cc8",[789,792,795],{"id":790,"separator":9,"field":276,"operator":341,"value":282,"rules":791},"3ec462c2-5484-42bf-91c1-5546afa7cdd1",[],{"id":793,"separator":9,"field":303,"operator":341,"value":321,"rules":794},"98cab4a2-be3c-47b8-8e9c-b920170b0b9d",[],{"id":796,"separator":9,"field":355,"operator":356,"value":383,"rules":797},"61b3ec03-12e1-43df-92fe-69d2a2412bfa",[],{"id":799,"separator":345,"field":9,"operator":341,"value":9,"rules":800},"fe950631-ad82-4fcd-ac6d-40f8328c643f",[801,804,807],{"id":802,"separator":9,"field":276,"operator":341,"value":290,"rules":803},"e4f6cadb-6609-4dad-896b-f0ce2585e690",[],{"id":805,"separator":9,"field":303,"operator":341,"value":309,"rules":806},"b3a02d40-397e-4cb4-a6ed-77eee48f85d7",[],{"id":808,"separator":9,"field":355,"operator":356,"value":370,"rules":809},"62a4af3c-cbfe-44fd-ba63-81cac250072a",[],{"id":811,"separator":345,"field":9,"operator":341,"value":9,"rules":812},"9f55ab08-0de4-4f21-a5d3-414aac66eafb",[813,816,819],{"id":814,"separator":9,"field":276,"operator":341,"value":290,"rules":815},"07026c32-92a8-4ad0-b7c2-728e2728befa",[],{"id":817,"separator":9,"field":303,"operator":341,"value":313,"rules":818},"ff108ed4-239b-4980-8478-59e69ac0206e",[],{"id":820,"separator":9,"field":355,"operator":356,"value":383,"rules":821},"454dcc1e-289a-4592-80c3-f5b1efd66475",[],{"id":823,"separator":345,"field":9,"operator":341,"value":9,"rules":824},"f6fe357f-cea3-48d5-b586-094404bcbc82",[825,828,831],{"id":826,"separator":9,"field":276,"operator":341,"value":290,"rules":827},"1e7028af-db2b-49d1-af7e-b9c380e58b1e",[],{"id":829,"separator":9,"field":303,"operator":341,"value":321,"rules":830},"ba0c996f-182e-4e98-9092-75a798af4856",[],{"id":832,"separator":9,"field":355,"operator":356,"value":420,"rules":833},"5101d3f5-a58a-49b6-9f6e-f94c1f4d24e7",[],{"id":835,"separator":345,"field":9,"operator":341,"value":9,"rules":836},"5a632f90-648e-4929-aa19-7e7dcab0250e",[837,840,843],{"id":838,"separator":9,"field":276,"operator":341,"value":296,"rules":839},"1bf78b6d-4e92-4f1f-a21f-b2551c568105",[],{"id":841,"separator":9,"field":303,"operator":341,"value":309,"rules":842},"fde09399-fca5-478f-a8f7-bf47615401fc",[],{"id":844,"separator":9,"field":355,"operator":356,"value":383,"rules":845},"ec1b6e76-0fe3-4bab-ba75-0358c9f1bb19",[],{"id":847,"separator":345,"field":9,"operator":341,"value":9,"rules":848},"52a978e0-82ea-4a71-b15c-f8c0e9e29355",[849,852,855],{"id":850,"separator":9,"field":276,"operator":341,"value":296,"rules":851},"35decaaf-ab30-4122-a2bb-4ba9360c4b96",[],{"id":853,"separator":9,"field":303,"operator":341,"value":313,"rules":854},"cbc76dd9-0896-4acb-9bfa-ef8e9d85d2bf",[],{"id":856,"separator":9,"field":355,"operator":356,"value":420,"rules":857},"611041e1-b601-4fd6-94f5-b8ab4f5a91a9",[],"1590d037-2d47-4bac-c130-08dd44316eb0","1.0","Évaluation de l'impact sur les droits fondamentaux pour les SIA à haut risque","Oqr2rO9ayta3dvAyh6rF4ha4SJ74tvep7mNciLti9IpTGhlWQGBXQc7364xs",11,"https://static.dastra.eu/tenant-3/audit/xroaxLpRbmg80V/dcb2e319-9b59-4645-ae49-cf8534685e92-150.png","Ce questionnaire permet d'évaluer les impacts potentiels d’un système d’IA à haut risque sur les droits fondamentaux, comme défini dans l'AI Act. Les questions sont regroupées par thématiques, et chaque réponse est associée à un score (de 1 à 5). Selon les réponses, des tâches peuvent être suggérées pour atténuer les risques identifiés.\n\nLes scores attribués permettent d'évaluer l'impact global du système d'IA sur les droits fondamentaux. Un score élevé dans une section particulière indique un risque important pour les droits fondamentaux.\n\n- Protection des données : Score élevé dans Section 1. \n- Équité et non-discrimination : Score élevé dans Section 2. \n- Transparence : Score élevé dans Section 3. \n- Sécurité : Score élevé dans Section 4. \n- Liberté et autonomie : Score élevé dans Section 5. \n\nChaque section avec un score élevé (≥ 4) indique un domaine où des actions correctives doivent être prises pour minimiser les risques sur les droits fondamentaux. ","2025-02-03T09:02:05.7636524","2025-10-08T12:41:23.7162004","Compliance","Conformité cyber",{"id":870,"displayName":871,"familyName":872,"givenName":873,"email":874,"active":56,"color":875,"avatarUrl":876,"tenantId":11},38,"Paul-Emmanuel Bidault","Bidault","Paul-Emmanuel","paulemmanuel.bidault@dastra.eu","#FA4115","https://static.dastra.eu/tenant-27/avatar/38/paul-emmanuel-bidault-150.jpg","AiSystem",9,"#FF2FDA","ds-icon-ai-usage","Système d'IA",[883],{"id":870,"displayName":871,"familyName":872,"givenName":873,"email":874,"active":56,"color":875,"avatarUrl":876,"tenantId":11},[885],{"id":886,"label":887,"type":888,"typeIndex":878,"typeColor":889,"typeIcon":890,"typeText":891,"color":892},"03d7b81b-5c98-41d4-a9bf-45f0753d94de","IA","AuditTemplate","#83d162","ds-icon-audit","Modèle de questionnaire","#7BE7D6"]