L'utilisation de l'intelligence artificielle générative en entreprise explose. ChatGPT, Claude, Microsoft Copilot... Ces outils révolutionnent la productivité. Mais ils soulèvent aussi des questions de conformité RGPD rarement anticipées.
En mars 2026, le cadre réglementaire s'est durci. L'AI Act européen est désormais partiellement applicable. Les sanctions tombent : France Travail écope de 5 millions d'euros d'amende, DeepSeek a été bloqué en Italie par le Garante. Les autorités intensifient leurs contrôles.
Pourtant, de nombreuses entreprises ignorent encore des obligations RGPD essentielles quand elles déploient des systèmes d'IA générative. Résultat ? Elles s'exposent à des amendes pouvant atteindre 20 millions d'euros ou 4% de leur chiffre d'affaires mondial.
Découvrez les 7 obligations les plus sous-estimées et les solutions concrètes pour sécuriser votre conformité.
Résumé en bref :
- Définition : L'IA générative (ChatGPT, Claude, Copilot) traite souvent des données personnelles → le RGPD s'applique intégralement, sans exception.
- Cadre légal 2026 : RGPD + AI Act applicables simultanément. Sanctions jusqu'à 20 M€ ou 4% du CA mondial selon l'article 83 du RGPD.
- 7 obligations méconnues : Informer sur les destinataires, documenter les bases légales, tester la mémorisation, gérer l'effacement, exiger un DPA conforme, réaliser un TIA, effectuer une AIPD.
- Risques principaux : Transferts illégaux hors UE, régurgitation de données, absence de DPA, violation des droits des personnes.
- Solutions pratiques : Privilégier hébergement UE, exiger DPA avec opt-out entraînement, mettre en place filtres outputs, documenter TIA.
Qu'est-ce que l'IA générative au sens du RGPD ?
Définition et périmètre d'application
L'IA générative désigne les systèmes capables de créer du contenu original : textes, images, codes, analyses. Les Large Language Models (LLM) comme GPT-4, Claude ou Gemini en sont les représentants les plus connus.
Le RGPD s'applique dès qu'un système d'IA traite des données personnelles. Une donnée personnelle est toute information permettant d'identifier une personne, directement ou indirectement : nom, email, numéro de téléphone, mais aussi adresse IP ou données de navigation.
Contrairement à une idée reçue, le développement de systèmes d'intelligence artificielle n'échappe pas au RGPD. Que vous collectiez des données par web scraping, que vous entraîniez un modèle ou que vous l'utilisiez en production, les mêmes obligations s'appliquent.
Les cas d'usage concernés en entreprise
Les entreprises utilisent l'IA générative dans de nombreux contextes impliquant des données personnelles :
- Assistants conversationnels internes : génération de réponses basées sur des historiques clients contenant noms, emails, commandes
- Outils RH : tri de CV, rédaction d'offres d'emploi, analyse de candidatures
- Analyse documentaire : traitement de contrats, factures, documents juridiques contenant des informations personnelles
- Génération de code : utilisation de GitHub Copilot avec du code pouvant contenir des données de test ou secrets
- Traduction et synthèse : traitement de documents internes pouvant inclure des informations sur les employés ou clients
Dès qu'un prompt intègre une donnée personnelle, le RGPD s'applique intégralement. Et les obligations sont loin d'être intuitives.
Le cadre légal applicable en 2026
RGPD et AI Act : une double conformité obligatoire
Le Règlement Général sur la Protection des Données (RGPD) reste pleinement en vigueur. Aucune exception n'existe pour l'IA générative.
L'AI Act (Règlement UE 2024/1689) s'ajoute au RGPD depuis août 2024. En mars 2026, nous sommes à 5 mois de l'applicabilité des dispositions sur les systèmes IA à haut risque (prévue pour août 2026). Cela concernera notamment les systèmes utilisés pour :
- Le recrutement et l'évaluation des employés
- L'octroi de crédits
- La prise de décision automatisée impactant des droits fondamentaux
Les deux règlements coexistent. Vous devez respecter les deux simultanément. Pas de hiérarchie, pas de choix.
Important
Cette double conformité RGPD + AI Act s'applique uniquement si votre système d'IA traite des données personnelles ET relève d'un cas à haut risque. Pour la plupart des usages professionnels classiques (rédaction, analyse, support client), seul le RGPD s'applique.
Positions officielles de la CNIL et de l'EDPB
La CNIL a publié 13 fiches pratiques entre avril 2024 et juillet 2025 pour guider les entreprises. Les plus importantes :
- Fiche 8 et 8bis (juin 2025) : intérêt légitime et web scraping
- Fiche 10 (février 2025) : respect de l'exercice des droits
- Fiche 13 : statut d'un modèle IA et tests d'attaque obligatoires
L'EDPB (European Data Protection Board) a publié en décembre 2024 son Opinion 28/2024, document de référence sur les aspects de protection des données dans les modèles IA. Ce texte clarifie :
- Les conditions pour qu'un modèle soit considéré comme anonyme
- L'usage de l'intérêt légitime comme base légale
- Les conséquences d'un modèle développé avec des données illégalement traitées
Ces fiches pratiques constituent la référence pour toute entreprise déployant des systèmes génératifs.
« Un modèle entraîné sur des données personnelles ne peut pas automatiquement être considéré comme anonyme. Des tests spécifiques de mémorisation et de régurgitation sont obligatoires avant toute qualification. »
Les 7 obligations RGPD méconnues pour l'IA générative
Obligation n°1 — Mentionner les fournisseurs d'IA comme destinataires des données
Ce qui est requis
Lorsqu'une entreprise utilise une API d'IA générative (ChatGPT, Claude, Microsoft Copilot), elle doit informer les personnes concernées que leurs données seront transmises à ce fournisseur.
Cette information doit figurer dans votre politique de confidentialité et mentionner :
- L'identité précise du fournisseur (ex : « OpenAI Ireland Limited » ou « Anthropic PBC »)
- OU au minimum la catégorie de destinataires (« fournisseurs de services d'intelligence artificielle basés aux États-Unis »)
- L'existence d'un transfert hors Union européenne
- Les garanties associées (Data Privacy Framework, Clauses Contractuelles Types)
Ce qui est souvent oublié
La plupart des politiques de confidentialité ne mentionnent jamais OpenAI, Anthropic ou Microsoft Azure comme destinataires de données. Les entreprises considèrent à tort que l'utilisation d'une API est « interne » et ne constitue pas une communication à un tiers.
Erreur. Même si les données ne transitent qu'en mémoire temporaire dans un prompt, il y a bien transmission à un sous-traitant distinct.
Attention
Cette obligation s'applique même si vous utilisez une API avec consentement opt-out pour l'entraînement. Le simple fait de transmettre des données personnelles à un tiers impose de le mentionner dans votre politique de confidentialité.
Sanction encourue
Violation de l'obligation de transparence (articles 13 et 14 RGPD) → amende jusqu'à 10 millions d'euros ou 2% du chiffre d'affaires annuel mondial.
Obligation n°2 — Documenter et justifier la base légale pour chaque finalité distincte
Ce qui est requis
Chaque finalité requiert sa propre base légale :
- Entraînement du modèle → nécessite une base légale (souvent intérêt légitime sous conditions strictes)
- Utilisation opérationnelle (inférence) → autre base légale (exécution du contrat, intérêt légitime)
- Amélioration du modèle avec les données d'usage → base légale distincte
- Analyse des performances → base légale distincte
La CNIL confirme que l'intérêt légitime est la base la plus adaptée pour développer des systèmes d'IA générative. Mais sous conditions strictes :
- Test en 3 étapes obligatoire : intérêt réel et précis + nécessité + balance des intérêts
- Mesures compensatoires : droit d'opposition discrétionnaire, minimisation renforcée
- Documentation formelle du balancing test : une simple mention dans la politique de confidentialité est insuffisante
Important
Cette base légale ne doit pas être confondue avec le consentement. L'intérêt légitime permet de traiter des données sans demander systématiquement le consentement, mais sous conditions strictes : test de nécessité, balance des intérêts, et mise en place de garanties renforcées.
Ce qui est souvent oublié
Invoquer une seule base légale (« intérêt légitime ») pour toutes les opérations liées à l'IA, sans distinguer les finalités. Or, le RGPD impose une documentation précise et séparée pour chaque traitement.
Oublier que le test de compatibilité de finalité (art. 6.4) est obligatoire si on réutilise des données collectées pour une finalité A dans un outil d'IA pour une finalité B.
Ne pas documenter formellement la balance des intérêts dans le registre des traitements.
Sanction encourue
Absence de base légale valide = traitement illicite → amende jusqu'à 20 millions d'euros ou 4% du chiffre d'affaires annuel mondial.
Obligation n°3 — Tester la mémorisation du modèle avant de le qualifier d'« anonyme »
Ce qui est requis
Un modèle entraîné sur des données personnelles ne peut pas automatiquement être considéré comme anonyme. La CNIL et l'EDPB imposent de tester la mémorisation du modèle par des attaques ciblées avant de conclure qu'il ne contient plus de données personnelles.
Tests obligatoires (par ordre croissant de difficulté) :
- Tests de régurgitation : prompts ciblés pour extraire des verbatims
- Membership inference attacks : déterminer si un individu était dans le dataset d'entraînement
- Model inversion attacks : reconstruire des données à partir des outputs
- Data reconstruction attacks
- Model exfiltration
Les résultats de ces tests doivent être documentés dans l'AIPD (Analyse d'Impact Protection des Données) et dans le registre des traitements.
Bon à savoir
La CNIL, en partenariat avec l'ANSSI et l'Inria, développe le projet PANAME : un outil d'audit open source pour tester automatiquement la confidentialité des modèles. Cet outil sera disponible courant 2026 et facilitera grandement la réalisation de ces tests.
Ce qui est souvent oublié
Considérer que dès qu'un modèle est entraîné, les données « ont disparu » et le RGPD ne s'applique plus. Ne pas réaliser de tests d'attaque avant déploiement. Ne pas réévaluer régulièrement le statut du modèle à mesure que les techniques d'attaque évoluent.
Confondre données anonymes et données synthétiques. Les données synthétiques (générées artificiellement) peuvent réduire les risques, mais ne garantissent pas l'anonymat du modèle.
Sanction encourue
Si le modèle n'est pas anonyme et qu'une extraction de données survient → violation de données = notification CNIL sous 72h obligatoire (article 33 RGPD). Sanctions possibles si extraction avérée et non sécurisée.
Obligation n°4 — Mettre en place une procédure de rectification/effacement même sur un modèle déjà entraîné
Ce qui est requis
Le droit à l'effacement (article 17 RGPD) s'applique aussi au modèle lui-même, pas seulement aux données sources. La CNIL impose une approche graduelle :
1ère option (prioritaire) : Réentraînement
Si le responsable de traitement conserve les données d'entraînement, le réentraînement périodique est la mesure privilégiée. Délai RGPD : 1 mois extensible 2 mois (article 12.3 RGPD), même pour un réentraînement complet.
2ème option (subsidiaire) : Filtres de sortie
Quand le réentraînement est disproportionné, des filtres robustes et non-bypassables peuvent être acceptés. Préférer les règles générales (bloquer toute génération de données personnelles non souhaitées) aux blacklists nominatives.
3ème option (architecture RAG) : Suppression directe
Pour les systèmes RAG (Retrieval-Augmented Generation), les données sont dans une base externe → effacement direct possible.
Important
L'impossibilité technique de rectifier un LLM n'exempte pas de l'obligation RGPD. Le règlement ne prévoit aucune exception pour difficulté technique. Vous devez mettre en place une procédure d'investigation pour vérifier si une donnée est mémorisée dans le modèle et proposer une solution d'effacement dans le délai légal.
Bon à savoir
Vous pouvez regrouper plusieurs demandes d'effacement pour un réentraînement par batch. Cela optimise les coûts tout en respectant le délai RGPD d'1 mois (extensible 2 mois). Documentez cette approche dans votre procédure d'exercice des droits.
Ce qui est souvent oublié
Croire que l'impossibilité technique de rectifier un LLM exempte de l'obligation. Ne pas établir de procédure d'investigation pour vérifier si une donnée est mémorisée dans le modèle.
Confondre hallucination (donnée inventée → problème d'exactitude art. 5.1.d) et régurgitation (donnée mémorisée → problème d'effacement art. 17).
Ne pas prévoir de mécanisme de machine unlearning dès la conception du système (privacy by design).
Sanction encourue
Non-respect du droit d'effacement → amende jusqu'à 20 millions d'euros ou 4% du chiffre d'affaires annuel mondial.
À lire aussi : RGPD et contrats : 6 clauses obligatoires à connaître
Obligation n°5 — Obtenir un DPA conforme article 28 (pas seulement les ToS)
Ce qui est requis
Lorsqu'un fournisseur d'IA agit comme sous-traitant (il traite les données pour votre compte, sur instruction), un contrat de sous-traitance (Data Processing Agreement - DPA) conforme à l'article 28 RGPD est obligatoire.
Clauses obligatoires du DPA :
- Instructions documentées
- Confidentialité du personnel
- Mesures de sécurité (article 32)
- Sous-traitance en cascade avec accord préalable
- Assistance pour l'exercice des droits
- Droit d'audit et d'inspection
- Retour ou suppression des données en fin de contrat
- Information du RT si les instructions violent le RGPD
Point critique : clause de réutilisation des données
Si le DPA ou les ToS permettent au fournisseur de réutiliser les prompts pour entraîner ses modèles, il n'agit plus comme sous-traitant mais comme responsable de traitement distinct → vous perdez la base légale.
Attention
Les ToS (Terms of Service) ne suffisent jamais. Un DPA séparé, signé et conforme à l'article 28 RGPD est obligatoire. Les ToS sont des conditions générales d'utilisation, tandis que le DPA est un contrat spécifique de protection des données avec des obligations précises et des garanties contractuelles.
Ce qui est souvent oublié
Considérer que les ToS (Terms of Service) suffisent. NON, un DPA séparé signé est requis. Ne pas vérifier la clause de réutilisation des données pour l'entraînement. Oublier de vérifier la liste des sous-traitants en cascade.
Ne pas prévoir de clause « flow-down » pour obliger le déployeur à répercuter les modifications (ex : effacement demandé par une personne).
Omettre la clause de propriété intellectuelle : qui détient les droits sur les outputs générés par l'IA ? Cette question, à l'intersection RGPD et propriété intellectuelle, doit être clarifiée contractuellement.
Sanction encourue
Absence de DPA conforme → amende jusqu'à 10 millions d'euros ou 2% du chiffre d'affaires annuel mondial. Responsabilité solidaire en cas de violation par le sous-traitant.
Obligation n°6 — Réaliser un Transfer Impact Assessment (TIA) pour les transferts hors UE
Ce qui est requis
Tout appel à une API hébergée hors UE = transfert de données personnelles au sens du chapitre V RGPD. Même un simple prompt contenant un nom ou un email constitue un transfert.
Mécanismes de transfert disponibles :
- Data Privacy Framework (DPF) UE-USA : vérifier que le fournisseur est certifié sur la liste officielle
- Clauses Contractuelles Types (SCC) : mécanisme de repli obligatoire
- Données hébergées en UE : privilégier quand disponible (OpenAI Europe, Azure EU, Vertex AI EU)
Transfer Impact Assessment (TIA) : obligatoire pour tout transfert basé sur l'article 46 (SCC). La CNIL a publié la version finale de son guide TIA en juillet 2025.
6 étapes du TIA :
- Identifier le transfert
- Identifier l'outil de transfert utilisé (DPF, SCC, etc.)
- Évaluer la législation du pays destinataire (USA : FISA 702, EO 12333)
- Identifier les mesures supplémentaires nécessaires (chiffrement, pseudonymisation)
- Mettre en œuvre ces mesures
- Réévaluer à intervalles réguliers
Important
Le Data Privacy Framework UE-USA est fragile. Un deuxième échec (Schrems III, recours en cours) rendrait tous les transferts UE-USA illégaux. Prévoyez toujours une double protection : DPF + SCC en backup. Cette redondance protège votre conformité même en cas d'invalidation du DPF.
Bon à savoir
Pour vérifier si un fournisseur est certifié Data Privacy Framework, cette vérification doit être refaite régulièrement, car les certifications peuvent être retirées.
Ce qui est souvent oublié
Considérer que l'usage d'une API = opération « interne » ne nécessitant pas de TIA. Oublier que le DPF est fragile. Ne pas prévoir de double protection : DPF + SCC en backup.
Ne pas mettre à jour le TIA régulièrement (ex : évolution du contexte politique US, évolution des pratiques de surveillance, changement de législation).
Négliger les garanties techniques complémentaires : chiffrement end-to-end, pseudonymisation avant envoi, limitation des données transférées au strict nécessaire.
Sanction encourue
Transfert illégal → amende jusqu'à 20 millions d'euros ou 4% du chiffre d'affaires annuel mondial. Blocage immédiat du traitement par l'autorité de contrôle (exemple : DeepSeek bloqué en Italie en janvier 2025).
Obligation n°7 — Réaliser une AIPD (presque) systématiquement pour l'IA générative
Ce qui est requis
L'AIPD (Analyse d'Impact Protection des Données, article 35 RGPD) est obligatoire quand le traitement est susceptible d'engendrer un risque élevé pour les droits et libertés des personnes.
Pour l'IA générative, la CNIL considère que l'AIPD est quasi systématiquement requise car :
- Usage innovant : les LLMs = nouvelles technologies avec comportements non totalement anticipables
- Traitement à grande échelle : dès lors que le scraping ou les données d'entraînement concernent des millions d'individus
- Décision automatisée : si l'IA est utilisée pour prendre des décisions ou influencer significativement des personnes
Contenu attendu de l'AIPD pour l'IA générative :
- Description du traitement (finalités, flux de données)
- Évaluation de la nécessité et proportionnalité
- Évaluation des risques spécifiques à l'IA : mémorisation, régurgitation, attaques adversariales, biais, désinformation
- Mesures envisagées (differential privacy, chiffrement, filtres, machine unlearning)
- Documentation du statut du modèle (anonyme ou non) + résultats des tests d'attaque
- Consultation du DPO
Attention
Réaliser une AIPD ne suffit pas. Les mesures de sécurité identifiées doivent être effectivement mises en œuvre. Cas France Travail : amende de 5 M€ malgré une AIPD complète, car les mesures n'avaient pas été implémentées. L'AIPD est un outil de pilotage, pas un simple document de conformité formelle.
Ce qui est souvent oublié
Réaliser l'AIPD après le déploiement. Elle doit être faite avant. Ne pas mettre à jour l'AIPD quand les caractéristiques du traitement évoluent (fine-tuning, nouvelles données, nouveaux cas d'usage).
Oublier la distinction entre AIPD développeur et AIPD déployeur : si vous utilisez un modèle tiers (ChatGPT, Claude), vous restez responsable de votre propre AIPD en tant que déployeur.
Ne pas consulter le Délégué à la Protection des Données (DPO) avant de finaliser l'AIPD, alors que cette consultation est obligatoire.
Sanction encourue
Absence d'AIPD → amende jusqu'à 10 millions d'euros ou 2% du chiffre d'affaires annuel mondial. Obligation de consultation préalable de la CNIL si risques résiduels élevés.
Tableau récapitulatif des 7 obligations
# | Obligation | Article RGPD | Amende max | Difficulté |
|---|---|---|---|---|
1 | Mentionner les fournisseurs IA comme destinataires | Art. 13-14 | 10 M€ / 2% CA | ⭐⭐ Facile à corriger |
2 | Base légale distincte par finalité + test documenté | Art. 5.1.b + 6 | 20 M€ / 4% CA | ⭐⭐⭐ Analyse juridique requise |
3 | Tests de mémorisation du modèle | Art. 4.1 + 5.1.f | Violation de données si extraction | ⭐⭐⭐⭐ Technique avancée |
4 | Procédure effacement/rectification sur modèle | Art. 16-17 | 20 M€ / 4% CA | ⭐⭐⭐⭐⭐ Machine unlearning immature |
5 | DPA conforme art. 28 avec clause anti-réutilisation | Art. 28 | 10 M€ / 2% CA | ⭐⭐⭐ Négociation contractuelle |
6 | Transfer Impact Assessment (TIA) pour transferts hors UE | Art. 44-49 | 20 M€ / 4% CA | ⭐⭐⭐ Documentation lourde |
7 | AIPD systématique pour IA générative | Art. 35 | 10 M€ / 2% CA | ⭐⭐⭐ Méthodologie structurée |
Solutions pratiques pour assurer votre conformité
Privilégier les modes de déploiement conformes
Mode | Avantages | Conformité RGPD |
|---|---|---|
API publique (ChatGPT free, Claude free) | Gratuit, facile | ❌ Non conforme pour données personnelles |
API Business (OpenAI API, Anthropic API) | Opt-out entraînement, DPA disponible | ⚠️ Conforme sous conditions (DPA + TIA + DPF) |
Cloud hébergé UE (Azure OpenAI EU, Vertex AI EU) | Résidence EU, DPA robuste, pas de transfert | ✅ Conforme (si bien configuré) |
On-premise (modèles open source hébergés) | Contrôle total, pas de transfert | ✅ Très conforme |
Bon à savoir
Les modèles open source hébergés on-premise offrent le meilleur niveau de conformité, mais uniquement si le modèle de base a été entraîné légalement. Vérifiez toujours la provenance des données d'entraînement et la licence du modèle. Certains modèles open source ont été entraînés sur des données issues de web scraping illégal.
Exiger les bonnes clauses contractuelles
Clauses essentielles à négocier avec vos fournisseurs d'IA :
- Opt-out explicite de l'entraînement : vos données ne doivent jamais servir à améliorer le modèle du fournisseur
- Résidence des données : privilégier hébergement en Union européenne
- Droit d'audit : possibilité de vérifier les mesures de sécurité
- Suppression garantie : engagement de suppression complète en fin de contrat
- Notification des violations : délai maximal 24h pour être alerté
- Clause de propriété intellectuelle : clarifier qui détient les droits sur les outputs générés
Mettre en place des mesures techniques
Solutions éprouvées pour limiter les risques :
- Differential Privacy : empêcher la mémorisation individuelle (TensorFlow Privacy, Opacus)
- Filtres de sortie (NER) : bloquer la génération de données personnelles
- RAG (Retrieval-Augmented Generation) : isoler les données dans une base modifiable
- Données synthétiques : remplacer les données réelles par des données synthétiques générées artificiellement
- Chiffrement end-to-end : protéger les données en transit et au repos
- Privacy by design : intégrer la protection des données dès la conception du système
Sécurisez vos processus documentaires avec Yousign
Tracez chaque signature avec horodatage qualifié et dossier de preuve complet

Sanctions récentes : ce qu'il faut retenir
France Travail (janvier 2026)
- Sanction : 5 millions d'euros + injonction + astreinte de 5 000€/jour
- Motif : Violation de données touchant l'ensemble des personnes inscrites au cours des 20 dernières années (plusieurs dizaines de millions d'utilisateurs). Les mesures de sécurité avaient été identifiées dans l'AIPD mais non implémentées.
- Leçon : Réaliser une AIPD ne suffit pas. Les mesures identifiées doivent être effectivement mises en œuvre. La CNIL vérifie désormais systématiquement l'implémentation concrète des garanties prévues dans l'AIPD.
DeepSeek (janvier 2025)
- Sanction : Blocage en Italie par le Garante
- Motifs : Transferts illégaux vers la Chine (aucun mécanisme de transfert adéquat), absence d'établissement UE, privacy policy insuffisante.
- Leçon : Impossible d'utiliser un service d'IA générative sans mécanisme de transfert valide. Le Data Privacy Framework ne couvre que les États-Unis. Pour les transferts vers la Chine, aucun mécanisme de transfert adéquat n'existe actuellement.
FAQ — Vos questions sur l'IA générative et le RGPD
Puis-je utiliser ChatGPT gratuitement avec des données clients ?
Non. La version gratuite de ChatGPT ne propose pas de Data Processing Agreement conforme à l'article 28 RGPD. OpenAI se réserve le droit d'utiliser vos prompts pour entraîner ses modèles. Vous devez utiliser l'API Business avec opt-out explicite et DPA signé.
Les données envoyées via une API sont-elles conservées ?
Cela dépend du fournisseur et de votre contrat. Par défaut, certains fournisseurs conservent les prompts pendant 30 jours pour détecter les abus. Vous devez vérifier la durée de conservation dans le DPA et exiger une suppression immédiate si possible. Cette durée de conservation doit être proportionnée à la finalité (détection d'abus).
Dois-je réaliser une AIPD si j'utilise uniquement l'IA en interne ?
Oui, dès lors que le traitement présente un risque élevé pour les droits des personnes. L'usage interne ne dispense pas de l'AIPD si vous traitez des données sensibles, à grande échelle, ou si vous prenez des décisions automatisées. L'AIPD évalue le risque pour les personnes, pas pour l'entreprise.
Comment savoir si mon fournisseur est certifié Data Privacy Framework ?
Vérifiez que le fournisseur figure bien sur la liste avant tout transfert de données vers les États-Unis. Cette vérification doit être refaite régulièrement (au moins tous les 6 mois).
Que faire si un utilisateur demande l'effacement de ses données utilisées pour entraîner un modèle ?
Vous avez 1 mois (extensible 2 mois) pour répondre. Trois options : réentraînement du modèle sans les données concernées, mise en place de filtres de sortie robustes, ou suppression directe si architecture RAG. Documentez votre choix et communiquez-le à la personne concernée. Le délai court à partir de la réception de la demande.
Checklist de conformité RGPD pour l'IA générative
Avant de déployer un système d'IA générative, vérifiez :
- Politique de confidentialité mise à jour avec mention des fournisseurs d'IA comme destinataires
- Base légale distincte identifiée et documentée pour chaque finalité (entraînement, inférence, amélioration)
- Tests de mémorisation du modèle réalisés et résultats documentés
- Procédure d'exercice des droits (accès, rectification, effacement) opérationnelle, y compris pour le modèle
- Data Processing Agreement (DPA) signé avec clause explicite d'opt-out de l'entraînement
- Transfer Impact Assessment (TIA) réalisé et validé pour tout transfert hors UE
- AIPD complétée avec évaluation spécifique des risques IA (régurgitation, biais, attaques)
- DPO consulté et validation obtenue
- Mesures de sécurité techniques implémentées (chiffrement, filtres, journalisation)
- Formation des équipes aux bonnes pratiques (ne jamais insérer de données sensibles dans un prompt)
- Documentation du respect du principe de privacy by design
- Vérification de la propriété intellectuelle sur les outputs générés
- Plan de mise à jour régulière du TIA et de l'AIPD (au moins annuel)
Conclusion
L'IA générative transforme la façon de travailler. Mais son adoption massive ne doit pas se faire au détriment de la protection des données personnelles.
Les 7 obligations présentées dans cet article sont méconnues, mais elles sont pourtant au cœur de la conformité RGPD. Les autorités de contrôle, CNIL en tête, multiplient les recommandations et les sanctions.
Ne prenez pas de risques inutiles. Une mise en conformité anticipée vous protège contre des amendes pouvant atteindre 20 millions d'euros. Elle renforce aussi la confiance de vos clients et partenaires, un actif essentiel dans un contexte de risques juridiques croissants.
Commencez par auditer vos usages actuels d'IA générative. Identifiez les flux de données personnelles. Sécurisez vos contrats avec les fournisseurs. Et documentez rigoureusement chaque traitement en respectant les principes de privacy by design.
Besoin d'accompagnement ? Les experts Yousign vous aident à sécuriser vos processus de signature électronique et vos workflows documentaires, en toute conformité RGPD.





