Agents IA conformes RGPD.
Le guide DSI 2026.
Comment déployer des agents IA en respectant le RGPD, NIS2 (transposée octobre 2024) et l'EU AI Act (applicable août 2026). Bases légales par cas d'usage, clauses contractuelles, registre, matrice de menaces. Avec les recommandations CNIL en vigueur.
Le RGPD a 8 ans en 2026. NIS2 est transposée en France depuis octobre 2024. L'EU AI Act entre en application en août 2026. Trois cadres qui se superposent et concernent directement les agents IA déployés en entreprise. Les confondre ou en oublier un coûte cher : sanctions CNIL jusqu'à 4 % du CA, sanctions NIS2 jusqu'à 2 % du CA, ou — plus probablement — un déploiement bloqué par votre direction juridique au dernier moment.
Ce guide est le pont technique-légal qu'on n'a pas trouvé ailleurs : pour chaque obligation RGPD/NIS2/AI Act, on indique la traduction concrète dans la stack d'un agent IA. Pas de discours générique. Des clauses contractuelles utilisables. Un registre RGPD adapté aux LLM. Une matrice de menaces alignée OWASP LLM Top 10. Téléchargeable et auditable.
Le RGPD appliqué aux LLM.
Cinq articles du RGPD que tout déploiement d'agent IA doit couvrir. Pour chacun, la traduction technique concrète.
Base légale
Pour un agent interne sans traitement de personnes externes : intérêt légitime art. 6.1.f. Pour un agent client-facing ou avec données personnelles : consentement art. 6.1.a + AIPD obligatoire (art. 35). À documenter dans votre registre.
Décision automatisée
Pas de décision automatisée à effet juridique sans intervention humaine, sauf consentement explicite ou obligation légale. Pour un agent qui octroie un crédit, refuse une candidature, ou alloue une ressource : validation humaine obligatoire sur la décision finale.
Sous-traitance
OpenAI, Anthropic, Mistral et tout fournisseur de modèle sont vos sous-traitants RGPD. DPA signé obligatoire. Clauses spécifiques sur : non-utilisation pour entraînement, audit annuel, notification de breach < 72h, portabilité, réversibilité. Voir clauses types.
AIPD
Analyse d'Impact Protection Données obligatoire pour tout traitement à grande échelle, profilage, ou décisions automatisées. Un agent IA qui lit des emails clients, traite des dossiers juridiques, ou catégorise des candidats tombe dans le périmètre. Modèle CNIL téléchargeable.
Droit à l'effacement
Le "droit à l'oubli" appliqué aux LLM est complexe. Si vous utilisez le RAG (le plus fréquent) : effacement dans la base vectorielle, simple. Si vous avez fine-tuné le modèle sur des données personnelles : recommandation Validix : ne pas le faire. Le "machine unlearning" reste expérimental.
Transferts hors UE
OpenAI, Anthropic et tout sous-traitant US imposent des transferts hors UE. Encadrés par les Clauses Contractuelles Types de la Commission Européenne (depuis 2021). Mais le risque CLOUD Act subsiste — votre conseil juridique en jugera selon la sensibilité de vos données.
Êtes-vous concerné par NIS2 ?
NIS2 (transposée en France octobre 2024) impose 10 mesures de gestion des risques cyber aux Entités Importantes (EI) et Essentielles (EE). L'IA générative entre dans le périmètre dès qu'elle traite des données critiques pour votre métier.
Entités Essentielles : énergie (production, transport, distribution), transport (aérien, ferroviaire, routier), banque, santé, eau, infrastructures numériques (cloud providers, CDN, datacenters), administration publique. Plus de 250 collaborateurs ou 50 M€ CA.
Entités Importantes : services postaux, gestion des déchets, fabrication chimique/pharmaceutique/dispositifs médicaux/véhicules, alimentation, fournisseurs numériques, R&D. Plus de 50 collaborateurs ou 10 M€ CA.
Si vous n'êtes ni EI ni EE, vos clients EI/EE peuvent vous l'imposer dans leurs marchés. Détail périmètre NIS2.
Politique d'analyse des risques cyber, gestion des incidents, continuité d'activité, sécurité de la chaîne d'approvisionnement, sécurité de l'acquisition/développement/maintenance, politique d'évaluation, formation et hygiène, cryptographie, contrôle d'accès, MFA et communications sécurisées. Pour les agents IA : tout est pertinent.
Pour les Entités Essentielles : jusqu'à 10 M€ ou 2 % du CA mondial annuel (le plus élevé). Pour les Entités Importantes : 7 M€ ou 1,4 %. Plus la responsabilité personnelle des dirigeants en cas de manquement grave (interdiction d'exercer).
L'AI Act et vos agents.
Entré en vigueur août 2024, applicable août 2026. Quatre niveaux de risque, dont la majorité des agents IA en B2B interne tombent dans "risque limité". Mais attention aux exceptions.
Score social, manipulation comportementale subliminale, identification biométrique en temps réel dans l'espace public, prédiction de comportement criminel sur la base du profilage. Si votre cas d'usage tombe ici, c'est interdit, point.
RH décisionnel (tri de CV, évaluation de performance), scoring crédit, accès aux services publics ou de santé, justice prédictive, biométrie. Obligations : documentation technique, gestion des risques, qualité des données, transparence, supervision humaine, robustesse cyber, déclaration EU base de données.
La majorité des agents IA en B2B interne. Chatbots, agents de productivité, RAG sur corpus interne, génération de comptes-rendus. Obligations : transparence (l'utilisateur doit savoir qu'il interagit avec une IA), marquage des contenus générés (filigrane technique pour vidéo/image, mention écrite pour texte), registre interne.
Filtres anti-spam IA, jeux vidéo IA, systèmes de recommandation simples. Pas d'obligation spécifique au-delà du RGPD.
Les couches sectorielles qui se superposent.
RGPD est le socle. Mais selon votre secteur, d'autres réglementations s'appliquent en plus. Toutes ces réglementations sont compatibles avec un déploiement bien conçu — il suffit de l'anticiper.
RIN — Règlement Interne
Recommandations Banque de France 2025-XX sur l'IA dans la banque. Données transactionnelles : aucune sortie du périmètre légal. Modèles externes : accord ACPR. Détail banque.
FINMA
Circulaire FINMA 2024 sur l'IA dans le secteur financier. Documentation modèle, validation par le compliance officer, audits. Pour les banques privées suisses, hébergement Suisse ou EU strict.
HDS — Hébergement Données Santé
Certification ASIP Santé pour l'hébergeur. Chiffrement obligatoire au repos et en transit. Cloud souverain HDS-certifié (OVH, Scaleway, Outscale) ou on-prem dans environnement HDS-conforme.
LPM + IGI 1300
Loi de Programmation Militaire pour les Opérateurs d'Importance Vitale. IGI 1300 sur la classification. Air-gap fréquent. Personnel habilité Confidentiel Défense ou plus pour la maintenance. Détail OIV.
Secret professionnel + RIN CNB
Article 226-13 du Code pénal (secret professionnel des avocats). Règlement Intérieur National du Conseil National des Barreaux : obligation de confidentialité. Aucune donnée client n'envoyée à un sous-traitant US. Détail avocats.
Secret + Archives
Secret notarial + obligations d'archivage des actes. Hébergement France obligatoire. Chiffrement long terme. Réversibilité contractuelle vers le successeur en cas de cessation.
Compliant by design.
Mieux vaut concevoir l'architecture pour la conformité dès le départ que d'essayer de la mettre aux normes après. Cinq principes d'architecture.
Data residency contrôlée
Toutes les données restent EU strict (idéalement France). Aucune télémétrie outbound vers les fournisseurs de modèles. Vérifié par tcpdump avant go-live. Documenté dans le registre RGPD.
Journal d'audit par agent
Pour chaque appel : qui (utilisateur), quoi (prompt + output), quand (timestamp), pourquoi (cas d'usage déclaré). Conservation 90 jours minimum, 1 an pour les secteurs sensibles. RBAC strict sur l'accès aux logs.
Kill-switch RGPD
Capacité à supprimer instantanément toutes les données d'un utilisateur sur demande (art. 17). Pour le RAG : suppression dans la base vectorielle. Pour les logs : effacement par requête sur tenant_id et user_id. Délai : moins de 30 jours.
Minimisation
Ne pas envoyer au modèle plus que nécessaire. Anonymisation/pseudonymisation des données personnelles avant inférence. RAG sur extraits ciblés, pas sur le document complet. Maximum d'usage de modèles en local.
Opt-out training par défaut
Par contrat, vos données ne sont jamais utilisées pour entraîner les modèles des fournisseurs (OpenAI, Anthropic, Mistral). Vérifié dans le DPA. Audité annuellement.
Transparence utilisateur
Les utilisateurs savent qu'ils interagissent avec un agent IA (AI Act risque limité). Si l'agent traite leurs données, ils savent quelles données sont visibles, et où elles sont stockées. Page "Privacy" dédiée.
Cinq clauses indispensables.
Pour tout DPA avec un fournisseur de modèles IA (OpenAI, Anthropic, Mistral, etc.). Templates Word + PDF disponibles à la demande.
Ce que la CNIL recommande vraiment.
Au-delà du texte du RGPD, la CNIL a publié des recommandations spécifiques sur l'IA générative en 2024-2025. En voici la synthèse opérationnelle.
La CNIL a publié 7 fiches pratiques en 2024 (cnil.fr) couvrant : finalité du traitement, base légale, AIPD, durée de conservation, droits des personnes, sécurité, transferts. Toutes pertinentes pour un déploiement d'agent IA.
Clearview AI (5 M€), Replika (couvert par CNIL italienne), Worldcoin (vigilance), OpenAI (mise en demeure 2023, levée 2024 après modifications). La CNIL est active mais raisonnable : conformez-vous, vous n'aurez pas de problème.
Tolérée si DPA signé, hébergement EU, AIPD à jour, et minimisation des données envoyées. La CNIL n'a pas interdit ChatGPT Enterprise, mais elle exige une analyse de risque sérieuse, en particulier pour les organismes traitant des données sensibles.
Vue très favorable. La CNIL a explicitement encouragé en 2024 le recours à des modèles auto-hébergés pour les organismes traitant des données sensibles. Le RGPD reste applicable (votre organisation est responsable de traitement) mais la sous-traitance est simplifiée.
Appel
de qualification
30 minutes pour qualifier votre situation : périmètre, volumétrie, contraintes sectorielles. On vous oriente vers la bonne suite.
Réserver un appel →Audit IA
complet 4 sem
Audit avec mapping RGPD/NIS2/AI Act + matrice de menaces RSSI + plan de remédiation. Validation par avocat NTIC en option.
Voir l'audit →