Guide DSI / RSSI · 18 min de lecture

Agents IA conformes RGPD.
Le guide DSI 2026.

Comment déployer des agents IA en respectant le RGPD, NIS2 (transposée octobre 2024) et l'EU AI Act (applicable août 2026). Bases légales par cas d'usage, clauses contractuelles, registre, matrice de menaces. Avec les recommandations CNIL en vigueur.

Faire valider mon déploiementVoir NIS2⌘ Mise à jour mai 2026

Le RGPD a 8 ans en 2026. NIS2 est transposée en France depuis octobre 2024. L'EU AI Act entre en application en août 2026. Trois cadres qui se superposent et concernent directement les agents IA déployés en entreprise. Les confondre ou en oublier un coûte cher : sanctions CNIL jusqu'à 4 % du CA, sanctions NIS2 jusqu'à 2 % du CA, ou — plus probablement — un déploiement bloqué par votre direction juridique au dernier moment.

Ce guide est le pont technique-légal qu'on n'a pas trouvé ailleurs : pour chaque obligation RGPD/NIS2/AI Act, on indique la traduction concrète dans la stack d'un agent IA. Pas de discours générique. Des clauses contractuelles utilisables. Un registre RGPD adapté aux LLM. Une matrice de menaces alignée OWASP LLM Top 10. Téléchargeable et auditable.

Le RGPD appliqué aux LLM.

Cinq articles du RGPD que tout déploiement d'agent IA doit couvrir. Pour chacun, la traduction technique concrète.

Article 6

Base légale

Pour un agent interne sans traitement de personnes externes : intérêt légitime art. 6.1.f. Pour un agent client-facing ou avec données personnelles : consentement art. 6.1.a + AIPD obligatoire (art. 35). À documenter dans votre registre.

Article 22

Décision automatisée

Pas de décision automatisée à effet juridique sans intervention humaine, sauf consentement explicite ou obligation légale. Pour un agent qui octroie un crédit, refuse une candidature, ou alloue une ressource : validation humaine obligatoire sur la décision finale.

Article 28

Sous-traitance

OpenAI, Anthropic, Mistral et tout fournisseur de modèle sont vos sous-traitants RGPD. DPA signé obligatoire. Clauses spécifiques sur : non-utilisation pour entraînement, audit annuel, notification de breach < 72h, portabilité, réversibilité. Voir clauses types.

Article 35

AIPD

Analyse d'Impact Protection Données obligatoire pour tout traitement à grande échelle, profilage, ou décisions automatisées. Un agent IA qui lit des emails clients, traite des dossiers juridiques, ou catégorise des candidats tombe dans le périmètre. Modèle CNIL téléchargeable.

Article 17

Droit à l'effacement

Le "droit à l'oubli" appliqué aux LLM est complexe. Si vous utilisez le RAG (le plus fréquent) : effacement dans la base vectorielle, simple. Si vous avez fine-tuné le modèle sur des données personnelles : recommandation Validix : ne pas le faire. Le "machine unlearning" reste expérimental.

Articles 44-50

Transferts hors UE

OpenAI, Anthropic et tout sous-traitant US imposent des transferts hors UE. Encadrés par les Clauses Contractuelles Types de la Commission Européenne (depuis 2021). Mais le risque CLOUD Act subsiste — votre conseil juridique en jugera selon la sensibilité de vos données.

Êtes-vous concerné par NIS2 ?

NIS2 (transposée en France octobre 2024) impose 10 mesures de gestion des risques cyber aux Entités Importantes (EI) et Essentielles (EE). L'IA générative entre dans le périmètre dès qu'elle traite des données critiques pour votre métier.

PÉRIMÈTRE

Entités Essentielles : énergie (production, transport, distribution), transport (aérien, ferroviaire, routier), banque, santé, eau, infrastructures numériques (cloud providers, CDN, datacenters), administration publique. Plus de 250 collaborateurs ou 50 M€ CA.
Entités Importantes : services postaux, gestion des déchets, fabrication chimique/pharmaceutique/dispositifs médicaux/véhicules, alimentation, fournisseurs numériques, R&D. Plus de 50 collaborateurs ou 10 M€ CA.
Si vous n'êtes ni EI ni EE, vos clients EI/EE peuvent vous l'imposer dans leurs marchés. Détail périmètre NIS2.

ARTICLE 21 — 10 MESURES

Politique d'analyse des risques cyber, gestion des incidents, continuité d'activité, sécurité de la chaîne d'approvisionnement, sécurité de l'acquisition/développement/maintenance, politique d'évaluation, formation et hygiène, cryptographie, contrôle d'accès, MFA et communications sécurisées. Pour les agents IA : tout est pertinent.

SANCTIONS

Pour les Entités Essentielles : jusqu'à 10 M€ ou 2 % du CA mondial annuel (le plus élevé). Pour les Entités Importantes : 7 M€ ou 1,4 %. Plus la responsabilité personnelle des dirigeants en cas de manquement grave (interdiction d'exercer).

L'AI Act et vos agents.

Entré en vigueur août 2024, applicable août 2026. Quatre niveaux de risque, dont la majorité des agents IA en B2B interne tombent dans "risque limité". Mais attention aux exceptions.

RISQUE INACCEPTABLE — INTERDIT

Score social, manipulation comportementale subliminale, identification biométrique en temps réel dans l'espace public, prédiction de comportement criminel sur la base du profilage. Si votre cas d'usage tombe ici, c'est interdit, point.

RISQUE ÉLEVÉ — OBLIGATIONS LOURDES

RH décisionnel (tri de CV, évaluation de performance), scoring crédit, accès aux services publics ou de santé, justice prédictive, biométrie. Obligations : documentation technique, gestion des risques, qualité des données, transparence, supervision humaine, robustesse cyber, déclaration EU base de données.

RISQUE LIMITÉ — TRANSPARENCE

La majorité des agents IA en B2B interne. Chatbots, agents de productivité, RAG sur corpus interne, génération de comptes-rendus. Obligations : transparence (l'utilisateur doit savoir qu'il interagit avec une IA), marquage des contenus générés (filigrane technique pour vidéo/image, mention écrite pour texte), registre interne.

RISQUE MINIMAL — LIBRE

Filtres anti-spam IA, jeux vidéo IA, systèmes de recommandation simples. Pas d'obligation spécifique au-delà du RGPD.

Les couches sectorielles qui se superposent.

RGPD est le socle. Mais selon votre secteur, d'autres réglementations s'appliquent en plus. Toutes ces réglementations sont compatibles avec un déploiement bien conçu — il suffit de l'anticiper.

Banque France

RIN — Règlement Interne

Recommandations Banque de France 2025-XX sur l'IA dans la banque. Données transactionnelles : aucune sortie du périmètre légal. Modèles externes : accord ACPR. Détail banque.

Banque Suisse

FINMA

Circulaire FINMA 2024 sur l'IA dans le secteur financier. Documentation modèle, validation par le compliance officer, audits. Pour les banques privées suisses, hébergement Suisse ou EU strict.

Santé

HDS — Hébergement Données Santé

Certification ASIP Santé pour l'hébergeur. Chiffrement obligatoire au repos et en transit. Cloud souverain HDS-certifié (OVH, Scaleway, Outscale) ou on-prem dans environnement HDS-conforme.

Défense / OIV

LPM + IGI 1300

Loi de Programmation Militaire pour les Opérateurs d'Importance Vitale. IGI 1300 sur la classification. Air-gap fréquent. Personnel habilité Confidentiel Défense ou plus pour la maintenance. Détail OIV.

Avocats

Secret professionnel + RIN CNB

Article 226-13 du Code pénal (secret professionnel des avocats). Règlement Intérieur National du Conseil National des Barreaux : obligation de confidentialité. Aucune donnée client n'envoyée à un sous-traitant US. Détail avocats.

Notariat

Secret + Archives

Secret notarial + obligations d'archivage des actes. Hébergement France obligatoire. Chiffrement long terme. Réversibilité contractuelle vers le successeur en cas de cessation.

Compliant by design.

Mieux vaut concevoir l'architecture pour la conformité dès le départ que d'essayer de la mettre aux normes après. Cinq principes d'architecture.

Principe 01

Data residency contrôlée

Toutes les données restent EU strict (idéalement France). Aucune télémétrie outbound vers les fournisseurs de modèles. Vérifié par tcpdump avant go-live. Documenté dans le registre RGPD.

Principe 02

Journal d'audit par agent

Pour chaque appel : qui (utilisateur), quoi (prompt + output), quand (timestamp), pourquoi (cas d'usage déclaré). Conservation 90 jours minimum, 1 an pour les secteurs sensibles. RBAC strict sur l'accès aux logs.

Principe 03

Kill-switch RGPD

Capacité à supprimer instantanément toutes les données d'un utilisateur sur demande (art. 17). Pour le RAG : suppression dans la base vectorielle. Pour les logs : effacement par requête sur tenant_id et user_id. Délai : moins de 30 jours.

Principe 04

Minimisation

Ne pas envoyer au modèle plus que nécessaire. Anonymisation/pseudonymisation des données personnelles avant inférence. RAG sur extraits ciblés, pas sur le document complet. Maximum d'usage de modèles en local.

Principe 05

Opt-out training par défaut

Par contrat, vos données ne sont jamais utilisées pour entraîner les modèles des fournisseurs (OpenAI, Anthropic, Mistral). Vérifié dans le DPA. Audité annuellement.

Bonus

Transparence utilisateur

Les utilisateurs savent qu'ils interagissent avec un agent IA (AI Act risque limité). Si l'agent traite leurs données, ils savent quelles données sont visibles, et où elles sont stockées. Page "Privacy" dédiée.

Cinq clauses indispensables.

Pour tout DPA avec un fournisseur de modèles IA (OpenAI, Anthropic, Mistral, etc.). Templates Word + PDF disponibles à la demande.

Clause 01 — Data residency
"Le sous-traitant s'engage à héberger et traiter les Données strictement dans l'Espace Économique Européen. Toute exception requiert l'accord préalable écrit du Responsable de Traitement, et est encadrée par les Clauses Contractuelles Types adoptées par la Commission européenne (décision 2021/914)."
Clause 02 — Non-utilisation pour entraînement
"Le sous-traitant s'interdit d'utiliser les Données du Responsable de Traitement, ainsi que les prompts et outputs générés, pour entraîner, fine-tuner ou améliorer ses modèles ou ceux de tiers. Cette interdiction inclut les utilisations agrégées ou anonymisées sans accord écrit explicite."
Clause 03 — Audit annuel
"Le sous-traitant accepte un audit annuel par le Responsable de Traitement ou un tiers indépendant désigné, à ses frais, portant sur le respect du présent contrat. Les résultats de l'audit demeurent confidentiels."
Clause 04 — Notification de breach
"En cas de violation de Données Personnelles, le sous-traitant notifie le Responsable de Traitement dans les 24 heures suivant la détection, via [canal dédié]. La notification inclut : nature, volume, catégorie de personnes affectées, mesures prises, mesures recommandées."
Clause 05 — Réversibilité
"À l'expiration du contrat, le sous-traitant restitue toutes les Données dans un format ouvert et standard sous 30 jours, et atteste par écrit de la suppression définitive des copies, y compris les caches, sauvegardes et logs."

Ce que la CNIL recommande vraiment.

Au-delà du texte du RGPD, la CNIL a publié des recommandations spécifiques sur l'IA générative en 2024-2025. En voici la synthèse opérationnelle.

FICHES IA GÉNÉRATIVE 2024

La CNIL a publié 7 fiches pratiques en 2024 (cnil.fr) couvrant : finalité du traitement, base légale, AIPD, durée de conservation, droits des personnes, sécurité, transferts. Toutes pertinentes pour un déploiement d'agent IA.

SANCTIONS NOTABLES

Clearview AI (5 M€), Replika (couvert par CNIL italienne), Worldcoin (vigilance), OpenAI (mise en demeure 2023, levée 2024 après modifications). La CNIL est active mais raisonnable : conformez-vous, vous n'aurez pas de problème.

POSITION SUR CHATGPT ENTERPRISE

Tolérée si DPA signé, hébergement EU, AIPD à jour, et minimisation des données envoyées. La CNIL n'a pas interdit ChatGPT Enterprise, mais elle exige une analyse de risque sérieuse, en particulier pour les organismes traitant des données sensibles.

POSITION SUR MODÈLES OPEN-WEIGHT SELF-HOSTED

Vue très favorable. La CNIL a explicitement encouragé en 2024 le recours à des modèles auto-hébergés pour les organismes traitant des données sensibles. Le RGPD reste applicable (votre organisation est responsable de traitement) mais la sous-traitance est simplifiée.

Quelle base légale RGPD pour un agent IA en entreprise ?
Pour un agent interne (pas de personnes physiques externes traitées) : intérêt légitime art. 6.1.f RGPD. Pour un agent client-facing : consentement art. 6.1.a + AIPD art. 35 obligatoire. À documenter dans votre registre RGPD avec mentions des finalités, durées de conservation, et bases légales.
ChatGPT Enterprise est-il RGPD-conforme ?
Techniquement oui avec DPA signé OpenAI, hébergement EU, et opt-out training (par défaut activé). Politiquement, il dépend d'un sous-traitant US soumis au CLOUD Act, ce qui rend la posture risquée pour les secteurs sensibles (banque privée, secret défense, secret professionnel des avocats).
Faut-il faire une AIPD à chaque nouvel agent ?
Oui dès qu'il y a traitement à grande échelle de données personnelles, profilage, ou décisions automatisées. Un agent qui lit des emails clients tombe dans le périmètre. La CNIL fournit des modèles d'AIPD utilisables. À actualiser à chaque modification significative du traitement.
NIS2 s'applique à toutes les entreprises ?
Non. Entités Essentielles (banque, énergie, transport, santé, infrastructures numériques) et Importantes (PME 50+ collab dans secteurs critiques). Pour 80 % des ETI, NIS2 ne s'applique pas directement, mais leurs clients EE/EI exigeront la conformité dans leurs marchés (effet cascade).
L'EU AI Act change quoi pour les agents IA en B2B interne ?
Pour les agents internes "risque limité" : obligation de marquer le contenu généré par IA, registre interne, transparence vers les employés. Pas d'autorisation préalable (sauf si "haut risque" : RH décisionnel, scoring crédit, etc.). Applicable août 2026.
Mistral Le Chat / Hermes / Llama self-hosted dispensent-ils du RGPD ?
Non. Le RGPD s'applique au responsable de traitement (vous), pas au fournisseur de modèle. Self-hosted simplifie la sous-traitance et les transferts mais l'AIPD, le registre, les bases légales restent obligatoires. Et c'est tant mieux : c'est ce qui différencie un déploiement sérieux.
Comment gérer le droit à l'effacement (art. 17) sur un LLM ?
Si le LLM est utilisé en RAG (le plus fréquent), l'effacement se fait dans la base vectorielle/document — facile, en quelques minutes. Si le LLM a été fine-tuné sur les données — beaucoup plus complexe (techniques de "machine unlearning" expérimentales en 2026). Recommandation Validix : pas de fine-tuning sur données personnelles individualisables.
Le LCEN demande aussi quelque chose pour les agents IA ?
Pas directement. Mais l'art. 6-III-1 LCEN impose les mentions légales (qui édite, qui héberge), et l'AI Act en superpose sur la transparence des contenus IA. La directive Omnibus III en discussion en 2026 pourrait ajouter d'autres exigences sur les agents conversationnels en B2C.