Pour RSSI · OWASP LLM Top 10 · NIS2

Grille de risque RSSI.
IA générative.

Une grille de risque opérationnelle pour les RSSI face à un projet d'IA générative en entreprise. Mapping OWASP LLM Top 10 + NIS2 article 21 + EU AI Act. Critères évalués avec score 0-3.

Audit IA + matrice menace

Les 10 risques OWASP appliqués.

LLM01 — Prompt injection
Risque très élevé. Mitigation : cloisonnement strict, system prompts signés, parsers ad-hoc sur sources externes.
LLM02 — Insecure output handling
Risque moyen. Mitigation : validation systématique des outputs avant action, sandbox, allowlist commandes.
LLM03 — Training data poisoning
Risque modéré (faible si pas de FT, élevé si FT sur données externes). Mitigation : data ops, signature, scan.
LLM04 — Model DoS
Risque modéré. Mitigation : rate-limiting, timeout, monitoring GPU.
LLM05 — Supply chain
Risque élevé. Mitigation : audit des modèles, signatures GPG, allowlist registries.
LLM06 — Sensitive disclosure
Risque très élevé. Mitigation : RAG par tenant, post-filtering PII, RBAC strict.
LLM07 — Insecure plugin
Risque élevé sur MCP. Mitigation : audit serveurs MCP, principe moindre privilège.
LLM08 — Excessive agency
Risque variable. Mitigation : validation humaine sur effets de bord critiques.
LLM09 — Overreliance
Risque organisationnel. Mitigation : formation utilisateurs, transparence sur limites.
LLM10 — Model theft
Risque faible si on-prem. Mitigation : RBAC strict sur les poids, monitoring de l'inférence.

Score 0-3 par mesure.

0 = absent, 1 = en projet, 2 = partiellement implémenté, 3 = pleinement opérationnel et audité.

Mesure
Score requis avant prod
Audit annuel
Cloisonnement system prompts
≥ 2
Oui
RBAC par tenant
= 3
Oui
Journal d'audit signé
= 3
Oui
Sandbox d'exécution code
≥ 2
Oui
Red-teaming pré go-live
= 3
Trimestriel
Monitoring continu (Langfuse)
≥ 2
Oui
Plan de réponse à incident
= 3
Annuel
Formation utilisateurs
≥ 2
Annuel

Scénarios à anticiper.

Trois scénarios de breach IA documentés en 2024-2025 chez des clients ou partenaires Validix (anonymisés) :

Scénario 01 — Prompt injection via email. Un attaquant envoie un email contenant des instructions cachées qui, traitées par un agent de catégorisation, lui font exfiltrer des données client. Mitigation : parser ad-hoc sur le contenu email, refus si patterns suspects détectés (instructions d'agent inverse).

Scénario 02 — Tool poisoning via MCP. Un serveur MCP communautaire utilisé pour intégrer un service tiers est compromis et renvoie des descriptions de tools modifiées. L'agent exécute des commandes inattendues. Mitigation : allowlist stricte de serveurs MCP, signatures cryptographiques des descriptions.

Scénario 03 — Data leak entre tenants. Un bug dans la séparation tenants permet à l'agent du tenant A de retrouver des passages indexés pour le tenant B. Mitigation : tests de cloisonnement systématiques, monitoring des accès cross-tenant, RBAC à la base vectorielle.

Comment justifier le coût d'un red-teaming IA ?
Coût red-teaming : sur devis. Coût d'un breach IA : 200 K€ à 5 M€ (sanctions RGPD, perte de data clients, reputation). Le red-teaming est l'investissement à plus haut ROI sur un projet IA après le RAG.
Le RSSI doit-il valider chaque agent avant déploiement ?
Oui systématiquement pour les agents en production avec data sensible. Process : revue du brief technique, validation matrice de menaces, validation tests red-teaming, signature avant go-live.
Comment NIS2 art. 21 mappé sur agents IA ?
Voir guide NIS2. Les 10 mesures s'appliquent toutes : analyse de risques, gestion incidents, continuité, supply chain, sécurité du dev, évaluation, formation, crypto, RH, MFA.
Combien de temps avant qu'un agent en prod doive être ré-audité ?
Audit complet annuel. Ré-évaluation à chaque changement majeur (nouvelle version de modèle, nouveau cas d'usage, modification prompts substantielle). Tests de pénétration trimestriels en routine.