L'orchestrateur d'agents IA
conçu pour la prod.
Praeon est le runtime open-source que Validix déploie chez ses clients pour orchestrer des agents IA en multi-tenant, sur leur propre infrastructure. Pas un prototyper de plus. Un orchestrateur durci par les déploiements antérieurs.
LangChain est un excellent prototyper mais ne tient pas en prod au-delà de quelques utilisateurs concurrents — pas de multi-tenant, observabilité limitée, pas de kill-switch. Les SaaS d'agents propriétaires (Sierra, Cosine, CrewAI managed) facturent au token, exfiltrent les données, et verrouillent. Et les démos "LLM + Ollama sur un laptop" ne survivent pas à un audit DSI/RSSI.
Praeon est ce qui manquait : un orchestrateur multi-tenant conçu pour la production dès le départ, avec les primitives qu'attend une équipe ops sérieuse — observabilité OpenTelemetry, sandbox d'exécution code, kill-switch à chaud, RBAC par tenant, journal d'audit signé.
Modèles · Orchestration · Outils.
Trois couches indépendantes, chacune pilotable. Les modèles sont interchangeables (Hermes, Qwen, Llama, Mistral). L'orchestration, c'est Praeon. Les outils, ce sont les systèmes existants du client, branchés via Model Context Protocol.
Outils métier
Praeon
Modèles
Un déploiement, N tenants isolés
Quotas, RBAC, audit par tenant. Permet de servir N clients ou N départements sans contamination de contexte ni de coût. Les SaaS d'agents font ça en option payante. Praeon, c'est natif.
Tous les connecteurs MCP fonctionnent
Spec Model Context Protocol d'Anthropic implémentée. Aucun wrapper custom à écrire pour brancher M365, Slack, GitLab, Salesforce. Détail MCP en entreprise.
Chaque pas d'agent loggé
Prompt, output, tool call, durée, coût, model. Stockage chez le client (S3, Ceph, Elastic). Export OTel ou Langfuse. Rejouable, exportable, conforme.
Coupure en un appel API
Un agent ou un tenant entier coupable instantanément, sans redéploiement, par RBAC. Critique pour les RSSI : si une fuite est détectée, on arrête l'agent en quelques secondes, pas en quelques heures.
Python et JS isolés (gVisor)
Bac à sable gVisor pour les actions à risque. Validation humaine paramétrable par catégorie (read-only auto-approuvé, write/delete validation). Pas d'exécution arbitraire.
Apache 2.0 sur GitHub
Le cœur (runtime, scheduler, sandbox, MCP layer) est public. La version durcie pour la prod tourne chez nos clients. Pas de lock-in : si Validix disparaît demain, le code reste, votre agent continue.
→ Détail comparatif sur /praeon/vs-langchain.html
Trois scénarios de déploiement.
Trois patterns représentatifs des missions Validix. Architectures, modèles, contraintes : ce que ça donne en pratique. Scénarios anonymisés et illustratifs — pas des cas clients publiés.
Revue de data room M&A
Architecture type : Hermes 4 ou Mistral Large 2 sur 2-4× H100 air-gap. Lecture de milliers de pages contractuelles, extraction de clauses sensibles, génération de mémo M&A. Gain visé : facteur 3 à 5. → Détail
Maintenance prédictive
Architecture type : Llama 3.3 + Qwen 3 vision sur cluster MI300X air-gap. Lecture journaux machines + photos thermographiques. Réduction visée des arrêts non planifiés : −30 à −50 %. Conformité LPM. → Détail
KYC automatisé
Architecture type : Mistral Large 2 + Hermes 4 sur cloud souverain certifié FINMA. Vérification d'identité, screening sanctions OFAC/UE/ONU. Volume traité visé : ×2 à ×3. → Détail
Forker, déployer
vous-même
Le cœur Praeon est public sous Apache 2.0. Forkez, déployez sur votre infra, modifiez. Documentation complète + exemples. Communauté Discord pour l'entraide.
Accès au code sur demande motivéeCadrer
votre cas d'usage
Un appel d'1h. On qualifie ensemble si Praeon est pertinent pour votre projet, sur quels modèles, avec quels connecteurs. Repartez avec un compte-rendu, gratuit, qu'on travaille ensemble ou non.
Réserver un créneau →Lancer un POC
en 4-6 semaines
Un agent en prod sur votre infra, sur un cas d'usage circonscrit. Mesurable. Avec un livrable, modèle, prompts, connecteurs, runbook, qui reste chez vous, qu'on continue ou pas.
Démarrer un POC →Praeon est-il vraiment open source ?
Le cœur (runtime, scheduler, sandbox, couche MCP) sera publié sous licence Apache 2.0 lors de l'ouverture publique du repo (accès anticipé sur demande motivée auprès de hello@validix.fr). La version durcie pour la production tourne chez les clients Validix avec services associés (déploiement, support 24/7, audit de sécurité).
Pourquoi pas LangChain ?
LangChain est un excellent prototyper, on l'a beaucoup utilisé. Mais nous avons constaté terrain que les démos LangChain ne tiennent pas en multi-tenant à plus de 100 utilisateurs concurrents : pas de RBAC natif, observabilité limitée à LangSmith (payant, hosted, US), breaking changes fréquents. Praeon est conçu pour la prod dès le départ.
Quels modèles fonctionnent avec Praeon ?
Tout LLM exposable via API OpenAI-compatible : Hermes 3 et 4, Qwen 2.5 et 3, Llama 3.3 et 4, Mistral Large 2, Codestral. Mais aussi GPT-4, Claude, Gemini si le client tient à un fournisseur cloud (déconseillé pour data sensible). Les prompts sont normalisés, le passage d'un modèle à un autre prend une config + un redéploiement de 30 secondes.
Praeon est-il MCP-compatible ?
Oui, nativement. La spec Model Context Protocol d'Anthropic est implémentée. Tous les serveurs MCP de l'écosystème (M365, Google Workspace, Slack, GitLab, Jira, Salesforce, HubSpot, SAP) fonctionnent sans wrapper supplémentaire.
Comment fonctionne le kill-switch ?
Coupure d'un agent ou d'un tenant entier en un appel API : POST /api/tenant/{id}/kill. Aucun redéploiement. Permissions par RBAC (qui peut tuer quoi). Action loggée et auditable. C'est la primitive critique attendue par tous les RSSI sérieux.
Peut-on auto-héberger sans Validix ?
Oui, le code core est public et la documentation couvre l'auto-déploiement. La valeur ajoutée Validix est l'intégration sur infra réelle (M365, ERP, sécurité, observabilité), le tuning métier (prompts, RAG, choix modèles), et le support 24/7. Pour des équipes ops solides avec un cas d'usage simple, l'auto-hébergement est viable.