Produit · OpenClaw

L'orchestrateur d'agents IA
conçu pour la prod.

OpenClaw est le runtime open-source que Validix déploie chez ses clients pour orchestrer des agents IA en multi-tenant, sur leur propre infrastructure. Pas un prototyper de plus. Un orchestrateur durci par les déploiements antérieurs.

Auditer mon cas d'usage Repo en accès anticipé Apache 2.0 (preview)

LangChain est un excellent prototyper mais ne tient pas en prod au-delà de quelques utilisateurs concurrents — pas de multi-tenant, observabilité limitée, pas de kill-switch. Les SaaS d'agents propriétaires (Sierra, Cosine, CrewAI managed) facturent au token, exfiltrent les données, et verrouillent. Et les démos "LLM + Ollama sur un laptop" ne survivent pas à un audit DSI/RSSI.

OpenClaw est ce qui manquait : un orchestrateur multi-tenant conçu pour la production dès le départ, avec les primitives qu'attend une équipe ops sérieuse — observabilité OpenTelemetry, sandbox d'exécution code, kill-switch à chaud, RBAC par tenant, journal d'audit signé.

Modèles · Orchestration · Outils.

Trois couches indépendantes, chacune pilotable. Les modèles sont interchangeables (Hermes, Qwen, Llama, Mistral). L'orchestration, c'est OpenClaw. Les outils, ce sont les systèmes existants du client, branchés via Model Context Protocol.

03

Outils métier

connecteurs MCP
M365, Google Workspace, Slack, Teams, GitLab, GitHub, Jira, Salesforce, HubSpot, SAP, ERP custom via wrapper MCP. Sandbox d'exécution Python ou JS pour les actions à risque, validation humaine paramétrable.
02

OpenClaw

runtime
Multi-tenant par défaut, MCP-compatible nativement, tracing OpenTelemetry intégré, kill-switch à chaud, RBAC par tenant. Conteneurisé Docker + Traefik, rollback en 30 secondes. Cœur sous Apache 2.0 sur GitHub.
01

Modèles

open-weight benchmarkés
Hermes 4 pour les agents avec function calling, Qwen 3 pour la polyvalence et la vision, Llama 3.3 pour les contextes longs, Mistral Large 2 pour le français pur. Interchangeables sans refonte du code agent.
01 — Multi-tenant

Un déploiement, N tenants isolés

Quotas, RBAC, audit par tenant. Permet de servir N clients ou N départements sans contamination de contexte ni de coût. Les SaaS d'agents font ça en option payante. OpenClaw, c'est natif.

02 — MCP-compatible

Tous les connecteurs MCP fonctionnent

Spec Model Context Protocol d'Anthropic implémentée. Aucun wrapper custom à écrire pour brancher M365, Slack, GitLab, Salesforce. Détail MCP en entreprise.

03 — Tracing OpenTelemetry

Chaque pas d'agent loggé

Prompt, output, tool call, durée, coût, model. Stockage chez le client (S3, Ceph, Elastic). Export OTel ou Langfuse. Rejouable, exportable, conforme.

04 — Kill-switch à chaud

Coupure en un appel API

Un agent ou un tenant entier coupable instantanément, sans redéploiement, par RBAC. Critique pour les RSSI : si une fuite est détectée, on arrête l'agent en quelques secondes, pas en quelques heures.

05 — Sandbox d'exécution code

Python et JS isolés (gVisor)

Bac à sable gVisor pour les actions à risque. Validation humaine paramétrable par catégorie (read-only auto-approuvé, write/delete validation). Pas d'exécution arbitraire.

06 — Open source · core

Apache 2.0 sur GitHub

Le cœur (runtime, scheduler, sandbox, MCP layer) est public. La version durcie pour la prod tourne chez nos clients. Pas de lock-in : si Validix disparaît demain, le code reste, votre agent continue.

Critère
LangChain
OpenClaw
Cible primaire
Prototypage rapide
Prod multi-tenant
Multi-tenant natif
À construire vous-même
Par défaut
Observabilité prod
LangSmith (payant, hosted)
OTel + Langfuse self-hosted
Kill-switch à chaud
Non
Oui (API + RBAC)
Stabilité API
Breaking changes fréquents
SemVer strict, LTS sur major
Déploiement
Python lib, infra à coder
Conteneurs prêts (Docker + Traefik)

→ Détail comparatif sur /openclaw/vs-langchain.html

Trois scénarios de déploiement.

Trois patterns représentatifs des missions Validix. Architectures, modèles, contraintes : ce que ça donne en pratique. Scénarios anonymisés et illustratifs — pas des cas clients publiés.

Scénario · cabinet d'avocats

Revue de data room M&A

Architecture type : Hermes 4 ou Mistral Large 2 sur 2-4× H100 air-gap. Lecture de milliers de pages contractuelles, extraction de clauses sensibles, génération de mémo M&A. Gain visé : facteur 3 à 5. → Détail

Scénario · industrie OIV

Maintenance prédictive

Architecture type : Llama 3.3 + Qwen 3 vision sur cluster MI300X air-gap. Lecture journaux machines + photos thermographiques. Réduction visée des arrêts non planifiés : −30 à −50 %. Conformité LPM. → Détail

Scénario · banque privée

KYC automatisé

Architecture type : Mistral Large 2 + Hermes 4 sur cloud souverain certifié FINMA. Vérification d'identité, screening sanctions OFAC/UE/ONU. Volume traité visé : ×2 à ×3. → Détail

01 / Open source

Forker, déployer
vous-même

Le cœur OpenClaw est public sous Apache 2.0. Forkez, déployez sur votre infra, modifiez. Documentation complète + exemples. Communauté Discord pour l'entraide.

Accès au code sur demande motivée
02 / Audit gratuit

Cadrer
votre cas d'usage

Un appel d'1h. On qualifie ensemble si OpenClaw est pertinent pour votre projet, sur quels modèles, avec quels connecteurs. Repartez avec un compte-rendu, gratuit, qu'on travaille ensemble ou non.

Réserver un créneau →
03 / POC déployé

Lancer un POC
en 4-6 semaines

Un agent en prod sur votre infra, sur un cas d'usage circonscrit. Mesurable. Avec un livrable, modèle, prompts, connecteurs, runbook, qui reste chez vous, qu'on continue ou pas.

Démarrer un POC →
OpenClaw est-il vraiment open source ?

Le cœur (runtime, scheduler, sandbox, couche MCP) sera publié sous licence Apache 2.0 lors de l'ouverture publique du repo (accès anticipé sur demande motivée auprès de hello@validix.fr). La version durcie pour la production tourne chez les clients Validix avec services associés (déploiement, support 24/7, audit de sécurité).

Pourquoi pas LangChain ?

LangChain est un excellent prototyper, on l'a beaucoup utilisé. Mais nous avons constaté terrain que les démos LangChain ne tiennent pas en multi-tenant à plus de 100 utilisateurs concurrents : pas de RBAC natif, observabilité limitée à LangSmith (payant, hosted, US), breaking changes fréquents. OpenClaw est conçu pour la prod dès le départ.

Quels modèles fonctionnent avec OpenClaw ?

Tout LLM exposable via API OpenAI-compatible : Hermes 3 et 4, Qwen 2.5 et 3, Llama 3.3 et 4, Mistral Large 2, Codestral. Mais aussi GPT-4, Claude, Gemini si le client tient à un fournisseur cloud (déconseillé pour data sensible). Les prompts sont normalisés, le passage d'un modèle à un autre prend une config + un redéploiement de 30 secondes.

OpenClaw est-il MCP-compatible ?

Oui, nativement. La spec Model Context Protocol d'Anthropic est implémentée. Tous les serveurs MCP de l'écosystème (M365, Google Workspace, Slack, GitLab, Jira, Salesforce, HubSpot, SAP) fonctionnent sans wrapper supplémentaire.

Comment fonctionne le kill-switch ?

Coupure d'un agent ou d'un tenant entier en un appel API : POST /api/tenant/{id}/kill. Aucun redéploiement. Permissions par RBAC (qui peut tuer quoi). Action loggée et auditable. C'est la primitive critique attendue par tous les RSSI sérieux.

Peut-on auto-héberger sans Validix ?

Oui, le code core est public et la documentation couvre l'auto-déploiement. La valeur ajoutée Validix est l'intégration sur infra réelle (M365, ERP, sécurité, observabilité), le tuning métier (prompts, RAG, choix modèles), et le support 24/7. Pour des équipes ops solides avec un cas d'usage simple, l'auto-hébergement est viable.