OpenClaw : Exécutez votre propre assistant IA sur n’importe quel serveur
Les assistants IA dans le cloud sont pratiques… jusqu’à ce qu’ils ne le soient plus. Limites de débit aux heures de pointe. Données quittant votre réseau. Abonnements mensuels qui s’accumulent. Aucune possibilité de personnaliser le comportement au-delà de ce que le fournisseur autorise.
OpenClaw est un assistant IA auto-hébergé qui fonctionne sur votre propre matériel. Il se connecte à Telegram, Discord ou toute plateforme de chat, utilise n’importe quel modèle IA via une API unifiée, et conserve toutes les données de conversation sur votre machine.
Ce que fait OpenClaw
Au cœur, OpenClaw est une passerelle entre les plateformes de chat et les modèles IA. Vous envoyez un message sur Telegram, OpenClaw le transmet au modèle IA choisi, puis renvoie la réponse.
Mais il va plus loin qu’un simple relais :
- Support multi-modèles : Passez de GPT-4.1, Claude, DeepSeek ou modèles locaux en plein milieu d’une conversation
- Mémoire persistante : Les conversations persistent même après redémarrage avec des fenêtres de contexte configurables
- Support serveur MCP : Connectez des outils externes (bases de données, APIs, systèmes de fichiers) via le Model Context Protocol
- Système de plugins : Ajoutez des commandes personnalisées, tâches planifiées et intégrations
- Multi-utilisateur : Chaque utilisateur dispose de son historique de conversation et de ses préférences de modèle
- Compréhension d’images : Envoyez des photos et obtenez une analyse IA (avec modèles capables de vision)
- Messages vocaux : Traitement de la parole en texte pour les entrées vocales
Architecture
Telegram/Discord ←→ OpenClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Memory │
└─────────┘
OpenClaw s’exécute comme un seul processus Node.js. Aucune base de données requise pour une utilisation basique (les conversations sont stockées sous forme de fichiers JSON). Pour les déploiements en production, il supporte les volumes persistants sur Kubernetes.
Démarrage rapide (5 minutes)
Option 1 : Docker (recommandé)
# Créez le répertoire de config
mkdir -p ~/.openclaw
# Créez une config minimale
cat > ~/.openclaw/openclaw.json << 'EOF'
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "YOUR_TELEGRAM_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6"
}
}
}
EOF
# Lancez
docker run -d \
--name openclaw \
-v ~/.openclaw:/root/.openclaw \
ghcr.io/hedging8563/lemondata-openclaw:latest
Option 2 : Installation directe
# Clonez et installez
git clone https://github.com/hedging8563/openclaw.git
cd openclaw
npm install
# Configurez (éditez ~/.openclaw/openclaw.json)
# Lancez
node src/index.js
Option 3 : Hébergement LemonData
Si vous ne souhaitez pas gérer l’infrastructure, LemonData propose des instances OpenClaw hébergées. Chaque instance tourne dans un pod Kubernetes isolé avec stockage persistant.
Inscrivez-vous sur lemondata.cc, rendez-vous dans la section Claw de votre tableau de bord, et lancez une instance. Vous obtenez un sous-domaine dédié (claw-yourname.lemondata.cc) avec accès à un terminal web.
Configuration
Le fichier de config (~/.openclaw/openclaw.json) contrôle tout :
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
Sélection du modèle
Changez de modèle par conversation ou définissez des valeurs par défaut :
/model claude-sonnet-4-6 # Passe à Claude
/model gpt-4.1-mini # Passe à GPT-4.1 Mini (moins cher)
/model deepseek-chat # Passe à DeepSeek (budget)
Serveurs MCP
Connectez des outils externes via MCP (Model Context Protocol) :
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
Avec les serveurs MCP configurés, votre assistant IA peut lire des fichiers, interroger des bases de données et interagir avec des services externes directement depuis l’interface de chat.
Cas d’usage
Assistant personnel de connaissances
Connectez OpenClaw à votre répertoire de notes via le serveur MCP filesystem. Posez des questions sur vos propres documents, obtenez des résumés, trouvez des liens entre vos notes.
Bot DevOps d’équipe
Déployez dans le Slack ou Discord de votre équipe. Connectez-le à votre cluster Kubernetes, tableaux de bord de monitoring et pipelines CI/CD. Les membres peuvent vérifier le statut des déploiements, consulter les logs et déclencher des rollbacks en langage naturel.
Automatisation du support client
Connectez-le à votre base de données produit et base de connaissances. OpenClaw gère les requêtes de premier niveau, en escaladant vers des humains lorsque la confiance est faible.
Assistant de revue de code
Connectez-le à votre dépôt Git. Envoyez des diffs pour revue, obtenez des analyses de sécurité, suggestions de style et détection de bugs sans quitter votre application de chat.
Comparaison des coûts
| Configuration | Coût mensuel | Modèles | Confidentialité des données |
|---|---|---|---|
| ChatGPT Plus | 20 $/utilisateur | GPT-4o, limité | Données sur les serveurs OpenAI |
| Claude Pro | 20 $/utilisateur | Claude uniquement | Données sur les serveurs Anthropic |
| OpenClaw (auto-hébergé) | Usage API uniquement | Tout modèle | Données sur votre serveur |
| OpenClaw (hébergé LemonData) | 20 $/instance + API | Tout modèle | Pod K8s isolé |
Pour une équipe de 5 personnes, ChatGPT Plus coûte 100 $/mois avec accès limité aux modèles. OpenClaw avec crédits API partagés peut coûter 30-50 $/mois au total, avec accès à tous les modèles et contrôle total des données.
Exigences matérielles
- Minimum : Toute machine avec Node.js 18+ et 512 Mo de RAM
- Recommandé : 1 cœur CPU, 1 Go de RAM, 10 Go de stockage
- Pour les modèles locaux (Ollama) : Ajoutez les exigences GPU/Apple Silicon selon le modèle
OpenClaw lui-même est léger. L’inférence IA se fait sur les serveurs du fournisseur API (ou votre instance locale Ollama).
Essayez OpenClaw : auto-hébergez avec n’importe quelle API IA, ou lancez une instance hébergée sur lemondata.cc. 1 $ de crédit API offert à l’inscription.
