Paramètres

Langue

OpenClaw : Exécutez Votre Propre Assistant IA sur N'importe Quel Serveur

L
LemonData
·26 février 2026·5 vues
#openclaw#auto hébergé#assistant IA#telegram#discord
OpenClaw : Exécutez Votre Propre Assistant IA sur N'importe Quel Serveur

OpenClaw : Exécutez Votre Propre Assistant IA sur N'importe Quel Serveur

Les assistants IA dans le cloud sont pratiques... jusqu’à ce qu’ils ne le soient plus. Limites de débit aux heures de pointe. Données quittant votre réseau. Abonnements mensuels qui s’accumulent. Aucune possibilité de personnaliser le comportement au-delà de ce que le fournisseur autorise.

OpenClaw est un assistant IA auto-hébergé qui fonctionne sur votre propre matériel. Il se connecte à Telegram, Discord ou toute plateforme de chat, utilise n’importe quel modèle IA via une API unifiée, et conserve toutes les données de conversation sur votre machine.

Ce que fait OpenClaw

Au cœur, OpenClaw est une passerelle entre les plateformes de chat et les modèles IA. Vous envoyez un message sur Telegram, OpenClaw le transmet au modèle IA choisi, puis renvoie la réponse.

Mais il va plus loin qu’un simple relais :

  • Support multi-modèles : Passez de GPT-4.1, Claude, DeepSeek, à des modèles locaux en plein milieu d’une conversation
  • Mémoire persistante : Les conversations persistent après redémarrage avec des fenêtres de contexte configurables
  • Support serveur MCP : Connectez des outils externes (bases de données, APIs, systèmes de fichiers) via le Model Context Protocol
  • Système de plugins : Ajoutez des commandes personnalisées, tâches planifiées et intégrations
  • Multi-utilisateur : Chaque utilisateur dispose de son historique de conversation et de ses préférences de modèle
  • Compréhension d’images : Envoyez des photos et obtenez une analyse IA (avec des modèles capables de vision)
  • Messages vocaux : Reconnaissance vocale pour les entrées audio

Architecture

Telegram/Discord ←→ OpenClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

OpenClaw s’exécute comme un seul processus Node.js. Aucune base de données requise pour une utilisation basique (les conversations sont stockées sous forme de fichiers JSON). Pour les déploiements en production, il supporte les volumes persistants sur Kubernetes.

Démarrage rapide (5 minutes)

Option 1 : Docker (Recommandé)

# Créez le répertoire de configuration
mkdir -p ~/.openclaw

# Créez une config minimale
cat > ~/.openclaw/openclaw.json << 'EOF'
{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "YOUR_TELEGRAM_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6"
    }
  }
}
EOF

# Lancez
docker run -d \
  --name openclaw \
  -v ~/.openclaw:/root/.openclaw \
  ghcr.io/hedging8563/lemondata-openclaw:latest

Option 2 : Installation Directe

# Clonez et installez
git clone https://github.com/hedging8563/openclaw.git
cd openclaw
npm install

# Configurez (éditez ~/.openclaw/openclaw.json)
# Lancez
node src/index.js

Option 3 : Hébergement LemonData

Si vous ne souhaitez pas gérer l’infrastructure, LemonData propose des instances OpenClaw hébergées. Chaque instance tourne dans un pod Kubernetes isolé avec stockage persistant.

Inscrivez-vous sur lemondata.cc, rendez-vous dans la section Claw de votre tableau de bord, et lancez une instance. Vous obtenez un sous-domaine dédié (claw-yourname.lemondata.cc) avec accès à un terminal web.

Configuration

Le fichier de configuration (~/.openclaw/openclaw.json) contrôle tout :

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

Sélection du Modèle

Changez de modèle par conversation ou définissez des valeurs par défaut :

/model claude-sonnet-4-6    # Passe à Claude
/model gpt-4.1-mini         # Passe à GPT-4.1 Mini (moins cher)
/model deepseek-chat         # Passe à DeepSeek (budget)

Serveurs MCP

Connectez des outils externes via MCP (Model Context Protocol) :

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

Avec les serveurs MCP configurés, votre assistant IA peut lire des fichiers, interroger des bases de données et interagir avec des services externes directement depuis l’interface de chat.

Cas d’Utilisation

Assistant Personnel de Connaissances

Connectez OpenClaw à votre répertoire de notes via le serveur MCP filesystem. Posez des questions sur vos documents, obtenez des résumés, trouvez des liens entre vos notes.

Bot DevOps d’Équipe

Déployez dans le Slack ou Discord de votre équipe. Connectez-le à votre cluster Kubernetes, tableaux de bord de monitoring et pipelines CI/CD. Les membres de l’équipe peuvent vérifier le statut des déploiements, consulter les logs et déclencher des rollbacks en langage naturel.

Automatisation du Support Client

Connectez-le à votre base de données produit et base de connaissances. OpenClaw gère les requêtes de support de premier niveau, en escaladant aux humains lorsque la confiance est faible.

Assistant de Revue de Code

Connectez-le à votre dépôt Git. Envoyez des diffs pour revue, obtenez des analyses de sécurité, suggestions de style et détection de bugs sans quitter votre application de chat.

Comparaison des Coûts

Configuration Coût Mensuel Modèles Confidentialité des Données
ChatGPT Plus 20 $/utilisateur GPT-4o, limité Données sur serveurs OpenAI
Claude Pro 20 $/utilisateur Claude uniquement Données sur serveurs Anthropic
OpenClaw (auto-hébergé) Usage API uniquement Tout modèle Données sur votre serveur
OpenClaw (hébergé LemonData) 20 $/instance + API Tout modèle Pod K8s isolé

Pour une équipe de 5, ChatGPT Plus coûte 100 $/mois avec accès limité aux modèles. OpenClaw avec crédits API partagés peut coûter 30-50 $/mois au total, avec accès à tous les modèles et contrôle total des données.

Exigences Matérielles

  • Minimum : Toute machine avec Node.js 18+ et 512 Mo de RAM
  • Recommandé : 1 cœur CPU, 1 Go de RAM, 10 Go de stockage
  • Pour les modèles locaux (Ollama) : Ajoutez les exigences GPU/Apple Silicon selon le modèle

OpenClaw lui-même est léger. L’inférence IA se fait sur les serveurs du fournisseur API (ou votre instance locale Ollama).


Essayez OpenClaw : auto-hébergez avec n’importe quelle API IA, ou lancez une instance hébergée sur lemondata.cc. 1 $ de crédit API offert à l’inscription.

Share: