Configurações

Idioma

OpenClaw: Execute Seu Próprio Assistente de IA em Qualquer Servidor

L
LemonData
·26 de fevereiro de 2026·17 visualizações
#OpenClaw#auto hospedado#assistente de IA#Telegram#Discord
OpenClaw: Execute Seu Próprio Assistente de IA em Qualquer Servidor

OpenClaw : Exécutez votre propre assistant IA sur n’importe quel serveur

Les assistants IA dans le cloud sont pratiques… jusqu’à ce qu’ils ne le soient plus. Limites de débit aux heures de pointe. Données quittant votre réseau. Abonnements mensuels qui s’accumulent. Aucune possibilité de personnaliser le comportement au-delà de ce que le fournisseur autorise.

OpenClaw est un assistant IA auto-hébergé qui fonctionne sur votre propre matériel. Il se connecte à Telegram, Discord ou toute plateforme de chat, utilise n’importe quel modèle IA via une API unifiée, et conserve toutes les données de conversation sur votre machine.

Ce que fait OpenClaw

Au cœur, OpenClaw est une passerelle entre les plateformes de chat et les modèles IA. Vous envoyez un message sur Telegram, OpenClaw le transmet au modèle IA choisi, puis renvoie la réponse.

Mais il va plus loin qu’un simple relais :

  • Support multi-modèles : Passez de GPT-4.1, Claude, DeepSeek ou modèles locaux en plein milieu d’une conversation
  • Mémoire persistante : Les conversations persistent même après redémarrage avec des fenêtres de contexte configurables
  • Support serveur MCP : Connectez des outils externes (bases de données, APIs, systèmes de fichiers) via le Model Context Protocol
  • Système de plugins : Ajoutez des commandes personnalisées, tâches planifiées et intégrations
  • Multi-utilisateur : Chaque utilisateur dispose de son historique de conversation et de ses préférences de modèle
  • Compréhension d’images : Envoyez des photos et obtenez une analyse IA (avec modèles capables de vision)
  • Messages vocaux : Traitement de la parole en texte pour les entrées vocales

Architecture

Telegram/Discord ←→ OpenClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

OpenClaw s’exécute comme un seul processus Node.js. Aucune base de données requise pour une utilisation basique (les conversations sont stockées sous forme de fichiers JSON). Pour les déploiements en production, il supporte les volumes persistants sur Kubernetes.

Démarrage rapide (5 minutes)

Option 1 : Docker (recommandé)

# Créez le répertoire de config
mkdir -p ~/.openclaw

# Créez une config minimale
cat > ~/.openclaw/openclaw.json << 'EOF'
{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "YOUR_TELEGRAM_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6"
    }
  }
}
EOF

# Lancez
docker run -d \
  --name openclaw \
  -v ~/.openclaw:/root/.openclaw \
  ghcr.io/hedging8563/lemondata-openclaw:latest

Option 2 : Installation directe

# Clonez et installez
git clone https://github.com/hedging8563/openclaw.git
cd openclaw
npm install

# Configurez (éditez ~/.openclaw/openclaw.json)
# Lancez
node src/index.js

Option 3 : Hébergement LemonData

Si vous ne souhaitez pas gérer l’infrastructure, LemonData propose des instances OpenClaw hébergées. Chaque instance tourne dans un pod Kubernetes isolé avec stockage persistant.

Inscrivez-vous sur lemondata.cc, rendez-vous dans la section Claw de votre tableau de bord, et lancez une instance. Vous obtenez un sous-domaine dédié (claw-yourname.lemondata.cc) avec accès à un terminal web.

Configuration

Le fichier de config (~/.openclaw/openclaw.json) contrôle tout :

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

Sélection du modèle

Changez de modèle par conversation ou définissez des valeurs par défaut :

/model claude-sonnet-4-6    # Passe à Claude
/model gpt-4.1-mini         # Passe à GPT-4.1 Mini (moins cher)
/model deepseek-chat         # Passe à DeepSeek (budget)

Serveurs MCP

Connectez des outils externes via MCP (Model Context Protocol) :

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

Avec les serveurs MCP configurés, votre assistant IA peut lire des fichiers, interroger des bases de données et interagir avec des services externes directement depuis l’interface de chat.

Cas d’usage

Assistant personnel de connaissances

Connectez OpenClaw à votre répertoire de notes via le serveur MCP filesystem. Posez des questions sur vos propres documents, obtenez des résumés, trouvez des liens entre vos notes.

Bot DevOps d’équipe

Déployez dans le Slack ou Discord de votre équipe. Connectez-le à votre cluster Kubernetes, tableaux de bord de monitoring et pipelines CI/CD. Les membres peuvent vérifier le statut des déploiements, consulter les logs et déclencher des rollbacks en langage naturel.

Automatisation du support client

Connectez-le à votre base de données produit et base de connaissances. OpenClaw gère les requêtes de premier niveau, en escaladant vers des humains lorsque la confiance est faible.

Assistant de revue de code

Connectez-le à votre dépôt Git. Envoyez des diffs pour revue, obtenez des analyses de sécurité, suggestions de style et détection de bugs sans quitter votre application de chat.

Comparaison des coûts

Configuration Coût mensuel Modèles Confidentialité des données
ChatGPT Plus 20 $/utilisateur GPT-4o, limité Données sur les serveurs OpenAI
Claude Pro 20 $/utilisateur Claude uniquement Données sur les serveurs Anthropic
OpenClaw (auto-hébergé) Usage API uniquement Tout modèle Données sur votre serveur
OpenClaw (hébergé LemonData) 20 $/instance + API Tout modèle Pod K8s isolé

Pour une équipe de 5 personnes, ChatGPT Plus coûte 100 $/mois avec accès limité aux modèles. OpenClaw avec crédits API partagés peut coûter 30-50 $/mois au total, avec accès à tous les modèles et contrôle total des données.

Exigences matérielles

  • Minimum : Toute machine avec Node.js 18+ et 512 Mo de RAM
  • Recommandé : 1 cœur CPU, 1 Go de RAM, 10 Go de stockage
  • Pour les modèles locaux (Ollama) : Ajoutez les exigences GPU/Apple Silicon selon le modèle

OpenClaw lui-même est léger. L’inférence IA se fait sur les serveurs du fournisseur API (ou votre instance locale Ollama).


Essayez OpenClaw : auto-hébergez avec n’importe quelle API IA, ou lancez une instance hébergée sur lemondata.cc. 1 $ de crédit API offert à l’inscription.

Share: