Paramètres

Langue

LemonClaw : Exécutez votre propre assistant IA sur n'importe quel serveur

L
LemonData
·8 avril 2026·129 vues
LemonClaw : Exécutez votre propre assistant IA sur n'importe quel serveur

Les assistants AI dans le cloud sont pratiques, jusqu'à ce qu'ils ne le soient plus. Rate limits pendant les heures de pointe. Données quittant votre réseau. Abonnements mensuels qui s'accumulent. Aucune possibilité de personnaliser le comportement au-delà de ce que le fournisseur autorise.

LemonClaw est un assistant AI auto-hébergé qui s'exécute sur votre propre matériel. Il se connecte à Telegram, Discord ou n'importe quelle plateforme de chat, utilise n'importe quel modèle AI via une API unifiée et conserve toutes les données de conversation sur votre machine.

Si vous hésitez encore à passer à l'auto-hébergement, lisez ceci en parallèle avec le guide de l'AI locale sur Mac Studio et le guide pour les développeurs en Chine. Le premier répond à la question du matériel. Le second répond à la question du paiement et du fournisseur.

Ce que fait LemonClaw

À la base, LemonClaw est une passerelle entre les plateformes de chat et les modèles AI. Vous envoyez un message sur Telegram, LemonClaw l'achemine vers le modèle AI de votre choix et renvoie la réponse.

Mais il va bien plus loin qu'un simple relais :

  • Support multi-modèles : passez de GPT-4.1, Claude, DeepSeek aux modèles locaux en milieu de conversation
  • Mémoire persistante : les conversations persistent après les redémarrages avec des context windows configurables
  • Support des serveurs MCP : connectez-vous à des outils externes (bases de données, API, systèmes de fichiers) via le Model Context Protocol
  • Système de plugins : ajoutez des commandes personnalisées, des tâches planifiées et des intégrations
  • Multi-utilisateur : chaque utilisateur dispose de son propre historique de conversation et de ses préférences de modèle
  • Compréhension d'images : envoyez des photos et obtenez une analyse par l'AI (en utilisant des modèles capables de vision)
  • Messages vocaux : traitement speech-to-text pour les entrées vocales

Architecture

Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

LemonClaw s'exécute comme un processus Node.js unique. Aucune base de données n'est requise pour une utilisation basique (conversations stockées sous forme de fichiers JSON). Pour les déploiements en production, il supporte les volumes persistants sur Kubernetes.

Démarrage rapide (5 minutes)

Option 1 : Installation auto-hébergée en une ligne (recommandée)

curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash

L'installateur actuel privilégie uv tool install lorsqu'il est disponible, sinon il se rabat sur un venv isolé et exécute lemonclaw init à la fin.

Option 2 : Installation manuelle

uv tool install --upgrade lemonclaw
lemonclaw init

Option 3 : Hébergé par LemonData

Si vous ne souhaitez pas gérer l'infrastructure, LemonData propose des instances LemonClaw hébergées. Chaque instance s'exécute dans un pod Kubernetes isolé avec un stockage persistant.

Inscrivez-vous sur lemondata.cc, accédez à la section Claw de votre tableau de bord et lancez une instance. Vous obtenez un sous-domaine dédié (claw-votre-nom.lemondata.cc) avec un accès terminal web.

Le flux actuel de l'auto-hébergement

Le flux local actuel est le suivant :

lemonclaw init
lemonclaw gateway
lemonclaw status

Les données d'exécution se trouvent sous :

  • ~/.lemonclaw/config.json
  • ~/.lemonclaw/workspace/
  • ~/.lemonclaw/workspace/sessions/
  • ~/.lemonclaw/lemonclaw.log

Cela compte sur le plan opérationnel. Lorsque des équipes disent qu'un assistant auto-hébergé n'est « qu'un bot », elles n'ont généralement pas réfléchi à l'endroit où vivent réellement l'état de la session, les logs et les credentials.

Configuration

Le fichier de configuration (~/.lemonclaw/config.json) contrôle tout :

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

Commandes courantes à connaître dès maintenant :

  • lemonclaw init
  • lemonclaw gateway
  • lemonclaw status
  • lemonclaw doctor
  • lemonclaw channels login
  • lemonclaw channels status

Sélection du modèle

Changez de modèle par conversation ou définissez des valeurs par défaut :

/model claude-sonnet-4-6    # Passer à Claude
/model gpt-4.1-mini         # Passer à GPT-4.1 Mini (moins cher)
/model deepseek-chat         # Passer à DeepSeek (économique)

Serveurs MCP

Connectez des outils externes via MCP (Model Context Protocol) :

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

Avec les serveurs MCP configurés, votre assistant AI peut lire des fichiers, interroger des bases de données et interagir directement avec des services externes depuis l'interface de chat.

Hébergé vs Auto-hébergé : lequel choisir ?

Utilisez l'auto-hébergement quand :

  • la localisation des données est importante
  • vous voulez un contrôle direct sur le runtime et le stockage
  • vous avez besoin de serveurs MCP personnalisés ou d'outils locaux
  • vous êtes à l'aise avec l'exploitation d'un petit service

Utilisez l'hébergement quand :

  • vous voulez l'expérience Claw sans maintenir un runtime
  • votre équipe privilégie la rapidité au contrôle
  • vous avez besoin d'instances isolées mais pas de la propriété du runtime de bas niveau

Pour de nombreuses équipes, la meilleure première étape est le Claw hébergé, avec un passage ultérieur à l'auto-hébergement si le workflow devient central.

Cas d'utilisation

Assistant de connaissances personnel

Connectez LemonClaw à votre répertoire de notes via le serveur MCP filesystem. Posez des questions sur vos propres documents, obtenez des résumés, trouvez des liens entre vos notes.

Bot DevOps d'équipe

Déployez-le dans le Slack ou le Discord de votre équipe. Connectez-le à votre cluster Kubernetes, à vos tableaux de bord de monitoring et à vos pipelines CI/CD. Les membres de l'équipe peuvent vérifier l'état du déploiement, consulter les logs et déclencher des rollbacks en langage naturel.

Automatisation du support client

Connectez-le à la base de données de votre produit et à votre base de connaissances. LemonClaw gère les requêtes de support de premier niveau, en passant le relais aux humains lorsque le niveau de confiance est faible.

Assistant de revue de code

Connectez-le à votre dépôt Git. Envoyez des diffs pour révision, obtenez une analyse de sécurité, des suggestions de style et une détection de bugs sans quitter votre application de chat.

Comparaison des coûts

Configuration Coût mensuel Modèles Confidentialité des données
ChatGPT Plus 20 $/utilisateur GPT-4o, limité Données sur les serveurs OpenAI
Claude Pro 20 $/utilisateur Claude uniquement Données sur les serveurs Anthropic
LemonClaw (auto-hébergé) Utilisation API uniquement N'importe quel modèle Données sur votre serveur
LemonClaw (hébergé LemonData) 20 $/instance + API N'importe quel modèle Pod K8s isolé

Pour une équipe de 5 personnes, ChatGPT Plus coûte 100 $/mois avec un accès limité aux modèles. LemonClaw avec des crédits API partagés pourrait coûter entre 30 et 50 $/mois au total, avec un accès à tous les modèles et un contrôle total des données.

Configuration matérielle requise

  • Minimum : n'importe quelle machine avec Node.js 18+ et 512 Mo de RAM
  • Recommandé : 1 cœur CPU, 1 Go de RAM, 10 Go de stockage
  • Pour les modèles locaux (Ollama) : ajoutez les exigences GPU/Apple Silicon par modèle

LemonClaw lui-même est léger. L'inférence AI se produit sur les serveurs du fournisseur d'API (ou sur votre instance Ollama locale).

Cette distinction est importante. Vous n'avez pas besoin d'un GPU pour auto-héberger LemonClaw. Vous n'avez besoin d'un GPU que si vous souhaitez également auto-héberger les modèles.


Essayez LemonClaw : auto-hébergez-le avec n'importe quelle API AI, ou lancez une instance hébergée sur LemonData. Si vous souhaitez comparer les coûts avant de choisir, la comparaison des prix est la page suivante à lire.

Share: