Les assistants AI dans le cloud sont pratiques, jusqu'à ce qu'ils ne le soient plus. Rate limits pendant les heures de pointe. Données quittant votre réseau. Abonnements mensuels qui s'accumulent. Aucune possibilité de personnaliser le comportement au-delà de ce que le fournisseur autorise.
LemonClaw est un assistant AI auto-hébergé qui s'exécute sur votre propre matériel. Il se connecte à Telegram, Discord ou n'importe quelle plateforme de chat, utilise n'importe quel modèle AI via une API unifiée et conserve toutes les données de conversation sur votre machine.
Si vous hésitez encore à passer à l'auto-hébergement, lisez ceci en parallèle avec le guide de l'AI locale sur Mac Studio et le guide pour les développeurs en Chine. Le premier répond à la question du matériel. Le second répond à la question du paiement et du fournisseur.
Ce que fait LemonClaw
À la base, LemonClaw est une passerelle entre les plateformes de chat et les modèles AI. Vous envoyez un message sur Telegram, LemonClaw l'achemine vers le modèle AI de votre choix et renvoie la réponse.
Mais il va bien plus loin qu'un simple relais :
- Support multi-modèles : passez de GPT-4.1, Claude, DeepSeek aux modèles locaux en milieu de conversation
- Mémoire persistante : les conversations persistent après les redémarrages avec des context windows configurables
- Support des serveurs MCP : connectez-vous à des outils externes (bases de données, API, systèmes de fichiers) via le Model Context Protocol
- Système de plugins : ajoutez des commandes personnalisées, des tâches planifiées et des intégrations
- Multi-utilisateur : chaque utilisateur dispose de son propre historique de conversation et de ses préférences de modèle
- Compréhension d'images : envoyez des photos et obtenez une analyse par l'AI (en utilisant des modèles capables de vision)
- Messages vocaux : traitement speech-to-text pour les entrées vocales
Architecture
Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Memory │
└─────────┘
LemonClaw s'exécute comme un processus Node.js unique. Aucune base de données n'est requise pour une utilisation basique (conversations stockées sous forme de fichiers JSON). Pour les déploiements en production, il supporte les volumes persistants sur Kubernetes.
Démarrage rapide (5 minutes)
Option 1 : Installation auto-hébergée en une ligne (recommandée)
curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash
L'installateur actuel privilégie uv tool install lorsqu'il est disponible, sinon il se rabat sur un venv isolé et exécute lemonclaw init à la fin.
Option 2 : Installation manuelle
uv tool install --upgrade lemonclaw
lemonclaw init
Option 3 : Hébergé par LemonData
Si vous ne souhaitez pas gérer l'infrastructure, LemonData propose des instances LemonClaw hébergées. Chaque instance s'exécute dans un pod Kubernetes isolé avec un stockage persistant.
Inscrivez-vous sur lemondata.cc, accédez à la section Claw de votre tableau de bord et lancez une instance. Vous obtenez un sous-domaine dédié (claw-votre-nom.lemondata.cc) avec un accès terminal web.
Le flux actuel de l'auto-hébergement
Le flux local actuel est le suivant :
lemonclaw init
lemonclaw gateway
lemonclaw status
Les données d'exécution se trouvent sous :
~/.lemonclaw/config.json~/.lemonclaw/workspace/~/.lemonclaw/workspace/sessions/~/.lemonclaw/lemonclaw.log
Cela compte sur le plan opérationnel. Lorsque des équipes disent qu'un assistant auto-hébergé n'est « qu'un bot », elles n'ont généralement pas réfléchi à l'endroit où vivent réellement l'état de la session, les logs et les credentials.
Configuration
Le fichier de configuration (~/.lemonclaw/config.json) contrôle tout :
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
Commandes courantes à connaître dès maintenant :
lemonclaw initlemonclaw gatewaylemonclaw statuslemonclaw doctorlemonclaw channels loginlemonclaw channels status
Sélection du modèle
Changez de modèle par conversation ou définissez des valeurs par défaut :
/model claude-sonnet-4-6 # Passer à Claude
/model gpt-4.1-mini # Passer à GPT-4.1 Mini (moins cher)
/model deepseek-chat # Passer à DeepSeek (économique)
Serveurs MCP
Connectez des outils externes via MCP (Model Context Protocol) :
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
Avec les serveurs MCP configurés, votre assistant AI peut lire des fichiers, interroger des bases de données et interagir directement avec des services externes depuis l'interface de chat.
Hébergé vs Auto-hébergé : lequel choisir ?
Utilisez l'auto-hébergement quand :
- la localisation des données est importante
- vous voulez un contrôle direct sur le runtime et le stockage
- vous avez besoin de serveurs MCP personnalisés ou d'outils locaux
- vous êtes à l'aise avec l'exploitation d'un petit service
Utilisez l'hébergement quand :
- vous voulez l'expérience Claw sans maintenir un runtime
- votre équipe privilégie la rapidité au contrôle
- vous avez besoin d'instances isolées mais pas de la propriété du runtime de bas niveau
Pour de nombreuses équipes, la meilleure première étape est le Claw hébergé, avec un passage ultérieur à l'auto-hébergement si le workflow devient central.
Cas d'utilisation
Assistant de connaissances personnel
Connectez LemonClaw à votre répertoire de notes via le serveur MCP filesystem. Posez des questions sur vos propres documents, obtenez des résumés, trouvez des liens entre vos notes.
Bot DevOps d'équipe
Déployez-le dans le Slack ou le Discord de votre équipe. Connectez-le à votre cluster Kubernetes, à vos tableaux de bord de monitoring et à vos pipelines CI/CD. Les membres de l'équipe peuvent vérifier l'état du déploiement, consulter les logs et déclencher des rollbacks en langage naturel.
Automatisation du support client
Connectez-le à la base de données de votre produit et à votre base de connaissances. LemonClaw gère les requêtes de support de premier niveau, en passant le relais aux humains lorsque le niveau de confiance est faible.
Assistant de revue de code
Connectez-le à votre dépôt Git. Envoyez des diffs pour révision, obtenez une analyse de sécurité, des suggestions de style et une détection de bugs sans quitter votre application de chat.
Comparaison des coûts
| Configuration | Coût mensuel | Modèles | Confidentialité des données |
|---|---|---|---|
| ChatGPT Plus | 20 $/utilisateur | GPT-4o, limité | Données sur les serveurs OpenAI |
| Claude Pro | 20 $/utilisateur | Claude uniquement | Données sur les serveurs Anthropic |
| LemonClaw (auto-hébergé) | Utilisation API uniquement | N'importe quel modèle | Données sur votre serveur |
| LemonClaw (hébergé LemonData) | 20 $/instance + API | N'importe quel modèle | Pod K8s isolé |
Pour une équipe de 5 personnes, ChatGPT Plus coûte 100 $/mois avec un accès limité aux modèles. LemonClaw avec des crédits API partagés pourrait coûter entre 30 et 50 $/mois au total, avec un accès à tous les modèles et un contrôle total des données.
Configuration matérielle requise
- Minimum : n'importe quelle machine avec Node.js 18+ et 512 Mo de RAM
- Recommandé : 1 cœur CPU, 1 Go de RAM, 10 Go de stockage
- Pour les modèles locaux (Ollama) : ajoutez les exigences GPU/Apple Silicon par modèle
LemonClaw lui-même est léger. L'inférence AI se produit sur les serveurs du fournisseur d'API (ou sur votre instance Ollama locale).
Cette distinction est importante. Vous n'avez pas besoin d'un GPU pour auto-héberger LemonClaw. Vous n'avez besoin d'un GPU que si vous souhaitez également auto-héberger les modèles.
Essayez LemonClaw : auto-hébergez-le avec n'importe quelle API AI, ou lancez une instance hébergée sur LemonData. Si vous souhaitez comparer les coûts avant de choisir, la comparaison des prix est la page suivante à lire.