Cloud-AI-Assistenten sind praktisch, bis sie es nicht mehr sind. Rate Limits während der Stoßzeiten. Daten, die Ihr Netzwerk verlassen. Monatliche Abonnements, die sich summieren. Keine Möglichkeit, das Verhalten über das hinaus anzupassen, was der Anbieter erlaubt.
LemonClaw ist ein selbstgehosteter AI Assistant, der auf Ihrer eigenen Hardware läuft. Er verbindet sich mit Telegram, Discord oder jeder anderen Chat-Plattform, nutzt jedes beliebige AI-Modell über eine vereinheitlichte API und behält alle Konversationsdaten auf Ihrem Rechner.
Wenn Sie entscheiden, ob Sie überhaupt selbst hosten möchten, lesen Sie dies zusammen mit dem Mac Studio Local AI Guide und dem China Developer Guide. Der erste beantwortet die Hardware-Frage. Der zweite beantwortet die Frage nach Zahlung und Anbieter.
Was LemonClaw macht
Im Kern ist LemonClaw ein Gateway zwischen Chat-Plattformen und AI-Modellen. Sie senden eine Nachricht auf Telegram, LemonClaw leitet sie an das von Ihnen gewählte AI-Modell weiter und sendet die Antwort zurück.
Aber es geht weit über ein einfaches Relay hinaus:
- Multi-Modell-Unterstützung: Wechseln Sie mitten im Gespräch zwischen GPT-4.1, Claude, DeepSeek und lokalen Modellen.
- Persistenter Speicher: Konversationen bleiben über Neustarts hinweg erhalten, mit konfigurierbaren Context Windows.
- MCP-Server-Unterstützung: Verbinden Sie sich über das Model Context Protocol mit externen Tools (Datenbanken, APIs, Dateisysteme).
- Plugin-System: Fügen Sie benutzerdefinierte Befehle, geplante Aufgaben und Integrationen hinzu.
- Multi-User: Jeder Benutzer erhält seinen eigenen Konversationsverlauf und seine eigenen Modell-Präferenzen.
- Bildverständnis: Senden Sie Fotos und erhalten Sie AI-Analysen (unter Verwendung von Vision-fähigen Modellen).
- Sprachnachrichten: Speech-to-Text-Verarbeitung für Spracheingaben.
Architektur
Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Speicher │
└─────────┘
LemonClaw läuft als einzelner Node.js-Prozess. Für die Basisnutzung ist keine Datenbank erforderlich (Konversationen werden als JSON-Dateien gespeichert). Für Produktionsumgebungen unterstützt es persistente Volumes auf Kubernetes.
Quick Start (5 Minuten)
Option 1: Einzeilige selbstgehostete Installation (empfohlen)
curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash
Der aktuelle Installer bevorzugt uv tool install, falls verfügbar, andernfalls greift er auf eine isolierte venv zurück und führt am Ende lemonclaw init aus.
Option 2: Manuelle Installation
uv tool install --upgrade lemonclaw
lemonclaw init
Option 3: Von LemonData gehostet
Wenn Sie keine Infrastruktur verwalten möchten, bietet LemonData gehostete LemonClaw-Instanzen an. Jede Instanz läuft in einem isolierten Kubernetes-Pod mit persistentem Speicher.
Registrieren Sie sich unter lemondata.cc, navigieren Sie zum Claw-Bereich in Ihrem Dashboard und starten Sie eine Instanz. Sie erhalten eine dedizierte Subdomain (claw-ihrname.lemondata.cc) mit Web-Terminal-Zugriff.
Der aktuelle selbstgehostete Ablauf
Der aktuelle lokale Ablauf ist:
lemonclaw init
lemonclaw gateway
lemonclaw status
Laufzeitdaten befinden sich unter:
~/.lemonclaw/config.json~/.lemonclaw/workspace/~/.lemonclaw/workspace/sessions/~/.lemonclaw/lemonclaw.log
Das ist operativ von Bedeutung. Wenn Teams sagen, ein selbstgehosteter Assistent sei „nur ein Bot“, haben sie meist nicht zu Ende gedacht, wo Session-Status, Logs und Credentials tatsächlich liegen.
Konfiguration
Die Konfigurationsdatei (~/.lemonclaw/config.json) steuert alles:
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
Häufige Befehle, die man jetzt kennen sollte:
lemonclaw initlemonclaw gatewaylemonclaw statuslemonclaw doctorlemonclaw channels loginlemonclaw channels status
Modellauswahl
Wechseln Sie die Modelle pro Konversation oder legen Sie Standardwerte fest:
/model claude-sonnet-4-6 # Zu Claude wechseln
/model gpt-4.1-mini # Zu GPT-4.1 Mini wechseln (günstiger)
/model deepseek-chat # Zu DeepSeek wechseln (Budget)
MCP-Server
Verbinden Sie externe Tools über MCP (Model Context Protocol):
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/pfad/zum/erlaubten/verzeichnis"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
Mit konfigurierten MCP-Servern kann Ihr AI Assistant Dateien lesen, Datenbanken abfragen und direkt über das Chat-Interface mit externen Diensten interagieren.
Gehostet vs. Selbstgehostet: Was passt zu Ihnen?
Nutzen Sie die selbstgehostete Variante, wenn:
- Datenlokalität wichtig ist
- Sie direkte Kontrolle über Laufzeit und Speicher wünschen
- Sie benutzerdefinierte MCP-Server oder lokale Tools benötigen
- Sie sich mit dem Betrieb eines kleinen Dienstes wohlfühlen
Nutzen Sie die gehostete Variante, wenn:
- Sie das Claw-Erlebnis ohne Wartung einer Laufzeitumgebung wünschen
- Ihr Team Geschwindigkeit über Kontrolle stellt
- Sie isolierte Instanzen benötigen, aber kein Low-Level-Eigentum an der Laufzeitumgebung
Für viele Teams ist der beste erste Schritt die gehostete Claw, gefolgt von einem späteren Umzug auf die selbstgehostete Variante, wenn der Workflow zentral wird.
Anwendungsfälle
Persönlicher Wissensassistent
Verbinden Sie LemonClaw über den MCP-Filesystem-Server mit Ihrem Notizverzeichnis. Stellen Sie Fragen zu Ihren eigenen Dokumenten, lassen Sie sich Zusammenfassungen erstellen oder finden Sie Verbindungen zwischen Notizen.
Team-DevOps-Bot
In Slack oder Discord Ihres Teams bereitstellen. Verbinden Sie ihn mit Ihrem Kubernetes-Cluster, Monitoring-Dashboards und CI/CD-Pipelines. Teammitglieder können den Deployment-Status prüfen, Logs einsehen und Rollbacks über natürliche Sprache auslösen.
Kundensupport-Automatisierung
Verbinden Sie ihn mit Ihrer Produktdatenbank und Wissensdatenbank. LemonClaw übernimmt First-Line-Support-Anfragen und leitet bei geringer Sicherheit an Menschen weiter.
Code-Review-Assistent
Verbinden Sie ihn mit Ihrem Git-Repository. Senden Sie Diffs zur Überprüfung, erhalten Sie Sicherheitsanalysen, Stilvorschläge und Fehlererkennung, ohne Ihre Chat-App zu verlassen.
Kostenvergleich
| Setup | Monatliche Kosten | Modelle | Datenschutz |
|---|---|---|---|
| ChatGPT Plus | $20/Benutzer | GPT-4o, limitiert | Daten auf OpenAI-Servern |
| Claude Pro | $20/Benutzer | Nur Claude | Daten auf Anthropic-Servern |
| LemonClaw (selbstgehostet) | Nur API-Nutzung | Jedes Modell | Daten auf Ihrem Server |
| LemonClaw (von LemonData gehostet) | $20/Instanz + API | Jedes Modell | Isolierter K8s-Pod |
Für ein Team von 5 Personen kostet ChatGPT Plus $100/Monat bei eingeschränktem Modellzugriff. LemonClaw mit geteilten API-Credits könnte insgesamt $30-50/Monat kosten, mit Zugriff auf jedes Modell und voller Datenkontrolle.
Hardware-Anforderungen
- Minimum: Jede Maschine mit Node.js 18+ und 512MB RAM
- Empfohlen: 1 CPU-Kern, 1GB RAM, 10GB Speicher
- Für lokale Modelle (Ollama): GPU/Apple Silicon-Anforderungen pro Modell hinzufügen
LemonClaw selbst ist leichtgewichtig. Die AI-Inference findet auf den Servern des API-Anbieters statt (oder auf Ihrer lokalen Ollama-Instanz).
Diese Unterscheidung ist wichtig. Sie benötigen keine GPU, um LemonClaw selbst zu hosten. Sie benötigen nur dann eine GPU, wenn Sie auch die Modelle selbst hosten möchten.
Probieren Sie LemonClaw aus: Hosten Sie es selbst mit jeder AI-API oder starten Sie eine gehostete Instanz bei LemonData. Wenn Sie vor der Wahl die Kostenseite vergleichen möchten, ist der Preisvergleich die nächste Seite, die Sie lesen sollten.