Los asistentes de AI en la nube son convenientes hasta que dejan de serlo. Rate limits durante las horas pico. Datos que salen de tu red. Suscripciones mensuales que se acumulan. Sin forma de personalizar el comportamiento más allá de lo que permite el proveedor.
LemonClaw es un asistente de AI self-hosted que se ejecuta en tu propio hardware. Se conecta a Telegram, Discord o cualquier plataforma de chat, utiliza cualquier modelo de AI a través de una unificada API y mantiene todos los datos de las conversaciones en tu máquina.
Si estás decidiendo si optar por el self-hosting, lee esto junto con la guía de AI local para Mac Studio M5 Ultra y la guía para desarrolladores en China. La primera responde a la pregunta sobre el hardware. La segunda responde a la pregunta sobre pagos y proveedores.
Qué hace LemonClaw
En su esencia, LemonClaw es una gateway entre plataformas de chat y modelos de AI. Envías un mensaje en Telegram, LemonClaw lo dirige al modelo de AI que elijas y devuelve la respuesta.
Pero va más allá de un simple relevo:
- Soporte multimodelo: Cambia entre GPT-4.1, Claude, DeepSeek y modelos locales a mitad de la conversación
- Memoria persistente: Las conversaciones persisten tras los reinicios con ventanas de contexto configurables
- Soporte para servidores MCP: Conéctate a herramientas externas (bases de datos, APIs, sistemas de archivos) a través del Model Context Protocol
- Sistema de plugins: Añade comandos personalizados, tareas programadas e integraciones
- Multiusuario: Cada usuario obtiene su propio historial de conversaciones y preferencias de modelo
- Comprensión de imágenes: Envía fotos y obtén análisis de AI (usando modelos con capacidad de vision)
- Mensajes de voz: Procesamiento de speech-to-text para entradas de voz
Arquitectura
Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Memoria │
└─────────┘
LemonClaw se ejecuta como un único proceso de Node.js. No requiere base de datos para el uso básico (las conversaciones se almacenan como archivos JSON). Para despliegues de producción, admite volúmenes persistentes en Kubernetes.
Inicio rápido (5 minutos)
Opción 1: Instalación self-hosted en una línea (Recomendado)
curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash
El instalador actual prefiere uv tool install cuando está disponible; de lo contrario, recurre a un venv aislado y ejecuta lemonclaw init al final.
Opción 2: Instalación manual
uv tool install --upgrade lemonclaw
lemonclaw init
Opción 3: Hosted en LemonData
Si no quieres gestionar la infraestructura, LemonData ofrece instancias de LemonClaw alojadas. Cada instancia se ejecuta en un pod de Kubernetes aislado con almacenamiento persistente.
Regístrate en lemondata.cc, navega a la sección Claw en tu dashboard e inicia una instancia. Obtendrás un subdominio dedicado (claw-tunombre.lemondata.cc) con acceso a terminal web.
El flujo actual de Self-Hosted
El flujo local actual es:
lemonclaw init
lemonclaw gateway
lemonclaw status
Los datos de runtime residen en:
~/.lemonclaw/config.json~/.lemonclaw/workspace/~/.lemonclaw/workspace/sessions/~/.lemonclaw/lemonclaw.log
Esto es importante a nivel operativo. Cuando los equipos dicen que un asistente self-hosted es "solo un bot", generalmente no han pensado en dónde residen realmente el estado de la sesión, los logs y las credenciales.
Configuración
El archivo de configuración (~/.lemonclaw/config.json) lo controla todo:
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
Comandos comunes que vale la pena conocer ahora:
lemonclaw initlemonclaw gatewaylemonclaw statuslemonclaw doctorlemonclaw channels loginlemonclaw channels status
Selección de modelo
Cambia de modelo por conversación o establece valores predeterminados:
/model claude-sonnet-4-6 # Cambiar a Claude
/model gpt-4.1-mini # Cambiar a GPT-4.1 Mini (más económico)
/model deepseek-chat # Cambiar a DeepSeek (bajo presupuesto)
Servidores MCP
Conecta herramientas externas a través de MCP (Model Context Protocol):
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
Con los servidores MCP configurados, tu asistente de AI puede leer archivos, consultar bases de datos e interactuar con servicios externos directamente desde la interfaz de chat.
Hosted vs Self-Hosted: Cuál se adapta mejor
Usa self-hosted cuando:
- la localidad de los datos sea importante
- quieras control directo sobre el runtime y el almacenamiento
- necesites servidores MCP personalizados o herramientas locales
- te sientas cómodo operando un servicio pequeño
Usa hosted cuando:
- quieras la experiencia de Claw sin mantener un runtime
- tu equipo valore la velocidad sobre el control
- necesites instancias aisladas pero no la propiedad del runtime a bajo nivel
Para muchos equipos, el mejor primer paso es Claw hosted, con una posterior migración a self-hosted si el flujo de trabajo se vuelve central.
Casos de uso
Asistente de conocimiento personal
Conecta LemonClaw al directorio de tus notas a través del servidor MCP filesystem. Haz preguntas sobre tus propios documentos, obtén resúmenes y encuentra conexiones entre notas.
Bot de DevOps para equipos
Despliégalo en el Slack o Discord de tu equipo. Conéctalo a tu clúster de Kubernetes, dashboards de monitoreo y pipelines de CI/CD. Los miembros del equipo pueden verificar el estado del despliegue, ver logs y activar rollbacks mediante lenguaje natural.
Automatización de soporte al cliente
Conéctalo a la base de datos de tu producto y a tu base de conocimientos. LemonClaw maneja las consultas de soporte de primera línea, escalando a humanos cuando la confianza es baja.
Asistente de revisión de código
Conéctalo a tu repositorio de Git. Envía diffs para revisión, obtén análisis de seguridad, sugerencias de estilo y detección de errores sin salir de tu aplicación de chat.
Comparación de costos
| Configuración | Costo mensual | Modelos | Privacidad de datos |
|---|---|---|---|
| ChatGPT Plus | $20/usuario | GPT-4o, limitado | Datos en servidores de OpenAI |
| Claude Pro | $20/usuario | Solo Claude | Datos en servidores de Anthropic |
| LemonClaw (self-hosted) | Solo uso de API | Cualquier modelo | Datos en tu servidor |
| LemonClaw (LemonData hosted) | $20/instancia + API | Cualquier modelo | Pod de K8s aislado |
Para un equipo de 5 personas, ChatGPT Plus cuesta $100/mes con acceso limitado a modelos. LemonClaw con créditos de API compartidos podría costar entre $30 y $50/mes en total, con acceso a todos los modelos y control total de los datos.
Requisitos de hardware
- Mínimo: Cualquier máquina con Node.js 18+ y 512MB de RAM
- Recomendado: 1 núcleo de CPU, 1GB de RAM, 10GB de almacenamiento
- Para modelos locales (Ollama): Añadir requisitos de GPU/Apple Silicon según el modelo
LemonClaw en sí es ligero. La inferencia de AI ocurre en los servidores del proveedor de API (o en tu instancia local de Ollama).
Esa distinción es importante. No necesitas una GPU para hacer self-hosting de LemonClaw. Solo necesitas una GPU si también quieres hacer self-hosting de los modelos.
Prueba LemonClaw: haz self-hosting con cualquier AI API, o lanza una instancia hosted en LemonData. Si quieres comparar el aspecto de los costos antes de elegir, la comparación de precios es la siguiente página que debes leer.