云端 AI 助手在出问题之前都很方便。高峰时段的速率限制(Rate limits)。数据离开你的网络。不断累积的月度订阅费用。除了提供商允许的范围外,无法自定义行为。
LemonClaw 是一个运行在你自己硬件上的自托管 AI 助手。它连接到 Telegram、Discord 或任何聊天平台,通过统一的 API 使用任何 AI 模型,并将所有对话数据保留在你的机器上。
如果你还在犹豫是否要进行自托管,请在阅读本文的同时参考 Mac Studio 本地 AI 指南 和 中国开发者指南。前者回答了硬件问题,后者回答了支付和供应商问题。
LemonClaw 的功能
LemonClaw 的核心是聊天平台与 AI 模型之间的网关。你在 Telegram 上发送消息,LemonClaw 将其路由到你选择的 AI 模型,并将响应发回。
但它的功能远不止简单的中转:
- 多模型支持:在对话中途切换 GPT-4.1、Claude、DeepSeek 和本地模型
- 持久化记忆:对话在重启后依然存在,并具有可配置的上下文窗口(context windows)
- MCP 服务器支持:通过 Model Context Protocol 连接到外部工具(数据库、API、文件系统)
- 插件系统:添加自定义命令、定时任务和集成
- 多用户:每个用户拥有自己的对话历史和模型偏好
- 图像理解:发送照片并获取 AI 分析(使用具备视觉能力的模型)
- 语音消息:针对语音输入的语音转文本(Speech-to-text)处理
架构
Telegram/Discord ←→ LemonClaw 网关 ←→ AI API (LemonData/OpenAI/本地)
│
┌────┴────┐
│ 插件 │
│ MCP │
│ 记忆 │
└─────────┘
LemonClaw 作为一个单一的 Node.js 进程运行。基础使用不需要数据库(对话存储为 JSON 文件)。对于生产环境部署,它支持 Kubernetes 上的持久化卷(persistent volumes)。
快速开始(5 分钟)
选项 1:单行自托管安装(推荐)
curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash
当前的安装程序在可用时优先使用 uv tool install,否则会回退到隔离的 venv 并在最后运行 lemonclaw init。
选项 2:手动安装
uv tool install --upgrade lemonclaw
lemonclaw init
选项 3:LemonData 托管
如果你不想管理基础设施,LemonData 提供托管的 LemonClaw 实例。每个实例运行在带有持久化存储的隔离 Kubernetes pod 中。
在 lemondata.cc 注册,导航到仪表板中的 Claw 部分,然后启动一个实例。你将获得一个专用的二级域名(claw-yourname.lemondata.cc)并带有 Web 终端访问权限。
当前的自托管流程
目前的本地流程为:
lemonclaw init
lemonclaw gateway
lemonclaw status
运行时数据存储在:
~/.lemonclaw/config.json~/.lemonclaw/workspace/~/.lemonclaw/workspace/sessions/~/.lemonclaw/lemonclaw.log
这在运维上很重要。当团队说自托管助手“只是个机器人”时,他们通常没有考虑到会话状态、日志和凭据(credentials)实际存储在哪里。
配置
配置文件(~/.lemonclaw/config.json)控制一切:
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
现在值得了解的常用命令:
lemonclaw initlemonclaw gatewaylemonclaw statuslemonclaw doctorlemonclaw channels loginlemonclaw channels status
模型选择
按对话切换模型或设置默认值:
/model claude-sonnet-4-6 # 切换到 Claude
/model gpt-4.1-mini # 切换到 GPT-4.1 Mini (更便宜)
/model deepseek-chat # 切换到 DeepSeek (经济)
MCP 服务器
通过 MCP (Model Context Protocol) 连接外部工具:
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
配置 MCP 服务器后,你的 AI 助手可以直接从聊天界面读取文件、查询数据库并与外部服务交互。
托管 vs 自托管:哪种适合你
在以下情况下使用自托管:
- 数据本地化很重要
- 你希望直接控制运行时(runtime)和存储
- 你需要自定义 MCP 服务器或本地工具
- 你能自如地运行一个小型服务
在以下情况下使用托管:
- 你想要 LemonClaw 的体验但不想维护运行时
- 你的团队更看重速度而非控制权
- 你需要隔离的实例,但不需要底层运行时的所有权
对于许多团队来说,最好的第一步是使用托管的 Claw,如果工作流程变得至关重要,稍后再迁移到自托管。
使用场景
个人知识助手
通过 MCP 文件系统服务器将 LemonClaw 连接到你的笔记目录。询问关于你自己文档的问题,获取摘要,寻找笔记之间的联系。
团队 DevOps 机器人
部署在团队的 Slack 或 Discord 中。连接到你的 Kubernetes 集群、监控仪表板和 CI/CD 流水线。团队成员可以通过自然语言检查部署状态、查看日志并触发回滚。
客户支持自动化
连接到你的产品数据库和知识库。LemonClaw 处理第一线支持查询,并在置信度低时转交给人工。
代码审查助手
连接到你的 Git 仓库。发送 diff 进行审查,获取安全分析、风格建议和错误检测,而无需离开你的聊天应用。
成本对比
| 方案 | 每月成本 | 模型 | 数据隐私 |
|---|---|---|---|
| ChatGPT Plus | $20/用户 | GPT-4o,有限制 | 数据存储在 OpenAI 服务器 |
| Claude Pro | $20/用户 | 仅限 Claude | 数据存储在 Anthropic 服务器 |
| LemonClaw (自托管) | 仅 API 使用费 | 任何模型 | 数据存储在你的服务器 |
| LemonClaw (LemonData 托管) | $20/实例 + API | 任何模型 | 隔离的 K8s pod |
对于一个 5 人的团队,ChatGPT Plus 每月花费 100 美元且模型访问受限。使用共享 API 额度的 LemonClaw 每月总计可能只需 30-50 美元,且能访问所有模型并拥有完整的数据控制权。
硬件要求
- 最低配置:任何安装了 Node.js 18+ 且具备 512MB RAM 的机器
- 推荐配置:1 核 CPU,1GB RAM,10GB 存储
- 对于本地模型 (Ollama):根据具体模型增加 GPU/Apple Silicon 要求
LemonClaw 本身非常轻量。AI 推理(inference)发生在 API 提供商的服务器上(或你的本地 Ollama 实例上)。
这一区别很重要。你不需要 GPU 来运行自托管的 LemonClaw。只有当你也想自托管模型时,才需要 GPU。
尝试 LemonClaw:使用任何 AI API 进行自托管,或在 LemonData 启动托管实例。如果你想在选择前对比成本,下一篇建议阅读 价格对比。