设置

语言

LemonClaw:在任何服务器上运行你自己的 AI 助手

L
LemonData
·2026年4月8日·130 次浏览
LemonClaw:在任何服务器上运行你自己的 AI 助手

云端 AI 助手在出问题之前都很方便。高峰时段的速率限制(Rate limits)。数据离开你的网络。不断累积的月度订阅费用。除了提供商允许的范围外,无法自定义行为。

LemonClaw 是一个运行在你自己硬件上的自托管 AI 助手。它连接到 Telegram、Discord 或任何聊天平台,通过统一的 API 使用任何 AI 模型,并将所有对话数据保留在你的机器上。

如果你还在犹豫是否要进行自托管,请在阅读本文的同时参考 Mac Studio 本地 AI 指南中国开发者指南。前者回答了硬件问题,后者回答了支付和供应商问题。

LemonClaw 的功能

LemonClaw 的核心是聊天平台与 AI 模型之间的网关。你在 Telegram 上发送消息,LemonClaw 将其路由到你选择的 AI 模型,并将响应发回。

但它的功能远不止简单的中转:

  • 多模型支持:在对话中途切换 GPT-4.1、Claude、DeepSeek 和本地模型
  • 持久化记忆:对话在重启后依然存在,并具有可配置的上下文窗口(context windows)
  • MCP 服务器支持:通过 Model Context Protocol 连接到外部工具(数据库、API、文件系统)
  • 插件系统:添加自定义命令、定时任务和集成
  • 多用户:每个用户拥有自己的对话历史和模型偏好
  • 图像理解:发送照片并获取 AI 分析(使用具备视觉能力的模型)
  • 语音消息:针对语音输入的语音转文本(Speech-to-text)处理

架构

Telegram/Discord ←→ LemonClaw 网关 ←→ AI API (LemonData/OpenAI/本地)
                         │
                    ┌────┴────┐
                    │   插件   │
                    │   MCP    │
                    │   记忆   │
                    └─────────┘

LemonClaw 作为一个单一的 Node.js 进程运行。基础使用不需要数据库(对话存储为 JSON 文件)。对于生产环境部署,它支持 Kubernetes 上的持久化卷(persistent volumes)。

快速开始(5 分钟)

选项 1:单行自托管安装(推荐)

curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash

当前的安装程序在可用时优先使用 uv tool install,否则会回退到隔离的 venv 并在最后运行 lemonclaw init

选项 2:手动安装

uv tool install --upgrade lemonclaw
lemonclaw init

选项 3:LemonData 托管

如果你不想管理基础设施,LemonData 提供托管的 LemonClaw 实例。每个实例运行在带有持久化存储的隔离 Kubernetes pod 中。

lemondata.cc 注册,导航到仪表板中的 Claw 部分,然后启动一个实例。你将获得一个专用的二级域名(claw-yourname.lemondata.cc)并带有 Web 终端访问权限。

当前的自托管流程

目前的本地流程为:

lemonclaw init
lemonclaw gateway
lemonclaw status

运行时数据存储在:

  • ~/.lemonclaw/config.json
  • ~/.lemonclaw/workspace/
  • ~/.lemonclaw/workspace/sessions/
  • ~/.lemonclaw/lemonclaw.log

这在运维上很重要。当团队说自托管助手“只是个机器人”时,他们通常没有考虑到会话状态、日志和凭据(credentials)实际存储在哪里。

配置

配置文件(~/.lemonclaw/config.json)控制一切:

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

现在值得了解的常用命令:

  • lemonclaw init
  • lemonclaw gateway
  • lemonclaw status
  • lemonclaw doctor
  • lemonclaw channels login
  • lemonclaw channels status

模型选择

按对话切换模型或设置默认值:

/model claude-sonnet-4-6    # 切换到 Claude
/model gpt-4.1-mini         # 切换到 GPT-4.1 Mini (更便宜)
/model deepseek-chat         # 切换到 DeepSeek (经济)

MCP 服务器

通过 MCP (Model Context Protocol) 连接外部工具:

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

配置 MCP 服务器后,你的 AI 助手可以直接从聊天界面读取文件、查询数据库并与外部服务交互。

托管 vs 自托管:哪种适合你

在以下情况下使用自托管:

  • 数据本地化很重要
  • 你希望直接控制运行时(runtime)和存储
  • 你需要自定义 MCP 服务器或本地工具
  • 你能自如地运行一个小型服务

在以下情况下使用托管:

  • 你想要 LemonClaw 的体验但不想维护运行时
  • 你的团队更看重速度而非控制权
  • 你需要隔离的实例,但不需要底层运行时的所有权

对于许多团队来说,最好的第一步是使用托管的 Claw,如果工作流程变得至关重要,稍后再迁移到自托管。

使用场景

个人知识助手

通过 MCP 文件系统服务器将 LemonClaw 连接到你的笔记目录。询问关于你自己文档的问题,获取摘要,寻找笔记之间的联系。

团队 DevOps 机器人

部署在团队的 Slack 或 Discord 中。连接到你的 Kubernetes 集群、监控仪表板和 CI/CD 流水线。团队成员可以通过自然语言检查部署状态、查看日志并触发回滚。

客户支持自动化

连接到你的产品数据库和知识库。LemonClaw 处理第一线支持查询,并在置信度低时转交给人工。

代码审查助手

连接到你的 Git 仓库。发送 diff 进行审查,获取安全分析、风格建议和错误检测,而无需离开你的聊天应用。

成本对比

方案 每月成本 模型 数据隐私
ChatGPT Plus $20/用户 GPT-4o,有限制 数据存储在 OpenAI 服务器
Claude Pro $20/用户 仅限 Claude 数据存储在 Anthropic 服务器
LemonClaw (自托管) 仅 API 使用费 任何模型 数据存储在你的服务器
LemonClaw (LemonData 托管) $20/实例 + API 任何模型 隔离的 K8s pod

对于一个 5 人的团队,ChatGPT Plus 每月花费 100 美元且模型访问受限。使用共享 API 额度的 LemonClaw 每月总计可能只需 30-50 美元,且能访问所有模型并拥有完整的数据控制权。

硬件要求

  • 最低配置:任何安装了 Node.js 18+ 且具备 512MB RAM 的机器
  • 推荐配置:1 核 CPU,1GB RAM,10GB 存储
  • 对于本地模型 (Ollama):根据具体模型增加 GPU/Apple Silicon 要求

LemonClaw 本身非常轻量。AI 推理(inference)发生在 API 提供商的服务器上(或你的本地 Ollama 实例上)。

这一区别很重要。你不需要 GPU 来运行自托管的 LemonClaw。只有当你也想自托管模型时,才需要 GPU。


尝试 LemonClaw:使用任何 AI API 进行自托管,或在 LemonData 启动托管实例。如果你想在选择前对比成本,下一篇建议阅读 价格对比

分享: