設定

語言

LemonClaw:在任何 Server 上運行您自己的 AI Assistant

L
LemonData
·2026年4月8日·128 次瀏覽
LemonClaw:在任何 Server 上運行您自己的 AI Assistant

雲端 AI 助手在出問題之前都很方便。尖峰時段的 Rate limits、數據離開您的網路、不斷累積的每月訂閱費用,以及除了提供商允許的範圍外,無法自定義行為。

LemonClaw 是一個運行在您自己硬體上的自託管 AI 助手。它能連接到 Telegram、Discord 或任何聊天平台,透過統一的 API 使用任何 AI 模型,並將所有對話數據保留在您的機器上。

如果您正在決定是否要進行自託管,請同時閱讀 Mac Studio 本地 AI 指南中國開發者指南。前者解答了硬體問題,後者解答了支付和提供商的問題。

LemonClaw 的功能

從核心來看,LemonClaw 是聊天平台與 AI 模型之間的網關。您在 Telegram 上發送訊息,LemonClaw 會將其路由到您選擇的 AI 模型,並將回覆傳回。

但它的功能遠不止於簡單的中繼:

  • 多模型支援:在對話中途切換 GPT-4.1、Claude、DeepSeek 和本地模型
  • 持久化記憶:對話在重啟後依然存在,並具有可配置的 context windows
  • MCP 伺服器支援:透過 Model Context Protocol 連接到外部工具(資料庫、API、檔案系統)
  • 插件系統:添加自定義指令、排程任務和整合功能
  • 多用戶:每個用戶都有自己的對話歷史和模型偏好
  • 圖像理解:發送照片並獲取 AI 分析(使用具備 vision 能力的模型)
  • 語音訊息:語音輸入的語音轉文字 (Speech-to-text) 處理

架構

Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

LemonClaw 作為單個 Node.js 程序運行。基本使用不需要資料庫(對話存儲為 JSON 檔案)。對於生產環境部署,它支援 Kubernetes 上的持久化磁碟卷 (persistent volumes)。

快速開始(5 分鐘)

選項 1:單行自託管安裝(推薦)

curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash

目前的安裝程式會優先使用 uv tool install(如果可用),否則會回退到獨立的 venv 並在最後運行 lemonclaw init

選項 2:手動安裝

uv tool install --upgrade lemonclaw
lemonclaw init

選項 3:LemonData 託管

如果您不想管理基礎設施,LemonData 提供託管的 LemonClaw 實例。每個實例都運行在具有持久化存儲的隔離 Kubernetes pod 中。

lemondata.cc 註冊,導航到儀表板中的 Claw 區塊,然後啟動一個實例。您將獲得一個專屬子域名 (claw-yourname.lemondata.cc) 並可以使用網頁終端訪問。

目前的自託管流程

目前的本地流程為:

lemonclaw init
lemonclaw gateway
lemonclaw status

運行時數據存放在:

  • ~/.lemonclaw/config.json
  • ~/.lemonclaw/workspace/
  • ~/.lemonclaw/workspace/sessions/
  • ~/.lemonclaw/lemonclaw.log

這在運維上很重要。當團隊說自託管助手「只是一個機器人」時,他們通常沒有考慮到 session state、logs 和 credentials 實際存放的位置。

配置

配置文件 (~/.lemonclaw/config.json) 控制一切:

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

現在值得了解的常用指令:

  • lemonclaw init
  • lemonclaw gateway
  • lemonclaw status
  • lemonclaw doctor
  • lemonclaw channels login
  • lemonclaw channels status

模型選擇

針對每個對話切換模型或設置預設值:

/model claude-sonnet-4-6    # 切換到 Claude
/model gpt-4.1-mini         # 切換到 GPT-4.1 Mini (更便宜)
/model deepseek-chat         # 切換到 DeepSeek (預算友好)

MCP 伺服器

透過 MCP (Model Context Protocol) 連接外部工具:

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

配置好 MCP 伺服器後,您的 AI 助手可以直接從聊天介面讀取檔案、查詢資料庫並與外部服務互動。

託管 vs 自託管:哪種適合您

在以下情況使用自託管:

  • 數據在地化 (data locality) 很重要
  • 您希望直接控制運行環境和存儲
  • 您需要自定義 MCP 伺服器或本地工具
  • 您能自在地維運一個小型服務

在以下情況使用託管:

  • 您想要 Claw 的體驗但不想維護運行環境
  • 您的團隊重視速度勝過控制權
  • 您需要隔離的實例,但不需要底層運行環境的所有權

對於許多團隊來說,最好的第一步是使用託管的 Claw,如果工作流程變得核心,之後再遷移到自託管。

使用案例

個人知識助手

透過 MCP filesystem server 將 LemonClaw 連接到您的筆記目錄。詢問有關您自己文件的問題、獲取摘要、尋找筆記之間的聯繫。

團隊 DevOps 機器人

部署在您團隊的 Slack 或 Discord 中。連接到您的 Kubernetes 叢集、監控儀表板和 CI/CD 流水線。團隊成員可以透過自然語言檢查部署狀態、查看日誌並觸發回滾 (rollbacks)。

客戶支援自動化

連接到您的產品資料庫和知識庫。LemonClaw 處理第一線支援查詢,並在信心度低時轉接給人工。

代碼審查助手

連接到您的 Git 儲存庫。發送 diff 進行審查,獲取安全分析、風格建議和錯誤檢測,無需離開聊天應用程式。

成本比較

方案 每月成本 模型 數據隱私
ChatGPT Plus $20/用戶 GPT-4o, 受限 數據存放在 OpenAI 伺服器
Claude Pro $20/用戶 僅限 Claude 數據存放在 Anthropic 伺服器
LemonClaw (自託管) 僅 API 使用費 任何模型 數據存放在您的伺服器
LemonClaw (LemonData 託管) $20/實例 + API 任何模型 隔離的 K8s pod

對於一個 5 人的團隊,ChatGPT Plus 每月花費 100 美元且模型訪問受限。使用共享 API 額度的 LemonClaw 每月總計可能只需 30-50 美元,且能訪問所有模型並擁有完整的數據控制權。

硬體需求

  • 最低配置:任何安裝了 Node.js 18+ 且具備 512MB RAM 的機器
  • 推薦配置:1 CPU 核心, 1GB RAM, 10GB 存儲
  • 對於本地模型 (Ollama):根據模型增加 GPU/Apple Silicon 需求

LemonClaw 本身非常輕量。AI 推論發生在 API 提供商的伺服器上(或您的本地 Ollama 實例)。

這個區別很重要。您不需要 GPU 即可自託管 LemonClaw。只有當您也想自託管 AI 模型時,才需要 GPU。


嘗試 LemonClaw:使用任何 AI API 進行自託管,或在 LemonData 啟動託管實例。如果您想在選擇前比較成本,價格比較 是下一篇值得閱讀的文章。

Share: