雲端 AI 助手在出問題之前都很方便。尖峰時段的 Rate limits、數據離開您的網路、不斷累積的每月訂閱費用,以及除了提供商允許的範圍外,無法自定義行為。
LemonClaw 是一個運行在您自己硬體上的自託管 AI 助手。它能連接到 Telegram、Discord 或任何聊天平台,透過統一的 API 使用任何 AI 模型,並將所有對話數據保留在您的機器上。
如果您正在決定是否要進行自託管,請同時閱讀 Mac Studio 本地 AI 指南 和 中國開發者指南。前者解答了硬體問題,後者解答了支付和提供商的問題。
LemonClaw 的功能
從核心來看,LemonClaw 是聊天平台與 AI 模型之間的網關。您在 Telegram 上發送訊息,LemonClaw 會將其路由到您選擇的 AI 模型,並將回覆傳回。
但它的功能遠不止於簡單的中繼:
- 多模型支援:在對話中途切換 GPT-4.1、Claude、DeepSeek 和本地模型
- 持久化記憶:對話在重啟後依然存在,並具有可配置的 context windows
- MCP 伺服器支援:透過 Model Context Protocol 連接到外部工具(資料庫、API、檔案系統)
- 插件系統:添加自定義指令、排程任務和整合功能
- 多用戶:每個用戶都有自己的對話歷史和模型偏好
- 圖像理解:發送照片並獲取 AI 分析(使用具備 vision 能力的模型)
- 語音訊息:語音輸入的語音轉文字 (Speech-to-text) 處理
架構
Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Memory │
└─────────┘
LemonClaw 作為單個 Node.js 程序運行。基本使用不需要資料庫(對話存儲為 JSON 檔案)。對於生產環境部署,它支援 Kubernetes 上的持久化磁碟卷 (persistent volumes)。
快速開始(5 分鐘)
選項 1:單行自託管安裝(推薦)
curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash
目前的安裝程式會優先使用 uv tool install(如果可用),否則會回退到獨立的 venv 並在最後運行 lemonclaw init。
選項 2:手動安裝
uv tool install --upgrade lemonclaw
lemonclaw init
選項 3:LemonData 託管
如果您不想管理基礎設施,LemonData 提供託管的 LemonClaw 實例。每個實例都運行在具有持久化存儲的隔離 Kubernetes pod 中。
在 lemondata.cc 註冊,導航到儀表板中的 Claw 區塊,然後啟動一個實例。您將獲得一個專屬子域名 (claw-yourname.lemondata.cc) 並可以使用網頁終端訪問。
目前的自託管流程
目前的本地流程為:
lemonclaw init
lemonclaw gateway
lemonclaw status
運行時數據存放在:
~/.lemonclaw/config.json~/.lemonclaw/workspace/~/.lemonclaw/workspace/sessions/~/.lemonclaw/lemonclaw.log
這在運維上很重要。當團隊說自託管助手「只是一個機器人」時,他們通常沒有考慮到 session state、logs 和 credentials 實際存放的位置。
配置
配置文件 (~/.lemonclaw/config.json) 控制一切:
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
現在值得了解的常用指令:
lemonclaw initlemonclaw gatewaylemonclaw statuslemonclaw doctorlemonclaw channels loginlemonclaw channels status
模型選擇
針對每個對話切換模型或設置預設值:
/model claude-sonnet-4-6 # 切換到 Claude
/model gpt-4.1-mini # 切換到 GPT-4.1 Mini (更便宜)
/model deepseek-chat # 切換到 DeepSeek (預算友好)
MCP 伺服器
透過 MCP (Model Context Protocol) 連接外部工具:
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
配置好 MCP 伺服器後,您的 AI 助手可以直接從聊天介面讀取檔案、查詢資料庫並與外部服務互動。
託管 vs 自託管:哪種適合您
在以下情況使用自託管:
- 數據在地化 (data locality) 很重要
- 您希望直接控制運行環境和存儲
- 您需要自定義 MCP 伺服器或本地工具
- 您能自在地維運一個小型服務
在以下情況使用託管:
- 您想要 Claw 的體驗但不想維護運行環境
- 您的團隊重視速度勝過控制權
- 您需要隔離的實例,但不需要底層運行環境的所有權
對於許多團隊來說,最好的第一步是使用託管的 Claw,如果工作流程變得核心,之後再遷移到自託管。
使用案例
個人知識助手
透過 MCP filesystem server 將 LemonClaw 連接到您的筆記目錄。詢問有關您自己文件的問題、獲取摘要、尋找筆記之間的聯繫。
團隊 DevOps 機器人
部署在您團隊的 Slack 或 Discord 中。連接到您的 Kubernetes 叢集、監控儀表板和 CI/CD 流水線。團隊成員可以透過自然語言檢查部署狀態、查看日誌並觸發回滾 (rollbacks)。
客戶支援自動化
連接到您的產品資料庫和知識庫。LemonClaw 處理第一線支援查詢,並在信心度低時轉接給人工。
代碼審查助手
連接到您的 Git 儲存庫。發送 diff 進行審查,獲取安全分析、風格建議和錯誤檢測,無需離開聊天應用程式。
成本比較
| 方案 | 每月成本 | 模型 | 數據隱私 |
|---|---|---|---|
| ChatGPT Plus | $20/用戶 | GPT-4o, 受限 | 數據存放在 OpenAI 伺服器 |
| Claude Pro | $20/用戶 | 僅限 Claude | 數據存放在 Anthropic 伺服器 |
| LemonClaw (自託管) | 僅 API 使用費 | 任何模型 | 數據存放在您的伺服器 |
| LemonClaw (LemonData 託管) | $20/實例 + API | 任何模型 | 隔離的 K8s pod |
對於一個 5 人的團隊,ChatGPT Plus 每月花費 100 美元且模型訪問受限。使用共享 API 額度的 LemonClaw 每月總計可能只需 30-50 美元,且能訪問所有模型並擁有完整的數據控制權。
硬體需求
- 最低配置:任何安裝了 Node.js 18+ 且具備 512MB RAM 的機器
- 推薦配置:1 CPU 核心, 1GB RAM, 10GB 存儲
- 對於本地模型 (Ollama):根據模型增加 GPU/Apple Silicon 需求
LemonClaw 本身非常輕量。AI 推論發生在 API 提供商的伺服器上(或您的本地 Ollama 實例)。
這個區別很重要。您不需要 GPU 即可自託管 LemonClaw。只有當您也想自託管 AI 模型時,才需要 GPU。
嘗試 LemonClaw:使用任何 AI API 進行自託管,或在 LemonData 啟動託管實例。如果您想在選擇前比較成本,價格比較 是下一篇值得閱讀的文章。