OpenClaw:在任何伺服器上運行您自己的 AI 助手
雲端 AI 助手在出問題之前都很方便。尖峰時段的速率限制(Rate limits)、數據離開您的網路、不斷累積的月費,以及除了供應商允許之外無法自定義行為,這些都是痛點。
OpenClaw 是一個運行在您自己硬體上的自託管 AI 助手。它能連接到 Telegram、Discord 或任何聊天平台,透過統一的 API 使用任何 AI 模型,並將所有對話數據保留在您的機器上。
OpenClaw 的功能
OpenClaw 的核心是聊天平台與 AI 模型之間的網關。您在 Telegram 上發送訊息,OpenClaw 將其路由到您選擇的 AI 模型,並將回覆傳回。
但它不僅僅是一個簡單的轉發器:
- 多模型支援:在對話中途切換 GPT-4.1、Claude、DeepSeek 和本地模型
- 持久化記憶:對話在重啟後依然存在,並具有可配置的上下文視窗(context windows)
- MCP 伺服器支援:透過 Model Context Protocol 連接到外部工具(資料庫、API、檔案系統)
- 插件系統:添加自定義指令、定時任務和整合功能
- 多用戶:每個用戶都有自己的對話歷史和模型偏好
- 圖像理解:發送照片並獲取 AI 分析(使用具備視覺能力的模型)
- 語音訊息:針對語音輸入進行語音轉文字處理
架構
Telegram/Discord ←→ OpenClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Memory │
└─────────┘
OpenClaw 以單個 Node.js 程序運行。基本使用不需要資料庫(對話存儲為 JSON 檔案)。對於生產環境部署,它支援 Kubernetes 上的持久化磁碟卷(persistent volumes)。
快速開始(5 分鐘)
選項 1:Docker(推薦)
# Create config directory
mkdir -p ~/.openclaw
# Create minimal config
cat > ~/.openclaw/openclaw.json << 'EOF'
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "YOUR_TELEGRAM_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6"
}
}
}
EOF
# Run
docker run -d \
--name openclaw \
-v ~/.openclaw:/root/.openclaw \
ghcr.io/hedging8563/lemondata-openclaw:latest
選項 2:直接安裝
# Clone and install
git clone https://github.com/hedging8563/openclaw.git
cd openclaw
npm install
# Configure (edit ~/.openclaw/openclaw.json)
# Run
node src/index.js
選項 3:LemonData 託管
如果您不想管理基礎設施,LemonData 提供託管的 OpenClaw 實例。每個實例都運行在帶有持久化存儲的隔離 Kubernetes pod 中。
在 lemondata.cc 註冊,導航到儀表板中的 Claw 區塊,然後啟動一個實例。您將獲得一個專用子域名(claw-yourname.lemondata.cc)並可以使用網頁終端機存取。
配置
設定檔(~/.openclaw/openclaw.json)控制一切:
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
模型選擇
針對每個對話切換模型或設置預設值:
/model claude-sonnet-4-6 # 切換到 Claude
/model gpt-4.1-mini # 切換到 GPT-4.1 Mini (更便宜)
/model deepseek-chat # 切換到 DeepSeek (預算友善)
MCP 伺服器
透過 MCP (Model Context Protocol) 連接外部工具:
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
配置 MCP 伺服器後,您的 AI 助手可以直接從聊天介面讀取檔案、查詢資料庫並與外部服務互動。
使用案例
個人知識助手
透過 MCP 檔案系統伺服器將 OpenClaw 連接到您的筆記目錄。詢問關於您自己文件的問題、獲取摘要,並尋找筆記之間的聯繫。
團隊 DevOps 機器人
部署在團隊的 Slack 或 Discord 中。連接到您的 Kubernetes 集群、監控儀表板和 CI/CD 流水線。團隊成員可以透過自然語言檢查部署狀態、查看日誌並觸發回滾。
客戶服務自動化
連接到您的產品資料庫和知識庫。OpenClaw 處理第一線支援查詢,並在信心度低時轉交給人工處理。
代碼審查助手
連接到您的 Git 儲存庫。無需離開聊天應用程式即可發送 diff 進行審查,獲取安全性分析、風格建議和錯誤檢測。
成本比較
| 方案 | 每月成本 | 模型 | 數據隱私 |
|---|---|---|---|
| ChatGPT Plus | $20/用戶 | GPT-4o, 受限 | 數據存儲在 OpenAI 伺服器 |
| Claude Pro | $20/用戶 | 僅限 Claude | 數據存儲在 Anthropic 伺服器 |
| OpenClaw (自託管) | 僅 API 使用費 | 任何模型 | 數據保留在您的伺服器 |
| OpenClaw (LemonData 託管) | $20/實例 + API | 任何模型 | 隔離的 K8s pod |
對於一個 5 人的團隊,ChatGPT Plus 每月花費 100 美元且模型存取受限。使用 OpenClaw 共享 API 額度,總成本可能僅為每月 30-50 美元,且能存取每個模型並完全控制數據。
硬體要求
- 最低配置:任何安裝了 Node.js 18+ 且具備 512MB RAM 的機器
- 推薦配置:1 CPU 核心, 1GB RAM, 10GB 存儲空間
- 對於本地模型 (Ollama):根據模型需求增加 GPU/Apple Silicon 要求
OpenClaw 本身非常輕量。AI 推論發生在 API 供應商的伺服器上(或您的本地 Ollama 實例)。
嘗試 OpenClaw:使用任何 AI API 進行自託管,或在 lemondata.cc 啟動託管實例。註冊即送 $1 免費 API 額度。
