設定

語言

OpenClaw:在任何 Server 上運行您專屬的 AI Assistant

L
LemonData
·2026年2月26日·7 次瀏覽
#OpenClaw#自託管#AI 助手#Telegram#Discord
OpenClaw:在任何 Server 上運行您專屬的 AI Assistant

OpenClaw:在任何伺服器上運行您自己的 AI 助手

雲端 AI 助手在出問題之前都很方便。尖峰時段的速率限制(Rate limits)、數據離開您的網路、不斷累積的月費,以及除了供應商允許之外無法自定義行為,這些都是痛點。

OpenClaw 是一個運行在您自己硬體上的自託管 AI 助手。它能連接到 Telegram、Discord 或任何聊天平台,透過統一的 API 使用任何 AI 模型,並將所有對話數據保留在您的機器上。

OpenClaw 的功能

OpenClaw 的核心是聊天平台與 AI 模型之間的網關。您在 Telegram 上發送訊息,OpenClaw 將其路由到您選擇的 AI 模型,並將回覆傳回。

但它不僅僅是一個簡單的轉發器:

  • 多模型支援:在對話中途切換 GPT-4.1、Claude、DeepSeek 和本地模型
  • 持久化記憶:對話在重啟後依然存在,並具有可配置的上下文視窗(context windows)
  • MCP 伺服器支援:透過 Model Context Protocol 連接到外部工具(資料庫、API、檔案系統)
  • 插件系統:添加自定義指令、定時任務和整合功能
  • 多用戶:每個用戶都有自己的對話歷史和模型偏好
  • 圖像理解:發送照片並獲取 AI 分析(使用具備視覺能力的模型)
  • 語音訊息:針對語音輸入進行語音轉文字處理

架構

Telegram/Discord ←→ OpenClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

OpenClaw 以單個 Node.js 程序運行。基本使用不需要資料庫(對話存儲為 JSON 檔案)。對於生產環境部署,它支援 Kubernetes 上的持久化磁碟卷(persistent volumes)。

快速開始(5 分鐘)

選項 1:Docker(推薦)

# Create config directory
mkdir -p ~/.openclaw

# Create minimal config
cat > ~/.openclaw/openclaw.json << 'EOF'
{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "YOUR_TELEGRAM_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6"
    }
  }
}
EOF

# Run
docker run -d \
  --name openclaw \
  -v ~/.openclaw:/root/.openclaw \
  ghcr.io/hedging8563/lemondata-openclaw:latest

選項 2:直接安裝

# Clone and install
git clone https://github.com/hedging8563/openclaw.git
cd openclaw
npm install

# Configure (edit ~/.openclaw/openclaw.json)
# Run
node src/index.js

選項 3:LemonData 託管

如果您不想管理基礎設施,LemonData 提供託管的 OpenClaw 實例。每個實例都運行在帶有持久化存儲的隔離 Kubernetes pod 中。

lemondata.cc 註冊,導航到儀表板中的 Claw 區塊,然後啟動一個實例。您將獲得一個專用子域名(claw-yourname.lemondata.cc)並可以使用網頁終端機存取。

配置

設定檔(~/.openclaw/openclaw.json)控制一切:

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

模型選擇

針對每個對話切換模型或設置預設值:

/model claude-sonnet-4-6    # 切換到 Claude
/model gpt-4.1-mini         # 切換到 GPT-4.1 Mini (更便宜)
/model deepseek-chat         # 切換到 DeepSeek (預算友善)

MCP 伺服器

透過 MCP (Model Context Protocol) 連接外部工具:

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

配置 MCP 伺服器後,您的 AI 助手可以直接從聊天介面讀取檔案、查詢資料庫並與外部服務互動。

使用案例

個人知識助手

透過 MCP 檔案系統伺服器將 OpenClaw 連接到您的筆記目錄。詢問關於您自己文件的問題、獲取摘要,並尋找筆記之間的聯繫。

團隊 DevOps 機器人

部署在團隊的 Slack 或 Discord 中。連接到您的 Kubernetes 集群、監控儀表板和 CI/CD 流水線。團隊成員可以透過自然語言檢查部署狀態、查看日誌並觸發回滾。

客戶服務自動化

連接到您的產品資料庫和知識庫。OpenClaw 處理第一線支援查詢,並在信心度低時轉交給人工處理。

代碼審查助手

連接到您的 Git 儲存庫。無需離開聊天應用程式即可發送 diff 進行審查,獲取安全性分析、風格建議和錯誤檢測。

成本比較

方案 每月成本 模型 數據隱私
ChatGPT Plus $20/用戶 GPT-4o, 受限 數據存儲在 OpenAI 伺服器
Claude Pro $20/用戶 僅限 Claude 數據存儲在 Anthropic 伺服器
OpenClaw (自託管) 僅 API 使用費 任何模型 數據保留在您的伺服器
OpenClaw (LemonData 託管) $20/實例 + API 任何模型 隔離的 K8s pod

對於一個 5 人的團隊,ChatGPT Plus 每月花費 100 美元且模型存取受限。使用 OpenClaw 共享 API 額度,總成本可能僅為每月 30-50 美元,且能存取每個模型並完全控制數據。

硬體要求

  • 最低配置:任何安裝了 Node.js 18+ 且具備 512MB RAM 的機器
  • 推薦配置:1 CPU 核心, 1GB RAM, 10GB 存儲空間
  • 對於本地模型 (Ollama):根據模型需求增加 GPU/Apple Silicon 要求

OpenClaw 本身非常輕量。AI 推論發生在 API 供應商的伺服器上(或您的本地 Ollama 實例)。


嘗試 OpenClaw:使用任何 AI API 進行自託管,或在 lemondata.cc 啟動託管實例。註冊即送 $1 免費 API 額度。

Share: