Pengaturan

Bahasa

OpenClaw: Jalankan Asisten AI Anda Sendiri di Server Mana Saja

L
LemonData
·26 Februari 2026·11 tampilan
#OpenClaw#hosting mandiri#asisten ai#Telegram#Discord
OpenClaw: Jalankan Asisten AI Anda Sendiri di Server Mana Saja

OpenClaw:在任意服务器上运行您自己的 AI 助手

云端 AI 助手虽然方便,但有时也会带来不便。高峰时段的速率限制。数据离开您的网络。累积的月度订阅费用。无法超出提供商允许范围自定义行为。

OpenClaw 是一个自托管的 AI 助手,运行在您自己的硬件上。它可以连接 Telegram、Discord 或任何聊天平台,通过统一的 API 使用任意 AI 模型,并将所有对话数据保存在您的设备上。

OpenClaw 的功能

OpenClaw 的核心是聊天平台与 AI 模型之间的网关。您在 Telegram 发送消息,OpenClaw 将其路由到您选择的 AI 模型,并将回复发送回去。

但它不仅仅是一个简单的中继:

  • 多模型支持:可在对话中途切换 GPT-4.1、Claude、DeepSeek 及本地模型
  • 持久记忆:对话可跨重启保存,支持可配置的上下文窗口
  • MCP 服务器支持:通过模型上下文协议连接外部工具(数据库、API、文件系统)
  • 插件系统:添加自定义命令、定时任务和集成
  • 多用户支持:每个用户拥有独立的对话历史和模型偏好
  • 图像理解:发送照片并获得 AI 分析(使用具备视觉能力的模型)
  • 语音消息:语音输入的语音转文本处理

架构

Telegram/Discord ←→ OpenClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

OpenClaw 作为单个 Node.js 进程运行。基础使用无需数据库(对话以 JSON 文件存储)。生产环境部署支持 Kubernetes 上的持久卷。

快速开始(5 分钟)

选项 1:Docker(推荐)

# 创建配置目录
mkdir -p ~/.openclaw

# 创建最小配置
cat > ~/.openclaw/openclaw.json << 'EOF'
{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "YOUR_TELEGRAM_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6"
    }
  }
}
EOF

# 运行
docker run -d \
  --name openclaw \
  -v ~/.openclaw:/root/.openclaw \
  ghcr.io/hedging8563/lemondata-openclaw:latest

选项 2:直接安装

# 克隆并安装
git clone https://github.com/hedging8563/openclaw.git
cd openclaw
npm install

# 配置(编辑 ~/.openclaw/openclaw.json)
# 运行
node src/index.js

选项 3:LemonData 托管

如果您不想管理基础设施,LemonData 提供托管的 OpenClaw 实例。每个实例运行在隔离的 Kubernetes Pod 中,配备持久存储。

注册访问 lemondata.cc,在仪表盘中进入 Claw 部分,启动实例。您将获得专属子域名(claw-yourname.lemondata.cc)并可使用网页终端访问。

配置

配置文件(~/.openclaw/openclaw.json)控制所有设置:

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

模型选择

可在每次对话中切换模型或设置默认模型:

/model claude-sonnet-4-6    # 切换到 Claude
/model gpt-4.1-mini         # 切换到 GPT-4.1 Mini(更经济)
/model deepseek-chat         # 切换到 DeepSeek(预算型)

MCP 服务器

通过 MCP(模型上下文协议)连接外部工具:

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

配置 MCP 服务器后,您的 AI 助手可以直接从聊天界面读取文件、查询数据库并与外部服务交互。

使用场景

个人知识助手

通过 MCP 文件系统服务器连接 OpenClaw 到您的笔记目录。提问关于您文档的问题,获取摘要,发现笔记间的关联。

团队运维机器人

部署在团队的 Slack 或 Discord 中。连接 Kubernetes 集群、监控仪表盘和 CI/CD 流水线。团队成员可通过自然语言查询部署状态、查看日志和触发回滚。

客户支持自动化

连接产品数据库和知识库。OpenClaw 处理一线支持查询,信心不足时升级给人工客服。

代码审查助手

连接 Git 仓库。发送差异进行审查,获得安全分析、风格建议和缺陷检测,无需离开聊天应用。

费用对比

方案 月度费用 模型 数据隐私
ChatGPT Plus $20/用户 GPT-4o,有限 数据存储在 OpenAI 服务器
Claude Pro $20/用户 仅 Claude 数据存储在 Anthropic 服务器
OpenClaw(自托管) 仅 API 使用费 任意模型 数据存储在您的服务器
OpenClaw(LemonData 托管) $20/实例 + API 费用 任意模型 隔离的 Kubernetes Pod

对于 5 人团队,ChatGPT Plus 费用为 $100/月,模型访问受限。使用共享 API 额度的 OpenClaw 总费用可能为 $30-50/月,支持所有模型且完全控制数据。

硬件要求

  • 最低要求:任意安装 Node.js 18+ 且拥有 512MB 内存的机器
  • 推荐配置:1 个 CPU 核心,1GB 内存,10GB 存储空间
  • 本地模型(Ollama)需根据模型需求增加 GPU 或 Apple Silicon 支持

OpenClaw 本身资源占用轻量。AI 推理在 API 提供商服务器(或您的本地 Ollama 实例)上进行。


体验 OpenClaw:自托管任意 AI API,或在 lemondata.cc 启动托管实例。注册即送 $1 免费 API 额度。

Share: