Cài đặt

Ngôn ngữ

LemonClaw: Chạy AI Assistant của riêng bạn trên bất kỳ Server nào

L
LemonData
·8 tháng 4, 2026·131 lượt xem
LemonClaw: Chạy AI Assistant của riêng bạn trên bất kỳ Server nào

Các trợ lý AI đám mây rất tiện lợi cho đến khi chúng bộc lộ nhược điểm. Giới hạn tốc độ (Rate limits) trong giờ cao điểm. Dữ liệu rời khỏi mạng nội bộ của bạn. Các gói đăng ký hàng tháng tốn kém. Không có cách nào để tùy chỉnh hành vi ngoài những gì nhà cung cấp cho phép.

LemonClaw là một trợ lý AI tự lưu trữ (self-hosted) chạy trên phần cứng của chính bạn. Nó kết nối với Telegram, Discord hoặc bất kỳ nền tảng chat nào, sử dụng bất kỳ mô hình AI nào thông qua một API thống nhất và giữ toàn bộ dữ liệu hội thoại trên máy của bạn.

Nếu bạn đang cân nhắc có nên tự lưu trữ hay không, hãy đọc bài viết này cùng với hướng dẫn AI cục bộ trên Mac Studiohướng dẫn dành cho nhà phát triển tại Trung Quốc. Bài viết đầu tiên giải đáp câu hỏi về phần cứng. Bài viết thứ hai giải đáp câu hỏi về thanh toán và nhà cung cấp.

LemonClaw làm được những gì

Về cốt lõi, LemonClaw là một cổng kết nối (gateway) giữa các nền tảng chat và các mô hình AI. Bạn gửi tin nhắn trên Telegram, LemonClaw sẽ chuyển hướng nó đến mô hình AI bạn chọn và gửi phản hồi trở lại.

Nhưng nó còn đi xa hơn một bộ chuyển tiếp đơn thuần:

  • Hỗ trợ đa mô hình: Chuyển đổi giữa GPT-4.1, Claude, DeepSeek và các mô hình cục bộ ngay trong cuộc hội thoại
  • Bộ nhớ vĩnh viễn: Các cuộc hội thoại được lưu giữ qua các lần khởi động lại với cửa sổ ngữ cảnh (context windows) có thể cấu hình
  • Hỗ trợ MCP server: Kết nối với các công cụ bên ngoài (cơ sở dữ liệu, API, hệ thống tệp) thông qua Model Context Protocol
  • Hệ thống plugin: Thêm các lệnh tùy chỉnh, tác vụ theo lịch trình và tích hợp
  • Đa người dùng: Mỗi người dùng có lịch sử trò chuyện và tùy chọn mô hình riêng
  • Hiểu hình ảnh: Gửi ảnh và nhận phân tích từ AI (sử dụng các mô hình có khả năng vision)
  • Tin nhắn thoại: Xử lý chuyển giọng nói thành văn bản (speech-to-text) cho các đầu vào âm thanh

Kiến trúc

Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

LemonClaw chạy như một tiến trình Node.js duy nhất. Không yêu cầu cơ sở dữ liệu cho nhu cầu sử dụng cơ bản (hội thoại được lưu dưới dạng tệp JSON). Đối với việc triển khai sản xuất (production), nó hỗ trợ persistent volumes trên Kubernetes.

Bắt đầu nhanh (5 phút)

Tùy chọn 1: Cài đặt tự lưu trữ bằng một dòng lệnh (Khuyên dùng)

curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash

Trình cài đặt hiện tại ưu tiên sử dụng uv tool install nếu có sẵn, nếu không sẽ chuyển sang dùng venv độc lập và chạy lemonclaw init khi kết thúc.

Tùy chọn 2: Cài đặt thủ công

uv tool install --upgrade lemonclaw
lemonclaw init

Tùy chọn 3: Lưu trữ trên LemonData

Nếu bạn không muốn quản lý hạ tầng, LemonData cung cấp các phiên bản (instance) LemonClaw được lưu trữ sẵn. Mỗi instance chạy trong một pod Kubernetes độc lập với bộ nhớ lưu trữ vĩnh viễn.

Đăng ký tại lemondata.cc, đi tới phần Claw trong bảng điều khiển của bạn và khởi chạy một instance. Bạn sẽ nhận được một subdomain riêng (claw-yourname.lemondata.cc) với quyền truy cập web terminal.

Quy trình tự lưu trữ hiện tại

Quy trình chạy cục bộ hiện tại là:

lemonclaw init
lemonclaw gateway
lemonclaw status

Dữ liệu thực thi (runtime) nằm tại:

  • ~/.lemonclaw/config.json
  • ~/.lemonclaw/workspace/
  • ~/.lemonclaw/workspace/sessions/
  • ~/.lemonclaw/lemonclaw.log

Điều này rất quan trọng về mặt vận hành. Khi các nhóm nói rằng một trợ lý tự lưu trữ "chỉ là một con bot", họ thường chưa nghĩ kỹ về nơi lưu trữ trạng thái phiên làm việc (session state), nhật ký (logs) và thông tin xác thực (credentials).

Cấu hình

Tệp cấu hình (~/.lemonclaw/config.json) kiểm soát mọi thứ:

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

Các lệnh phổ biến đáng chú ý hiện nay:

  • lemonclaw init
  • lemonclaw gateway
  • lemonclaw status
  • lemonclaw doctor
  • lemonclaw channels login
  • lemonclaw channels status

Lựa chọn mô hình

Chuyển đổi mô hình theo từng cuộc hội thoại hoặc thiết lập mặc định:

/model claude-sonnet-4-6    # Chuyển sang Claude
/model gpt-4.1-mini         # Chuyển sang GPT-4.1 Mini (rẻ hơn)
/model deepseek-chat         # Chuyển sang DeepSeek (tiết kiệm)

MCP Servers

Kết nối các công cụ bên ngoài thông qua MCP (Model Context Protocol):

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

Với các MCP server được cấu hình, trợ lý AI của bạn có thể đọc tệp, truy vấn cơ sở dữ liệu và tương tác trực tiếp với các dịch vụ bên ngoài ngay từ giao diện chat.

Hosted vs Self-Hosted: Lựa chọn nào phù hợp?

Sử dụng self-hosted khi:

  • vấn đề lưu trữ dữ liệu tại chỗ (data locality) là quan trọng
  • bạn muốn kiểm soát trực tiếp runtime và lưu trữ
  • bạn cần các MCP server tùy chỉnh hoặc các công cụ cục bộ
  • bạn thoải mái với việc vận hành một dịch vụ nhỏ

Sử dụng hosted khi:

  • bạn muốn trải nghiệm Claw mà không cần duy trì runtime
  • nhóm của bạn coi trọng tốc độ hơn là sự kiểm soát
  • bạn cần các instance độc lập nhưng không cần sở hữu runtime ở mức độ thấp

Đối với nhiều nhóm, bước đầu tiên tốt nhất là sử dụng Claw bản hosted và sau đó chuyển sang self-hosted nếu quy trình làm việc trở nên thiết yếu.

Các trường hợp sử dụng

Trợ lý kiến thức cá nhân

Kết nối LemonClaw với thư mục ghi chú của bạn thông qua MCP filesystem server. Đặt câu hỏi về các tài liệu của chính bạn, nhận tóm tắt, tìm mối liên hệ giữa các ghi chú.

Bot DevOps cho nhóm

Triển khai trong Slack hoặc Discord của nhóm bạn. Kết nối với cụm Kubernetes, bảng điều khiển giám sát và đường ống CI/CD. Các thành viên trong nhóm có thể kiểm tra trạng thái triển khai, xem nhật ký và kích hoạt hoàn tác (rollback) thông qua ngôn ngữ tự nhiên.

Tự động hóa hỗ trợ khách hàng

Kết nối với cơ sở dữ liệu sản phẩm và kho kiến thức của bạn. LemonClaw xử lý các truy vấn hỗ trợ cấp một, và chuyển cho con người khi mức độ tin cậy thấp.

Trợ lý đánh giá mã nguồn (Code Review)

Kết nối với kho lưu trữ Git của bạn. Gửi các bản so sánh (diff) để đánh giá, nhận phân tích bảo mật, gợi ý phong cách viết code và phát hiện lỗi mà không cần rời khỏi ứng dụng chat.

So sánh chi phí

Thiết lập Chi phí hàng tháng Mô hình Quyền riêng tư dữ liệu
ChatGPT Plus $20/người dùng GPT-4o, hạn chế Dữ liệu trên máy chủ OpenAI
Claude Pro $20/người dùng Chỉ Claude Dữ liệu trên máy chủ Anthropic
LemonClaw (self-hosted) Chỉ trả theo mức sử dụng API Bất kỳ mô hình nào Dữ liệu trên máy chủ của bạn
LemonClaw (LemonData hosted) $20/instance + API Bất kỳ mô hình nào Pod K8s độc lập

Đối với một nhóm 5 người, ChatGPT Plus tốn $100/tháng với quyền truy cập mô hình hạn chế. LemonClaw với hạn mức API dùng chung có thể chỉ tốn tổng cộng $30-50/tháng, với quyền truy cập vào mọi mô hình và toàn quyền kiểm soát dữ liệu.

Yêu cầu phần cứng

  • Tối thiểu: Bất kỳ máy nào có Node.js 18+ và 512MB RAM
  • Khuyên dùng: 1 CPU core, 1GB RAM, 10GB lưu trữ
  • Đối với các mô hình cục bộ (Ollama): Thêm yêu cầu về GPU/Apple Silicon tùy theo từng mô hình

Bản thân LemonClaw rất nhẹ. Việc suy luận AI (inference) diễn ra trên máy chủ của nhà cung cấp API (hoặc instance Ollama cục bộ của bạn).

Sự phân biệt này rất quan trọng. Bạn không cần GPU để tự lưu trữ LemonClaw. Bạn chỉ cần GPU nếu bạn cũng muốn tự lưu trữ các mô hình AI.


Hãy dùng thử LemonClaw: tự lưu trữ với bất kỳ AI API nào, hoặc khởi chạy một phiên bản hosted tại LemonData. Nếu bạn muốn so sánh chi phí trước khi lựa chọn, trang so sánh giá cả là nội dung tiếp theo bạn nên đọc.

Share: