설정

언어

LemonClaw: 어떤 서버에서든 나만의 AI Assistant를 실행하세요

L
LemonData
·2026년 4월 8일·133 조회수
LemonClaw: 어떤 서버에서든 나만의 AI Assistant를 실행하세요

클라우드 AI 어시스턴트는 편리하지만, 어느 순간 한계에 부딪히게 됩니다. 피크 시간대의 Rate limits, 네트워크 외부로 유출되는 데이터, 매달 쌓이는 구독료, 그리고 서비스 제공업체가 허용하는 범위 내에서만 동작을 커스터마이징할 수 있다는 점 등이 그렇습니다.

LemonClaw는 사용자의 하드웨어에서 직접 실행되는 자체 호스팅(self-hosted) AI 어시스턴트입니다. Telegram, Discord 또는 모든 채팅 플랫폼에 연결할 수 있으며, 통합 API를 통해 모든 AI 모델을 사용하고 모든 대화 데이터를 사용자의 머신에 보관합니다.

자체 호스팅 여부를 고민 중이라면, 이 글과 함께 Mac Studio 로컬 AI 가이드중국 개발자 가이드를 읽어보세요. 첫 번째 글은 하드웨어에 대한 해답을, 두 번째 글은 결제 및 제공업체에 대한 해답을 제시합니다.

LemonClaw의 기능

LemonClaw의 핵심은 채팅 플랫폼과 AI 모델 사이의 게이트웨이 역할을 하는 것입니다. 사용자가 Telegram에서 메시지를 보내면 LemonClaw가 이를 선택한 AI 모델로 라우팅하고 응답을 다시 보냅니다.

하지만 단순한 중계 이상의 기능을 제공합니다:

  • 다중 모델 지원: 대화 도중에 GPT-4.1, Claude, DeepSeek 및 로컬 모델 간 전환 가능
  • 영구 메모리: 설정 가능한 컨텍스트 윈도우(context windows)를 통해 재시작 후에도 대화 내용 유지
  • MCP 서버 지원: Model Context Protocol을 통해 외부 도구(데이터베이스, API, 파일 시스템)에 연결
  • 플러그인 시스템: 커스텀 명령어, 예약된 작업 및 통합 기능 추가
  • 다중 사용자: 각 사용자별로 고유한 대화 기록 및 모델 기본 설정 제공
  • 이미지 이해: 사진을 전송하고 AI 분석 결과 수신 (Vision 기능이 있는 모델 사용 시)
  • 음성 메시지: 음성 입력을 위한 Speech-to-text 처리

아키텍처

Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
                         │
                    ┌────┴────┐
                    │  Plugins │
                    │  MCP     │
                    │  Memory  │
                    └─────────┘

LemonClaw는 단일 Node.js 프로세스로 실행됩니다. 기본 사용 시에는 데이터베이스가 필요하지 않습니다(대화는 JSON 파일로 저장됨). 프로덕션 배포를 위해 Kubernetes의 영구 볼륨(persistent volumes)을 지원합니다.

빠른 시작 (5분 소요)

옵션 1: 한 줄 자체 호스팅 설치 (권장)

curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash

현재 설치 프로그램은 사용 가능한 경우 uv tool install을 선호하며, 그렇지 않으면 격리된 venv로 대체하고 마지막에 lemonclaw init을 실행합니다.

옵션 2: 수동 설치

uv tool install --upgrade lemonclaw
lemonclaw init

옵션 3: LemonData 호스팅

인프라 관리를 원하지 않는 경우, LemonData는 호스팅된 LemonClaw 인스턴스를 제공합니다. 각 인스턴스는 영구 스토리지가 있는 격리된 Kubernetes pod에서 실행됩니다.

lemondata.cc에서 가입하고 대시보드의 Claw 섹션으로 이동하여 인스턴스를 시작하세요. 웹 터미널 액세스가 가능한 전용 서브도메인(claw-yourname.lemondata.cc)이 제공됩니다.

현재 자체 호스팅 워크플로우

현재 로컬 워크플로우는 다음과 같습니다:

lemonclaw init
lemonclaw gateway
lemonclaw status

런타임 데이터는 다음 위치에 저장됩니다:

  • ~/.lemonclaw/config.json
  • ~/.lemonclaw/workspace/
  • ~/.lemonclaw/workspace/sessions/
  • ~/.lemonclaw/lemonclaw.log

이는 운영 측면에서 중요합니다. 팀들이 자체 호스팅 어시스턴트가 "단순한 봇"이라고 말할 때, 대개 세션 상태, 로그, 자격 증명(credentials)이 실제로 어디에 저장되는지 충분히 고려하지 않는 경우가 많습니다.

설정

설정 파일(~/.lemonclaw/config.json)이 모든 것을 제어합니다:

{
  "api": {
    "key": "sk-lemon-xxx",
    "baseUrl": "https://api.lemondata.cc/v1"
  },
  "telegram": {
    "token": "BOT_TOKEN_FROM_BOTFATHER"
  },
  "discord": {
    "token": "DISCORD_BOT_TOKEN"
  },
  "agents": {
    "defaults": {
      "model": "claude-sonnet-4-6",
      "compaction": { "mode": "default" }
    }
  }
}

알아두면 유용한 일반 명령어들:

  • lemonclaw init
  • lemonclaw gateway
  • lemonclaw status
  • lemonclaw doctor
  • lemonclaw channels login
  • lemonclaw channels status

모델 선택

대화별로 모델을 전환하거나 기본값을 설정할 수 있습니다:

/model claude-sonnet-4-6    # Claude로 전환
/model gpt-4.1-mini         # GPT-4.1 Mini로 전환 (저렴함)
/model deepseek-chat         # DeepSeek로 전환 (경제적)

MCP 서버

MCP(Model Context Protocol)를 통해 외부 도구를 연결하세요:

{
  "mcp": {
    "servers": {
      "filesystem": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
      },
      "postgres": {
        "command": "npx",
        "args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
      }
    }
  }
}

MCP 서버가 구성되면 AI 어시스턴트는 채팅 인터페이스에서 직접 파일을 읽고, 데이터베이스를 쿼리하며, 외부 서비스와 상호 작용할 수 있습니다.

호스팅 vs 자체 호스팅: 나에게 맞는 선택은?

다음과 같은 경우 자체 호스팅을 사용하세요:

  • 데이터 로컬리티(data locality)가 중요한 경우
  • 런타임 및 스토리지에 대한 직접적인 제어를 원하는 경우
  • 커스텀 MCP 서버 또는 로컬 도구가 필요한 경우
  • 소규모 서비스 운영에 익숙한 경우

다음과 같은 경우 호스팅을 사용하세요:

  • 런타임 유지 관리 없이 Claw의 경험을 원하는 경우
  • 팀이 제어권보다 속도를 중요하게 생각하는 경우
  • 격리된 인스턴스가 필요하지만 로우 레벨의 런타임 소유권은 필요하지 않은 경우

많은 팀에게 가장 좋은 첫 단계는 호스팅된 Claw를 사용해보고, 워크플로우가 핵심이 되면 나중에 자체 호스팅으로 전환하는 것입니다.

사용 사례

개인 지식 어시스턴트

MCP 파일 시스템 서버를 통해 LemonClaw를 노트 디렉토리에 연결하세요. 자신의 문서에 대해 질문하고, 요약을 받고, 노트 간의 연결 고리를 찾을 수 있습니다.

팀 DevOps 봇

팀의 Slack 또는 Discord에 배포하세요. Kubernetes 클러스터, 모니터링 대시보드 및 CI/CD 파이프라인에 연결할 수 있습니다. 팀원들은 자연어를 통해 배포 상태를 확인하고, 로그를 보며, 롤백을 실행할 수 있습니다.

고객 지원 자동화

제품 데이터베이스 및 지식 베이스에 연결하세요. LemonClaw가 1차 지원 쿼리를 처리하고, 확신이 낮은 경우 사람에게 전달합니다.

코드 리뷰 어시스턴트

Git 저장소에 연결하세요. 채팅 앱을 떠나지 않고도 리뷰를 위한 diff를 보내고, 보안 분석, 스타일 제안 및 버그 탐지 결과를 받을 수 있습니다.

비용 비교

구성 월간 비용 모델 데이터 프라이버시
ChatGPT Plus 사용자당 $20 GPT-4o, 제한적 OpenAI 서버에 데이터 저장
Claude Pro 사용자당 $20 Claude 전용 Anthropic 서버에 데이터 저장
LemonClaw (자체 호스팅) API 사용료만 발생 모든 모델 사용자 서버에 데이터 저장
LemonClaw (LemonData 호스팅) 인스턴스당 $20 + API 모든 모델 격리된 K8s pod

5인 팀의 경우, ChatGPT Plus는 제한된 모델 액세스에 월 $100가 듭니다. 공유 API 크레딧을 사용하는 LemonClaw는 모든 모델에 대한 액세스와 완전한 데이터 제어권을 가지면서도 총 월 $30-50 정도면 충분할 수 있습니다.

하드웨어 요구 사항

  • 최소: Node.js 18 이상 및 512MB RAM이 있는 모든 머신
  • 권장: 1 CPU 코어, 1GB RAM, 10GB 스토리지
  • 로컬 모델(Ollama) 사용 시: 모델별 GPU/Apple Silicon 요구 사항 추가

LemonClaw 자체는 가볍습니다. AI 추론(inference)은 API 제공업체의 서버(또는 로컬 Ollama 인스턴스)에서 발생합니다.

이 차이점은 중요합니다. LemonClaw를 자체 호스팅하기 위해 GPU가 반드시 필요한 것은 아닙니다. 모델까지 직접 호스팅하고 싶을 때만 GPU가 필요합니다.


LemonClaw를 사용해 보세요: 모든 AI API와 함께 자체 호스팅하거나, LemonData에서 호스팅 인스턴스를 시작하세요. 선택하기 전에 비용 측면을 비교하고 싶다면 가격 비교 페이지를 읽어보시기 바랍니다.

Share: