クラウドAIアシスタントは便利ですが、不便な点もあります。ピーク時のレート制限、ネットワーク外へのデータ流出、積み重なる月額サブスクリプション、そしてプロバイダーが許可する範囲内でしか動作をカスタマイズできないことなどです。
LemonClawは、自身のハードウェア上で動作するセルフホスト型のAIアシスタントです。Telegram、Discord、またはその他のチャットプラットフォームに接続し、統合されたAPIを通じてあらゆるAIモデルを使用でき、すべての会話データを自分のマシン内に保持します。
セルフホストするかどうか迷っている場合は、Mac Studio ローカルAIガイドや中国開発者向けガイドも併せてお読みください。前者はハードウェアの疑問に答え、後者は支払いとプロバイダーの疑問に答えます。
LemonClawができること
その核心において、LemonClawはチャットプラットフォームとAIモデルの間のゲートウェイです。Telegramでメッセージを送信すると、LemonClawが選択したAIモデルにルーティングし、レスポンスを返します。
しかし、単なる中継以上の機能を備えています:
- マルチモデル対応:会話の途中でGPT-4.1、Claude、DeepSeek、ローカルモデルを切り替え可能
- 永続メモリ:設定可能なコンテキストウィンドウにより、再起動後も会話履歴を保持
- MCPサーバー対応:Model Context Protocolを通じて外部ツール(データベース、API、ファイルシステム)に接続
- プラグインシステム:カスタムコマンド、スケジュールタスク、インテグレーションの追加
- マルチユーザー:ユーザーごとに独自の会話履歴とモデル設定を保持
- 画像理解:写真を送信してAIによる分析が可能(ビジョン対応モデルを使用)
- 音声メッセージ:音声入力のSpeech-to-text処理
アーキテクチャ
Telegram/Discord ←→ LemonClaw Gateway ←→ AI API (LemonData/OpenAI/Local)
│
┌────┴────┐
│ Plugins │
│ MCP │
│ Memory │
└─────────┘
LemonClawは単一のNode.jsプロセスとして動作します。基本的な使用にはデータベースは不要です(会話はJSONファイルとして保存されます)。本番環境へのデプロイ向けに、Kubernetes上の永続ボリュームもサポートしています。
クイックスタート (5分)
オプション 1: ワンライン・セルフホスト・インストール(推奨)
curl -fsSL https://raw.githubusercontent.com/hedging8563/lemonclaw/main/deploy/self-hosted/install.sh | bash
現在のインストーラーは、利用可能な場合はuv tool installを優先し、そうでない場合は隔離されたvenvにフォールバックして、最後にlemonclaw initを実行します。
オプション 2: 手動インストール
uv tool install --upgrade lemonclaw
lemonclaw init
オプション 3: LemonData ホスト型
インフラの管理を自分で行いたくない場合、LemonDataはホスト型のLemonClawインスタンスを提供しています。各インスタンスは、永続ストレージを備えた隔離されたKubernetesポッドで動作します。
lemondata.ccでサインアップし、ダッシュボードのClawセクションに移動してインスタンスを起動します。ウェブターミナルアクセスが可能な専用サブドメイン(claw-yourname.lemondata.cc)が付与されます。
現在のセルフホストのフロー
現在のローカルでのフローは以下の通りです:
lemonclaw init
lemonclaw gateway
lemonclaw status
ランタイムデータは以下に保存されます:
~/.lemonclaw/config.json~/.lemonclaw/workspace/~/.lemonclaw/workspace/sessions/~/.lemonclaw/lemonclaw.log
これは運用上重要です。セルフホスト型アシスタントを「ただのボット」と呼ぶチームは、通常、セッション状態、ログ、認証情報が実際にどこに保存されているかを十分に検討していません。
設定
設定ファイル(~/.lemonclaw/config.json)ですべてを制御します:
{
"api": {
"key": "sk-lemon-xxx",
"baseUrl": "https://api.lemondata.cc/v1"
},
"telegram": {
"token": "BOT_TOKEN_FROM_BOTFATHER"
},
"discord": {
"token": "DISCORD_BOT_TOKEN"
},
"agents": {
"defaults": {
"model": "claude-sonnet-4-6",
"compaction": { "mode": "default" }
}
}
}
覚えておくべき一般的なコマンド:
lemonclaw initlemonclaw gatewaylemonclaw statuslemonclaw doctorlemonclaw channels loginlemonclaw channels status
モデルの選択
会話ごとにモデルを切り替えるか、デフォルトを設定します:
/model claude-sonnet-4-6 # Claudeに切り替え
/model gpt-4.1-mini # GPT-4.1 Miniに切り替え(より安価)
/model deepseek-chat # DeepSeekに切り替え(低予算)
MCPサーバー
MCP (Model Context Protocol) を通じて外部ツールを接続します:
{
"mcp": {
"servers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-filesystem", "/path/to/allowed/dir"]
},
"postgres": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-postgres", "postgresql://..."]
}
}
}
}
MCPサーバーを設定すると、AIアシスタントはチャットインターフェースから直接、ファイルの読み取り、データベースへのクエリ実行、外部サービスとの連携が可能になります。
ホスト型 vs セルフホスト型:どちらが適しているか
セルフホスト型が適している場合:
- データの局所性(データローカリティ)が重要な場合
- ランタイムとストレージを直接制御したい場合
- カスタムMCPサーバーやローカルツールが必要な場合
- 小規模なサービスの運用に慣れている場合
ホスト型が適している場合:
- ランタイムの保守をせずにClawの体験を利用したい場合
- チームが制御よりもスピードを重視する場合
- 隔離されたインスタンスは必要だが、低レベルのランタイム所有権は不要な場合
多くのチームにとって、最初のステップとして最適なのはホスト型のClawを利用し、ワークフローが中心的なものになった後にセルフホスト型へ移行することです。
ユースケース
個人用ナレッジアシスタント
MCP filesystemサーバーを介してLemonClawをノートディレクトリに接続します。自分のドキュメントについて質問したり、要約を作成したり、ノート間の関連性を見つけたりできます。
チームDevOpsボット
チームのSlackやDiscordにデプロイします。Kubernetesクラスター、モニタリングダッシュボード、CI/CDパイプラインに接続します。チームメンバーは自然言語を通じて、デプロイ状況の確認、ログの表示、ロールバックの実行が可能です。
カスタマーサポートの自動化
製品データベースとナレッジベースに接続します。LemonClawが一次対応のサポートクエリを処理し、確信度が低い場合には人間にエスカレーションします。
コードレビューアシスタント
Gitリポジトリに接続します。チャットアプリを離れることなく、レビュー用のdiffを送信し、セキュリティ分析、スタイル提案、バグ検出を受けることができます。
コスト比較
| セットアップ | 月額コスト | モデル | データプライバシー |
|---|---|---|---|
| ChatGPT Plus | $20/ユーザー | GPT-4o, 制限あり | データはOpenAIサーバー上 |
| Claude Pro | $20/ユーザー | Claudeのみ | データはAnthropicサーバー上 |
| LemonClaw (セルフホスト) | API使用料のみ | 全モデル | データは自身のサーバー上 |
| LemonClaw (LemonData ホスト) | $20/インスタンス + API | 全モデル | 隔離されたK8sポッド |
5人のチームの場合、ChatGPT Plusは限定的なモデルアクセスで月額100ドルかかります。APIクレジットを共有するLemonClawであれば、すべてのモデルへのアクセスと完全なデータ制御を維持しながら、合計で月額30〜50ドル程度に抑えられる可能性があります。
ハードウェア要件
- 最小:Node.js 18以上と512MBのRAMを搭載した任意のマシン
- 推奨:1 CPUコア、1GB RAM、10GB ストレージ
- ローカルモデル (Ollama) の場合:モデルごとのGPU/Apple Silicon要件が追加されます
LemonClaw自体は軽量です。AIの推論はAPIプロバイダーのサーバー(またはローカルのOllamaインスタンス)で行われます。
この区別は重要です。LemonClawをセルフホストするためにGPUは必要ありません。GPUが必要になるのは、モデル自体もセルフホストしたい場合のみです。
LemonClawを試してみる:任意のAI APIでセルフホストするか、LemonDataでホスト型インスタンスを起動してください。選択する前にコスト面を比較したい場合は、次のページで価格比較をご覧ください。