OpenClaw - セルフホスト型 AI アシスタント
OpenClaw チュートリアル — OpenClaw をインストールし、New API と連携して、セルフホスト型 AI アシスタントをすばやく構築します。オープンソースプロジェクトであり、Lark、Discord、Slack など複数のチャネル統合をサポートしています。
プロジェクト紹介
OpenClaw は、オープンソースかつセルフホスト型の個人向け AI アシスタントプラットフォームです。メッセージアプリを、あなた自身のハードウェア上で動作する AI エージェントに接続します。
開発者および上級ユーザー向けに設計されており、データのコントロールを手放すことなく、自律的な AI アシスタントを利用できます。
- 公式サイト:https://openclaw.ai
- プロジェクトドキュメント:https://docs.openclaw.ai
- GitHub:https://github.com/moltbot/moltbot
OpenClaw(open claw)は完全なオープンソースです。OpenClaw の GitHub リポジトリ でソースコードを参照し、Issue を送信したり、コントリビュートしたりできます。本チュートリアルでは、インストール、設定、および OpenClaw を New API に接続するまでの完全な手順を扱います。
🌟 主な特長
マルチチャネル統合
- 全プラットフォーム対応:Lark、Discord、Slack、Microsoft Teams など、主要なインスタントメッセージングプラットフォームをサポート
- 単一 Gateway:1 つの Gateway プロセスで全チャネルを一元管理
- 音声対応:macOS/iOS/Android での音声インタラクションをサポート
- Canvas インターフェース:インタラクティブな Canvas インターフェースをレンダリング可能
セルフホストとデータセキュリティ
- 完全セルフホスト:自分のマシンまたはサーバー上で実行
- オープンソースで透明:MIT ライセンスで公開され、コードは完全に透明
- データのローカル保存:コンテキストとスキルはクラウドではなくローカルコンピュータに保存
AI エージェント機能
- 継続実行:バックグラウンド常駐実行に対応し、永続メモリを保持
- スケジュールタスク:cron による定期実行をサポート
- セッション分離:エージェント / ワークスペース / 送信者ごとにセッションを分離
- マルチエージェントルーティング:複数エージェントの協調動作をサポート
- ツール呼び出し:ツール呼び出しとコード実行をネイティブサポート
📦 インストール方法
環境要件
- Node.js 22 以上
- AI モデルの API Key
npm install -g openclaw@latestインストール完了後、オンボーディングウィザードを実行します。
openclaw onboard🚀 設定方法
設定ファイルの場所
OpenClaw の設定ファイルは ~/.openclaw/config.json にあります。オンボーディングウィザードで自動生成することも、手動で編集することもできます。
設定例
以下は、モデルプロバイダーとして New API を使用する完全な設定例です。
{
"meta": {
"lastTouchedVersion": "2026.2.1",
"lastTouchedAt": "2026-02-03T12:17:41.559Z"
},
"wizard": {
"lastRunAt": "2026-02-02T21:17:16.011Z",
"lastRunVersion": "2026.2.1",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"cooldowns": {
"billingBackoffHoursByProvider": {}
}
},
"models": {
"providers": {
"newapi": {
"baseUrl": "https://api.moleapi.com/v1",
"apiKey": "sk-your-api-key-from-moleapi",
"auth": "api-key",
"api": "openai-completions",
"models": [
{
"id": "gemini-3-flash-preview",
"name": "gemini-3-flash-preview",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
}
]
}
},
"bedrockDiscovery": {
"providerFilter": []
}
},
"agents": {
"defaults": {
"model": {
"primary": "newapi/gemini-3-flash-preview",
"fallbacks": [
"newapi/kimi-k2.5"
]
},
"models": {
"newapi/gemini-3-flash-preview": {
"alias": "gemini-3-flash-preview"
},
"newapi/kimi-k2.5": {
"alias": "kimi-k2.5"
}
},
"workspace": "/home/your-username/.openclaw/workspace",
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"channels": {
"lark": {
"enabled": true,
"dmPolicy": "pairing",
"appId": "your-lark-app-id",
"appSecret": "your-lark-app-secret",
"groupPolicy": "allowlist",
"streamMode": "partial"
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "your-secure-token"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}主要な設定項目
| 設定項目 | 説明 |
|---|---|
models.providers.newapi.baseUrl | New API のデプロイ先アドレス。/v1 を含める必要があります |
models.providers.newapi.apiKey | New API の Token キー |
models.providers.newapi.models | モデル一覧。必要に応じて複数のモデルを追加できます |
agents.defaults.model.primary | デフォルトのプライマリモデル。形式は provider/model-id |
agents.defaults.model.fallbacks | フォールバックモデル一覧。プライマリモデルが利用できない場合に自動で切り替えます |
channels.lark.appId | Lark アプリの App ID。Lark 開発者プラットフォームから取得します |
channels.lark.appSecret | Lark アプリの App Secret |
gateway.port | Gateway の待ち受けポート |
gateway.auth.token | Gateway へアクセスするためのセキュア Token |
サービスの起動
設定完了後、OpenClaw を起動します。
openclaw start起動後、設定したチャネルを通じて AI アシスタントと対話できます。
このガイドはいかがですか?
最終更新日
流畅阅读 (FluentRead) - オープンソース翻訳
FluentRead チュートリアル — オープンソースのブラウザ翻訳拡張機能。20 以上の翻訳エンジンと AI 大規模モデル翻訳に対応しています。MoleAPI と連携することで、没入感のあるバイリンガル読書体験を実現します。
LangBot - インスタントメッセージング Bot 開発プラットフォーム
LangBot 連携チュートリアル — Feishu、DingTalk、Telegram、Discord などのプラットフォーム向け AI チャット Bot 開発フレームワーク。ナレッジベース、Agent、MCP をサポートし、MoleAPI と互換性があります。