MoleAPIMoleAPI
ドキュメントAI アプリケーション

OpenClaw - セルフホスト型 AI アシスタント

OpenClaw チュートリアル — OpenClaw をインストールし、New API と連携して、セルフホスト型 AI アシスタントをすばやく構築します。オープンソースプロジェクトであり、Lark、Discord、Slack など複数のチャネル統合をサポートしています。

プロジェクト紹介

OpenClaw は、オープンソースかつセルフホスト型の個人向け AI アシスタントプラットフォームです。メッセージアプリを、あなた自身のハードウェア上で動作する AI エージェントに接続します。

開発者および上級ユーザー向けに設計されており、データのコントロールを手放すことなく、自律的な AI アシスタントを利用できます。

OpenClaw(open claw)は完全なオープンソースです。OpenClaw の GitHub リポジトリ でソースコードを参照し、Issue を送信したり、コントリビュートしたりできます。本チュートリアルでは、インストール、設定、および OpenClaw を New API に接続するまでの完全な手順を扱います。

🌟 主な特長

マルチチャネル統合

  • 全プラットフォーム対応:Lark、Discord、Slack、Microsoft Teams など、主要なインスタントメッセージングプラットフォームをサポート
  • 単一 Gateway:1 つの Gateway プロセスで全チャネルを一元管理
  • 音声対応:macOS/iOS/Android での音声インタラクションをサポート
  • Canvas インターフェース:インタラクティブな Canvas インターフェースをレンダリング可能

セルフホストとデータセキュリティ

  • 完全セルフホスト:自分のマシンまたはサーバー上で実行
  • オープンソースで透明:MIT ライセンスで公開され、コードは完全に透明
  • データのローカル保存:コンテキストとスキルはクラウドではなくローカルコンピュータに保存

AI エージェント機能

  • 継続実行:バックグラウンド常駐実行に対応し、永続メモリを保持
  • スケジュールタスク:cron による定期実行をサポート
  • セッション分離:エージェント / ワークスペース / 送信者ごとにセッションを分離
  • マルチエージェントルーティング:複数エージェントの協調動作をサポート
  • ツール呼び出し:ツール呼び出しとコード実行をネイティブサポート

📦 インストール方法

環境要件

  • Node.js 22 以上
  • AI モデルの API Key
npm install -g openclaw@latest

インストール完了後、オンボーディングウィザードを実行します。

openclaw onboard

🚀 設定方法

設定ファイルの場所

OpenClaw の設定ファイルは ~/.openclaw/config.json にあります。オンボーディングウィザードで自動生成することも、手動で編集することもできます。

設定例

以下は、モデルプロバイダーとして New API を使用する完全な設定例です。

{
  "meta": {
    "lastTouchedVersion": "2026.2.1",
    "lastTouchedAt": "2026-02-03T12:17:41.559Z"
  },
  "wizard": {
    "lastRunAt": "2026-02-02T21:17:16.011Z",
    "lastRunVersion": "2026.2.1",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "cooldowns": {
      "billingBackoffHoursByProvider": {}
    }
  },
  "models": {
    "providers": {
      "newapi": {
        "baseUrl": "https://api.moleapi.com/v1",
        "apiKey": "sk-your-api-key-from-moleapi",
        "auth": "api-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemini-3-flash-preview",
            "name": "gemini-3-flash-preview",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          }
        ]
      }
    },
    "bedrockDiscovery": {
      "providerFilter": []
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "newapi/gemini-3-flash-preview",
        "fallbacks": [
          "newapi/kimi-k2.5"
        ]
      },
      "models": {
        "newapi/gemini-3-flash-preview": {
          "alias": "gemini-3-flash-preview"
        },
        "newapi/kimi-k2.5": {
          "alias": "kimi-k2.5"
        }
      },
      "workspace": "/home/your-username/.openclaw/workspace",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "channels": {
    "lark": {
      "enabled": true,
      "dmPolicy": "pairing",
      "appId": "your-lark-app-id",
      "appSecret": "your-lark-app-secret",
      "groupPolicy": "allowlist",
      "streamMode": "partial"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "your-secure-token"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

主要な設定項目

設定項目説明
models.providers.newapi.baseUrlNew API のデプロイ先アドレス。/v1 を含める必要があります
models.providers.newapi.apiKeyNew API の Token キー
models.providers.newapi.modelsモデル一覧。必要に応じて複数のモデルを追加できます
agents.defaults.model.primaryデフォルトのプライマリモデル。形式は provider/model-id
agents.defaults.model.fallbacksフォールバックモデル一覧。プライマリモデルが利用できない場合に自動で切り替えます
channels.lark.appIdLark アプリの App ID。Lark 開発者プラットフォームから取得します
channels.lark.appSecretLark アプリの App Secret
gateway.portGateway の待ち受けポート
gateway.auth.tokenGateway へアクセスするためのセキュア Token

サービスの起動

設定完了後、OpenClaw を起動します。

openclaw start

起動後、設定したチャネルを通じて AI アシスタントと対話できます。

このガイドはいかがですか?

最終更新日

ホームへ戻るゲートウェイ