MoleAPIMoleAPI
DokumentationAI-Anwendung

OpenClaw - Selbstgehosteter KI-Assistent

OpenClaw-Tutorial — OpenClaw installieren, mit New API verbinden und schnell einen selbstgehosteten KI-Assistenten aufbauen. Open-Source-Projekt mit Unterstützung für die Integration über mehrere Kanäle wie Feishu, Discord und Slack.

Projektvorstellung

OpenClaw ist eine Open-Source-Plattform für selbstgehostete persönliche KI-Assistenten, die Messaging-Anwendungen mit KI-Agenten verbindet, die auf deiner eigenen Hardware laufen. Sie wurde speziell für Entwickler und fortgeschrittene Benutzer entwickelt, damit du einen autonomen KI-Assistenten nutzen kannst, ohne die Kontrolle über deine Daten abzugeben.

OpenClaw (open claw) ist vollständig Open Source. Du kannst im OpenClaw-GitHub-Repository den Quellcode einsehen, Issues erstellen oder zum Projekt beitragen. Dieses Tutorial behandelt die vollständigen Schritte für Installation, Konfiguration und die Anbindung von OpenClaw an New API.

🌟 Kernfunktionen

Integration über mehrere Kanäle

  • Plattformübergreifende Unterstützung: Unterstützt zahlreiche gängige Instant-Messaging-Plattformen wie Feishu, Discord, Slack und Microsoft Teams
  • Einheitliches Gateway: Verwaltet alle Channels zentral über einen einzelnen Gateway-Prozess
  • Sprachunterstützung: Unterstützt Sprachinteraktionen auf macOS/iOS/Android
  • Canvas-Oberfläche: Kann interaktive Canvas-Oberflächen rendern

Self-Hosting und Datensicherheit

  • Vollständig selbstgehostet: Läuft auf deinem eigenen Rechner oder Server
  • Offen und transparent: MIT-Lizenz, vollständige Transparenz des Quellcodes
  • Lokale Datenspeicherung: Kontext und Skills werden auf deinem lokalen Computer statt in der Cloud gespeichert

Fähigkeiten intelligenter Agenten

  • Dauerbetrieb: Unterstützt den kontinuierlichen Betrieb im Hintergrund mit persistentem Speicher
  • Geplante Aufgaben: Unterstützt cron-basierte Zeitplanung
  • Sitzungsisolierung: Isoliert Sitzungen nach Agent/Workspace/Absender
  • Multi-Agent-Routing: Unterstützt die Zusammenarbeit mehrerer Agenten
  • Tool-Aufrufe: Native Unterstützung für Tool-Aufrufe und Code-Ausführung

📦 Installation

Systemvoraussetzungen

  • Node.js 22 oder höher
  • Ein API Key für ein KI-Modell
npm install -g openclaw@latest

Führe nach der Installation den Onboarding-Assistenten aus:

openclaw onboard

🚀 Konfiguration

Speicherort der Konfigurationsdatei

Die Konfigurationsdatei von OpenClaw befindet sich unter ~/.openclaw/config.json. Sie kann automatisch durch den Onboarding-Assistenten erstellt oder manuell bearbeitet werden.

Konfigurationsbeispiel

Im Folgenden findest du ein vollständiges Konfigurationsbeispiel, bei dem New API als Modellanbieter verwendet wird:

{
  "meta": {
    "lastTouchedVersion": "2026.2.1",
    "lastTouchedAt": "2026-02-03T12:17:41.559Z"
  },
  "wizard": {
    "lastRunAt": "2026-02-02T21:17:16.011Z",
    "lastRunVersion": "2026.2.1",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "cooldowns": {
      "billingBackoffHoursByProvider": {}
    }
  },
  "models": {
    "providers": {
      "newapi": {
        "baseUrl": "https://api.moleapi.com/v1",
        "apiKey": "sk-your-api-key-from-moleapi",
        "auth": "api-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemini-3-flash-preview",
            "name": "gemini-3-flash-preview",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          }
        ]
      }
    },
    "bedrockDiscovery": {
      "providerFilter": []
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "newapi/gemini-3-flash-preview",
        "fallbacks": [
          "newapi/kimi-k2.5"
        ]
      },
      "models": {
        "newapi/gemini-3-flash-preview": {
          "alias": "gemini-3-flash-preview"
        },
        "newapi/kimi-k2.5": {
          "alias": "kimi-k2.5"
        }
      },
      "workspace": "/home/your-username/.openclaw/workspace",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "channels": {
    "lark": {
      "enabled": true,
      "dmPolicy": "pairing",
      "appId": "your-lark-app-id",
      "appSecret": "your-lark-app-secret",
      "groupPolicy": "allowlist",
      "streamMode": "partial"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "your-secure-token"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

Erläuterung wichtiger Konfigurationen

KonfigurationBeschreibung
models.providers.newapi.baseUrlBereitstellungsadresse von New API, muss /v1 enthalten
models.providers.newapi.apiKeyToken-Schlüssel von New API
models.providers.newapi.modelsModellliste; bei Bedarf können mehrere Modelle hinzugefügt werden
agents.defaults.model.primaryStandard-Primärmodell im Format provider/model-id
agents.defaults.model.fallbacksListe der Fallback-Modelle; bei Nichtverfügbarkeit des Primärmodells erfolgt automatisch ein Wechsel
channels.lark.appIdApp ID der Lark-Anwendung, erhältlich über die Lark Open Platform
channels.lark.appSecretApp Secret der Lark-Anwendung
gateway.portPort, auf dem das Gateway lauscht
gateway.auth.tokenSicherheits-Token für den Gateway-Zugriff

Dienst starten

Starte OpenClaw nach Abschluss der Konfiguration:

openclaw start

Nach dem Start kannst du über die konfigurierten Channels mit dem KI-Assistenten interagieren.

War diese Anleitung hilfreich?

Zuletzt aktualisiert am

Zur StartseiteGateway