OpenClaw - Selbstgehosteter KI-Assistent
OpenClaw-Tutorial — OpenClaw installieren, mit New API verbinden und schnell einen selbstgehosteten KI-Assistenten aufbauen. Open-Source-Projekt mit Unterstützung für die Integration über mehrere Kanäle wie Feishu, Discord und Slack.
Projektvorstellung
OpenClaw ist eine Open-Source-Plattform für selbstgehostete persönliche KI-Assistenten, die Messaging-Anwendungen mit KI-Agenten verbindet, die auf deiner eigenen Hardware laufen. Sie wurde speziell für Entwickler und fortgeschrittene Benutzer entwickelt, damit du einen autonomen KI-Assistenten nutzen kannst, ohne die Kontrolle über deine Daten abzugeben.
- Offizielle Website: https://openclaw.ai
- Projektdokumentation: https://docs.openclaw.ai
- GitHub: https://github.com/moltbot/moltbot
OpenClaw (open claw) ist vollständig Open Source. Du kannst im OpenClaw-GitHub-Repository den Quellcode einsehen, Issues erstellen oder zum Projekt beitragen. Dieses Tutorial behandelt die vollständigen Schritte für Installation, Konfiguration und die Anbindung von OpenClaw an New API.
🌟 Kernfunktionen
Integration über mehrere Kanäle
- Plattformübergreifende Unterstützung: Unterstützt zahlreiche gängige Instant-Messaging-Plattformen wie Feishu, Discord, Slack und Microsoft Teams
- Einheitliches Gateway: Verwaltet alle Channels zentral über einen einzelnen Gateway-Prozess
- Sprachunterstützung: Unterstützt Sprachinteraktionen auf macOS/iOS/Android
- Canvas-Oberfläche: Kann interaktive Canvas-Oberflächen rendern
Self-Hosting und Datensicherheit
- Vollständig selbstgehostet: Läuft auf deinem eigenen Rechner oder Server
- Offen und transparent: MIT-Lizenz, vollständige Transparenz des Quellcodes
- Lokale Datenspeicherung: Kontext und Skills werden auf deinem lokalen Computer statt in der Cloud gespeichert
Fähigkeiten intelligenter Agenten
- Dauerbetrieb: Unterstützt den kontinuierlichen Betrieb im Hintergrund mit persistentem Speicher
- Geplante Aufgaben: Unterstützt cron-basierte Zeitplanung
- Sitzungsisolierung: Isoliert Sitzungen nach Agent/Workspace/Absender
- Multi-Agent-Routing: Unterstützt die Zusammenarbeit mehrerer Agenten
- Tool-Aufrufe: Native Unterstützung für Tool-Aufrufe und Code-Ausführung
📦 Installation
Systemvoraussetzungen
- Node.js 22 oder höher
- Ein API Key für ein KI-Modell
npm install -g openclaw@latestFühre nach der Installation den Onboarding-Assistenten aus:
openclaw onboard🚀 Konfiguration
Speicherort der Konfigurationsdatei
Die Konfigurationsdatei von OpenClaw befindet sich unter ~/.openclaw/config.json. Sie kann automatisch durch den Onboarding-Assistenten erstellt oder manuell bearbeitet werden.
Konfigurationsbeispiel
Im Folgenden findest du ein vollständiges Konfigurationsbeispiel, bei dem New API als Modellanbieter verwendet wird:
{
"meta": {
"lastTouchedVersion": "2026.2.1",
"lastTouchedAt": "2026-02-03T12:17:41.559Z"
},
"wizard": {
"lastRunAt": "2026-02-02T21:17:16.011Z",
"lastRunVersion": "2026.2.1",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"cooldowns": {
"billingBackoffHoursByProvider": {}
}
},
"models": {
"providers": {
"newapi": {
"baseUrl": "https://api.moleapi.com/v1",
"apiKey": "sk-your-api-key-from-moleapi",
"auth": "api-key",
"api": "openai-completions",
"models": [
{
"id": "gemini-3-flash-preview",
"name": "gemini-3-flash-preview",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
}
]
}
},
"bedrockDiscovery": {
"providerFilter": []
}
},
"agents": {
"defaults": {
"model": {
"primary": "newapi/gemini-3-flash-preview",
"fallbacks": [
"newapi/kimi-k2.5"
]
},
"models": {
"newapi/gemini-3-flash-preview": {
"alias": "gemini-3-flash-preview"
},
"newapi/kimi-k2.5": {
"alias": "kimi-k2.5"
}
},
"workspace": "/home/your-username/.openclaw/workspace",
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"channels": {
"lark": {
"enabled": true,
"dmPolicy": "pairing",
"appId": "your-lark-app-id",
"appSecret": "your-lark-app-secret",
"groupPolicy": "allowlist",
"streamMode": "partial"
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "your-secure-token"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}Erläuterung wichtiger Konfigurationen
| Konfiguration | Beschreibung |
|---|---|
models.providers.newapi.baseUrl | Bereitstellungsadresse von New API, muss /v1 enthalten |
models.providers.newapi.apiKey | Token-Schlüssel von New API |
models.providers.newapi.models | Modellliste; bei Bedarf können mehrere Modelle hinzugefügt werden |
agents.defaults.model.primary | Standard-Primärmodell im Format provider/model-id |
agents.defaults.model.fallbacks | Liste der Fallback-Modelle; bei Nichtverfügbarkeit des Primärmodells erfolgt automatisch ein Wechsel |
channels.lark.appId | App ID der Lark-Anwendung, erhältlich über die Lark Open Platform |
channels.lark.appSecret | App Secret der Lark-Anwendung |
gateway.port | Port, auf dem das Gateway lauscht |
gateway.auth.token | Sicherheits-Token für den Gateway-Zugriff |
Dienst starten
Starte OpenClaw nach Abschluss der Konfiguration:
openclaw startNach dem Start kannst du über die konfigurierten Channels mit dem KI-Assistenten interagieren.
War diese Anleitung hilfreich?
Zuletzt aktualisiert am
FluentRead – Open-Source-Übersetzung
FluentRead-Tutorial — Open-Source-Browser-Übersetzungs-Plugin mit Unterstützung für 20+ Übersetzungs-Engines und AI-Modelle. Die Anbindung an MoleAPI ermöglicht ein immersives zweisprachiges Leseerlebnis.
LangBot - Entwicklungsplattform für Instant-Messaging-Bots
LangBot-Integrationsanleitung — Ein Entwicklungs-Framework für AI-Chatbots für Plattformen wie Feishu, DingTalk, Telegram und Discord. Unterstützt Wissensdatenbanken, Agent, MCP und ist mit MoleAPI kompatibel.