OpenClaw - Assistant IA auto-hébergé
Tutoriel OpenClaw — installez OpenClaw, connectez-le à New API et déployez rapidement un assistant IA auto-hébergé. Projet open source, avec prise en charge de l’intégration multicanal comme Lark, Discord et Slack.
Présentation du projet
OpenClaw est une plateforme open source et auto-hébergée d’assistant IA personnel, qui connecte des applications de messagerie à des agents IA exécutés sur votre propre matériel. Elle est conçue pour les développeurs et les utilisateurs avancés, afin de disposer d’un assistant IA autonome sans renoncer au contrôle de ses données.
- Site officiel : https://openclaw.ai
- Documentation du projet : https://docs.openclaw.ai
- GitHub : https://github.com/moltbot/moltbot
OpenClaw (open claw) est entièrement open source. Vous pouvez consulter le code source, soumettre des issues ou contribuer dans le dépôt GitHub de OpenClaw. Ce tutoriel couvre l’installation, la configuration, ainsi que les étapes complètes pour connecter OpenClaw à New API.
🌟 Fonctionnalités principales
Intégration multicanal
- Couverture multiplateforme : prise en charge de plusieurs plateformes de messagerie instantanée grand public, comme Lark, Discord, Slack et Microsoft Teams
- Passerelle unique : gestion unifiée de tous les canaux via un seul processus Gateway
- Prise en charge vocale : interactions vocales disponibles sur macOS/iOS/Android
- Interface Canvas : rendu d’interfaces Canvas interactives
Auto-hébergement et sécurité des données
- Entièrement auto-hébergé : s’exécute sur votre propre machine ou serveur
- Open source et transparent : licence MIT, code entièrement transparent
- Données locales : le contexte et les skills sont stockés sur votre ordinateur local, et non dans le cloud
Capacités d’agent intelligent
- Exécution continue : prise en charge d’une exécution persistante en arrière-plan avec mémoire durable
- Tâches planifiées : prise en charge des tâches planifiées via cron
- Isolation des sessions : isolation des sessions par agent/espace de travail/expéditeur
- Routage multi-agents : prise en charge de la collaboration entre plusieurs agents
- Appel d’outils : prise en charge native des appels d’outils et de l’exécution de code
📦 Installation
Prérequis
- Node.js 22 ou version supérieure
- Une clé API pour un modèle IA
npm install -g openclaw@latestUne fois l’installation terminée, exécutez l’assistant d’initialisation :
openclaw onboard🚀 Configuration
Emplacement du fichier de configuration
Le fichier de configuration de OpenClaw se trouve dans ~/.openclaw/config.json. Il peut être généré automatiquement via l’assistant d’initialisation ou modifié manuellement.
Exemple de configuration
Voici un exemple complet de configuration utilisant New API comme fournisseur de modèles :
{
"meta": {
"lastTouchedVersion": "2026.2.1",
"lastTouchedAt": "2026-02-03T12:17:41.559Z"
},
"wizard": {
"lastRunAt": "2026-02-02T21:17:16.011Z",
"lastRunVersion": "2026.2.1",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"cooldowns": {
"billingBackoffHoursByProvider": {}
}
},
"models": {
"providers": {
"newapi": {
"baseUrl": "https://api.moleapi.com/v1",
"apiKey": "sk-your-api-key-from-moleapi",
"auth": "api-key",
"api": "openai-completions",
"models": [
{
"id": "gemini-3-flash-preview",
"name": "gemini-3-flash-preview",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
}
]
}
},
"bedrockDiscovery": {
"providerFilter": []
}
},
"agents": {
"defaults": {
"model": {
"primary": "newapi/gemini-3-flash-preview",
"fallbacks": [
"newapi/kimi-k2.5"
]
},
"models": {
"newapi/gemini-3-flash-preview": {
"alias": "gemini-3-flash-preview"
},
"newapi/kimi-k2.5": {
"alias": "kimi-k2.5"
}
},
"workspace": "/home/your-username/.openclaw/workspace",
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"channels": {
"lark": {
"enabled": true,
"dmPolicy": "pairing",
"appId": "your-lark-app-id",
"appSecret": "your-lark-app-secret",
"groupPolicy": "allowlist",
"streamMode": "partial"
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "your-secure-token"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}Explication des configurations clés
| Élément de configuration | Description |
|---|---|
models.providers.newapi.baseUrl | Adresse de déploiement de New API, doit inclure /v1 |
models.providers.newapi.apiKey | Clé de Token de New API |
models.providers.newapi.models | Liste des modèles, plusieurs modèles peuvent être ajoutés selon les besoins |
agents.defaults.model.primary | Modèle principal par défaut, au format provider/model-id |
agents.defaults.model.fallbacks | Liste des modèles de secours, bascule automatique si le modèle principal n’est pas disponible |
channels.lark.appId | App ID de l’application Lark, à récupérer depuis la plateforme ouverte Lark |
channels.lark.appSecret | App Secret de l’application Lark |
gateway.port | Port d’écoute du gateway |
gateway.auth.token | Token de sécurité d’accès au gateway |
Démarrer le service
Une fois la configuration terminée, démarrez OpenClaw :
openclaw startAprès le démarrage, vous pouvez interagir avec l’assistant IA via les canaux configurés.
Ce guide vous a-t-il aidé ?
Dernière mise à jour le
Lecture fluide (FluentRead) - traduction open source
Tutoriel FluentRead — extension de traduction open source pour navigateur, compatible avec plus de 20 moteurs de traduction et la traduction par grands modèles d’IA. Intégrez MoleAPI pour une expérience de lecture bilingue immersive.
LangBot - Plateforme de développement de bots de messagerie instantanée
Tutoriel d’intégration de LangBot — Framework de développement de bots de chat IA pour des plateformes telles que Feishu, DingTalk, Telegram, Discord, etc. Prend en charge les bases de connaissances, Agent, MCP et est compatible avec MoleAPI.