MoleAPIMoleAPI
DocumentationApplications d’IA

OpenClaw - Assistant IA auto-hébergé

Tutoriel OpenClaw — installez OpenClaw, connectez-le à New API et déployez rapidement un assistant IA auto-hébergé. Projet open source, avec prise en charge de l’intégration multicanal comme Lark, Discord et Slack.

Présentation du projet

OpenClaw est une plateforme open source et auto-hébergée d’assistant IA personnel, qui connecte des applications de messagerie à des agents IA exécutés sur votre propre matériel. Elle est conçue pour les développeurs et les utilisateurs avancés, afin de disposer d’un assistant IA autonome sans renoncer au contrôle de ses données.

OpenClaw (open claw) est entièrement open source. Vous pouvez consulter le code source, soumettre des issues ou contribuer dans le dépôt GitHub de OpenClaw. Ce tutoriel couvre l’installation, la configuration, ainsi que les étapes complètes pour connecter OpenClaw à New API.

🌟 Fonctionnalités principales

Intégration multicanal

  • Couverture multiplateforme : prise en charge de plusieurs plateformes de messagerie instantanée grand public, comme Lark, Discord, Slack et Microsoft Teams
  • Passerelle unique : gestion unifiée de tous les canaux via un seul processus Gateway
  • Prise en charge vocale : interactions vocales disponibles sur macOS/iOS/Android
  • Interface Canvas : rendu d’interfaces Canvas interactives

Auto-hébergement et sécurité des données

  • Entièrement auto-hébergé : s’exécute sur votre propre machine ou serveur
  • Open source et transparent : licence MIT, code entièrement transparent
  • Données locales : le contexte et les skills sont stockés sur votre ordinateur local, et non dans le cloud

Capacités d’agent intelligent

  • Exécution continue : prise en charge d’une exécution persistante en arrière-plan avec mémoire durable
  • Tâches planifiées : prise en charge des tâches planifiées via cron
  • Isolation des sessions : isolation des sessions par agent/espace de travail/expéditeur
  • Routage multi-agents : prise en charge de la collaboration entre plusieurs agents
  • Appel d’outils : prise en charge native des appels d’outils et de l’exécution de code

📦 Installation

Prérequis

  • Node.js 22 ou version supérieure
  • Une clé API pour un modèle IA
npm install -g openclaw@latest

Une fois l’installation terminée, exécutez l’assistant d’initialisation :

openclaw onboard

🚀 Configuration

Emplacement du fichier de configuration

Le fichier de configuration de OpenClaw se trouve dans ~/.openclaw/config.json. Il peut être généré automatiquement via l’assistant d’initialisation ou modifié manuellement.

Exemple de configuration

Voici un exemple complet de configuration utilisant New API comme fournisseur de modèles :

{
  "meta": {
    "lastTouchedVersion": "2026.2.1",
    "lastTouchedAt": "2026-02-03T12:17:41.559Z"
  },
  "wizard": {
    "lastRunAt": "2026-02-02T21:17:16.011Z",
    "lastRunVersion": "2026.2.1",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "cooldowns": {
      "billingBackoffHoursByProvider": {}
    }
  },
  "models": {
    "providers": {
      "newapi": {
        "baseUrl": "https://api.moleapi.com/v1",
        "apiKey": "sk-your-api-key-from-moleapi",
        "auth": "api-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemini-3-flash-preview",
            "name": "gemini-3-flash-preview",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          }
        ]
      }
    },
    "bedrockDiscovery": {
      "providerFilter": []
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "newapi/gemini-3-flash-preview",
        "fallbacks": [
          "newapi/kimi-k2.5"
        ]
      },
      "models": {
        "newapi/gemini-3-flash-preview": {
          "alias": "gemini-3-flash-preview"
        },
        "newapi/kimi-k2.5": {
          "alias": "kimi-k2.5"
        }
      },
      "workspace": "/home/your-username/.openclaw/workspace",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "channels": {
    "lark": {
      "enabled": true,
      "dmPolicy": "pairing",
      "appId": "your-lark-app-id",
      "appSecret": "your-lark-app-secret",
      "groupPolicy": "allowlist",
      "streamMode": "partial"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "your-secure-token"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

Explication des configurations clés

Élément de configurationDescription
models.providers.newapi.baseUrlAdresse de déploiement de New API, doit inclure /v1
models.providers.newapi.apiKeyClé de Token de New API
models.providers.newapi.modelsListe des modèles, plusieurs modèles peuvent être ajoutés selon les besoins
agents.defaults.model.primaryModèle principal par défaut, au format provider/model-id
agents.defaults.model.fallbacksListe des modèles de secours, bascule automatique si le modèle principal n’est pas disponible
channels.lark.appIdApp ID de l’application Lark, à récupérer depuis la plateforme ouverte Lark
channels.lark.appSecretApp Secret de l’application Lark
gateway.portPort d’écoute du gateway
gateway.auth.tokenToken de sécurité d’accès au gateway

Démarrer le service

Une fois la configuration terminée, démarrez OpenClaw :

openclaw start

Après le démarrage, vous pouvez interagir avec l’assistant IA via les canaux configurés.

Ce guide vous a-t-il aidé ?

Dernière mise à jour le

Retour à l’accueilPasserelle