MoleAPIMoleAPI
DocumentaciónAplicaciones de IA

OpenClaw - Asistente inteligente de AI autoalojado

Tutorial de OpenClaw — instala OpenClaw, conéctalo con New API y crea rápidamente un asistente de AI autoalojado. Proyecto de código abierto compatible con integraciones multicanal como Lark, Discord y Slack.

Introducción al proyecto

OpenClaw es una plataforma de asistente personal de AI de código abierto y autoalojada que conecta aplicaciones de mensajería con agentes de AI que se ejecutan en tu propio hardware. Está diseñada para desarrolladores y usuarios avanzados, y permite disponer de un asistente de AI autónomo sin ceder el control de los datos.

OpenClaw (open claw) es completamente de código abierto. Puedes explorar el código fuente, enviar Issues o contribuir en el repositorio de GitHub de OpenClaw. Este tutorial cubre la instalación, la configuración y los pasos completos para conectar OpenClaw con New API.

🌟 Características principales

Integración multicanal

  • Cobertura multiplataforma: compatible con Lark, Discord, Slack, Microsoft Teams y otras plataformas principales de mensajería instantánea
  • Gateway único: gestiona de forma unificada todos los canales mediante un único proceso Gateway
  • Compatibilidad con voz: admite interacción por voz en macOS/iOS/Android
  • Interfaz Canvas: puede renderizar una interfaz Canvas interactiva

Autoalojamiento y seguridad de datos

  • Totalmente autoalojado: se ejecuta en tu propia máquina o servidor
  • Código abierto y transparente: licencia MIT de código abierto, con código completamente transparente
  • Datos locales: el contexto y las skills se almacenan en tu equipo local, no en la nube

Capacidades de agentes inteligentes

  • Ejecución continua: admite ejecución persistente en segundo plano y memoria persistente
  • Tareas programadas: compatible con tareas programadas mediante cron
  • Aislamiento de sesiones: aislamiento de sesiones por agente/espacio de trabajo/remitente
  • Model Routing multiagente: admite colaboración entre varios agentes
  • Llamada de herramientas: soporte nativo para tool calling y ejecución de código

📦 Instalación

Requisitos del entorno

  • Node.js 22 o superior
  • Una API Key de un modelo de AI
npm install -g openclaw@latest

Una vez completada la instalación, ejecuta el asistente de incorporación:

openclaw onboard

🚀 Configuración

Ubicación del archivo de configuración

El archivo de configuración de OpenClaw se encuentra en ~/.openclaw/config.json. Puede generarse automáticamente mediante el asistente de incorporación o editarse manualmente.

Ejemplo de configuración

A continuación se muestra un ejemplo completo de configuración usando New API como proveedor de modelos:

{
  "meta": {
    "lastTouchedVersion": "2026.2.1",
    "lastTouchedAt": "2026-02-03T12:17:41.559Z"
  },
  "wizard": {
    "lastRunAt": "2026-02-02T21:17:16.011Z",
    "lastRunVersion": "2026.2.1",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "cooldowns": {
      "billingBackoffHoursByProvider": {}
    }
  },
  "models": {
    "providers": {
      "newapi": {
        "baseUrl": "https://api.moleapi.com/v1",
        "apiKey": "sk-your-api-key-from-moleapi",
        "auth": "api-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemini-3-flash-preview",
            "name": "gemini-3-flash-preview",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          }
        ]
      }
    },
    "bedrockDiscovery": {
      "providerFilter": []
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "newapi/gemini-3-flash-preview",
        "fallbacks": [
          "newapi/kimi-k2.5"
        ]
      },
      "models": {
        "newapi/gemini-3-flash-preview": {
          "alias": "gemini-3-flash-preview"
        },
        "newapi/kimi-k2.5": {
          "alias": "kimi-k2.5"
        }
      },
      "workspace": "/home/your-username/.openclaw/workspace",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "channels": {
    "lark": {
      "enabled": true,
      "dmPolicy": "pairing",
      "appId": "your-lark-app-id",
      "appSecret": "your-lark-app-secret",
      "groupPolicy": "allowlist",
      "streamMode": "partial"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "your-secure-token"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

Descripción de la configuración clave

Elemento de configuraciónDescripción
models.providers.newapi.baseUrlDirección de despliegue de New API; debe incluir /v1
models.providers.newapi.apiKeyToken de acceso de New API
models.providers.newapi.modelsLista de modelos; puedes añadir varios modelos según sea necesario
agents.defaults.model.primaryModelo principal predeterminado, con el formato provider/model-id
agents.defaults.model.fallbacksLista de modelos alternativos; se cambia automáticamente cuando el modelo principal no está disponible
channels.lark.appIdApp ID de la aplicación de Lark, obtenido desde la plataforma abierta de Lark
channels.lark.appSecretApp Secret de la aplicación de Lark
gateway.portPuerto de escucha del Gateway
gateway.auth.tokenToken de seguridad para acceder al Gateway

Iniciar el servicio

Una vez completada la configuración, inicia OpenClaw:

openclaw start

Después del inicio, ya podrás interactuar con el asistente de AI a través de los canales configurados.

¿Te resultó útil esta guía?

Última actualización el

Volver al inicioPasarela