OpenClaw - Asistente inteligente de AI autoalojado
Tutorial de OpenClaw — instala OpenClaw, conéctalo con New API y crea rápidamente un asistente de AI autoalojado. Proyecto de código abierto compatible con integraciones multicanal como Lark, Discord y Slack.
Introducción al proyecto
OpenClaw es una plataforma de asistente personal de AI de código abierto y autoalojada que conecta aplicaciones de mensajería con agentes de AI que se ejecutan en tu propio hardware. Está diseñada para desarrolladores y usuarios avanzados, y permite disponer de un asistente de AI autónomo sin ceder el control de los datos.
- Sitio web oficial: https://openclaw.ai
- Documentación del proyecto: https://docs.openclaw.ai
- GitHub: https://github.com/moltbot/moltbot
OpenClaw (open claw) es completamente de código abierto. Puedes explorar el código fuente, enviar Issues o contribuir en el repositorio de GitHub de OpenClaw. Este tutorial cubre la instalación, la configuración y los pasos completos para conectar OpenClaw con New API.
🌟 Características principales
Integración multicanal
- Cobertura multiplataforma: compatible con Lark, Discord, Slack, Microsoft Teams y otras plataformas principales de mensajería instantánea
- Gateway único: gestiona de forma unificada todos los canales mediante un único proceso Gateway
- Compatibilidad con voz: admite interacción por voz en macOS/iOS/Android
- Interfaz Canvas: puede renderizar una interfaz Canvas interactiva
Autoalojamiento y seguridad de datos
- Totalmente autoalojado: se ejecuta en tu propia máquina o servidor
- Código abierto y transparente: licencia MIT de código abierto, con código completamente transparente
- Datos locales: el contexto y las skills se almacenan en tu equipo local, no en la nube
Capacidades de agentes inteligentes
- Ejecución continua: admite ejecución persistente en segundo plano y memoria persistente
- Tareas programadas: compatible con tareas programadas mediante cron
- Aislamiento de sesiones: aislamiento de sesiones por agente/espacio de trabajo/remitente
- Model Routing multiagente: admite colaboración entre varios agentes
- Llamada de herramientas: soporte nativo para tool calling y ejecución de código
📦 Instalación
Requisitos del entorno
- Node.js 22 o superior
- Una API Key de un modelo de AI
npm install -g openclaw@latestUna vez completada la instalación, ejecuta el asistente de incorporación:
openclaw onboard🚀 Configuración
Ubicación del archivo de configuración
El archivo de configuración de OpenClaw se encuentra en ~/.openclaw/config.json. Puede generarse automáticamente mediante el asistente de incorporación o editarse manualmente.
Ejemplo de configuración
A continuación se muestra un ejemplo completo de configuración usando New API como proveedor de modelos:
{
"meta": {
"lastTouchedVersion": "2026.2.1",
"lastTouchedAt": "2026-02-03T12:17:41.559Z"
},
"wizard": {
"lastRunAt": "2026-02-02T21:17:16.011Z",
"lastRunVersion": "2026.2.1",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"cooldowns": {
"billingBackoffHoursByProvider": {}
}
},
"models": {
"providers": {
"newapi": {
"baseUrl": "https://api.moleapi.com/v1",
"apiKey": "sk-your-api-key-from-moleapi",
"auth": "api-key",
"api": "openai-completions",
"models": [
{
"id": "gemini-3-flash-preview",
"name": "gemini-3-flash-preview",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
}
]
}
},
"bedrockDiscovery": {
"providerFilter": []
}
},
"agents": {
"defaults": {
"model": {
"primary": "newapi/gemini-3-flash-preview",
"fallbacks": [
"newapi/kimi-k2.5"
]
},
"models": {
"newapi/gemini-3-flash-preview": {
"alias": "gemini-3-flash-preview"
},
"newapi/kimi-k2.5": {
"alias": "kimi-k2.5"
}
},
"workspace": "/home/your-username/.openclaw/workspace",
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"channels": {
"lark": {
"enabled": true,
"dmPolicy": "pairing",
"appId": "your-lark-app-id",
"appSecret": "your-lark-app-secret",
"groupPolicy": "allowlist",
"streamMode": "partial"
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "your-secure-token"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}Descripción de la configuración clave
| Elemento de configuración | Descripción |
|---|---|
models.providers.newapi.baseUrl | Dirección de despliegue de New API; debe incluir /v1 |
models.providers.newapi.apiKey | Token de acceso de New API |
models.providers.newapi.models | Lista de modelos; puedes añadir varios modelos según sea necesario |
agents.defaults.model.primary | Modelo principal predeterminado, con el formato provider/model-id |
agents.defaults.model.fallbacks | Lista de modelos alternativos; se cambia automáticamente cuando el modelo principal no está disponible |
channels.lark.appId | App ID de la aplicación de Lark, obtenido desde la plataforma abierta de Lark |
channels.lark.appSecret | App Secret de la aplicación de Lark |
gateway.port | Puerto de escucha del Gateway |
gateway.auth.token | Token de seguridad para acceder al Gateway |
Iniciar el servicio
Una vez completada la configuración, inicia OpenClaw:
openclaw startDespués del inicio, ya podrás interactuar con el asistente de AI a través de los canales configurados.
¿Te resultó útil esta guía?
Última actualización el
FluentRead - traducción de código abierto
Tutorial de FluentRead — plugin de traducción de navegador de código abierto, compatible con más de 20 motores de traducción y traducción con modelos AI de gran tamaño. Integrado con MoleAPI para ofrecer una experiencia de lectura bilingüe inmersiva.
LangBot - Plataforma de desarrollo de bots de mensajería instantánea
Tutorial de integración de LangBot — framework de desarrollo de bots de chat con AI para plataformas como Feishu, DingTalk, Telegram y Discord. Compatible con base de conocimientos, Agent y MCP, y con MoleAPI.