문서AI 애플리케이션
OpenClaw - 셀프 호스팅 AI 지능형 어시스턴트
OpenClaw 튜토리얼 — OpenClaw를 설치하고 New API를 연동하여 셀프 호스팅 AI 어시스턴트를 빠르게 구축합니다. 오픈소스 프로젝트로, Feishu, Discord, Slack 등 다양한 채널 통합을 지원합니다.
프로젝트 소개
OpenClaw는 오픈소스이자 셀프 호스팅 방식의 개인 AI 어시스턴트 플랫폼으로, 메시지 애플리케이션을 사용자의 자체 하드웨어에서 실행되는 AI 에이전트에 연결합니다. 개발자와 고급 사용자를 위해 설계되었으며, 데이터 통제권을 넘기지 않고도 자율적인 AI 어시스턴트를 사용할 수 있습니다.
- 공식 홈페이지: https://openclaw.ai
- 프로젝트 문서: https://docs.openclaw.ai
- GitHub: https://github.com/moltbot/moltbot
OpenClaw(open claw)는 완전한 오픈소스이며, OpenClaw의 GitHub 저장소에서 소스 코드를 확인하고, Issue를 제출하거나 기여에 참여할 수 있습니다. 이 튜토리얼에서는 설치, 구성, 그리고 OpenClaw를 New API에 연동하는 전체 과정을 다룹니다.
🌟 핵심 기능
멀티채널 통합
- 전 플랫폼 지원: Feishu, Discord, Slack, Microsoft Teams 등 다양한 주요 인스턴트 메시징 플랫폼 지원
- 단일 Gateway: 하나의 Gateway 프로세스를 통해 모든 채널을 통합 관리
- 음성 지원: macOS/iOS/Android 음성 상호작용 지원
- Canvas 인터페이스: 상호작용형 Canvas 인터페이스 렌더링 가능
셀프 호스팅 및 데이터 보안
- 완전한 셀프 호스팅: 사용자의 머신 또는 서버에서 실행
- 오픈소스 투명성: MIT 오픈소스 라이선스, 코드 완전 공개
- 로컬 데이터 저장: 컨텍스트와 스킬은 클라우드가 아닌 로컬 컴퓨터에 저장
지능형 에이전트 기능
- 지속 실행: 백그라운드 상시 실행 지원, 지속 메모리 보유
- 예약 작업: cron 예약 작업 지원
- 세션 격리: 에이전트/워크스페이스/발신자 단위로 세션 격리
- 다중 에이전트 라우팅: 여러 에이전트의 협업 지원
- 도구 호출: 도구 호출 및 코드 실행을 네이티브로 지원
📦 설치 방법
환경 요구 사항
- Node.js 22 이상
- AI 모델 API 키 1개
npm install -g openclaw@latest설치가 완료되면 온보딩 마법사를 실행합니다:
openclaw onboard🚀 구성 방법
구성 파일 위치
OpenClaw의 구성 파일은 ~/.openclaw/config.json에 있으며, 온보딩 마법사를 통해 자동 생성하거나 수동으로 편집할 수 있습니다.
구성 예시
다음은 New API를 모델 제공자로 사용하는 전체 구성 예시입니다:
{
"meta": {
"lastTouchedVersion": "2026.2.1",
"lastTouchedAt": "2026-02-03T12:17:41.559Z"
},
"wizard": {
"lastRunAt": "2026-02-02T21:17:16.011Z",
"lastRunVersion": "2026.2.1",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"cooldowns": {
"billingBackoffHoursByProvider": {}
}
},
"models": {
"providers": {
"newapi": {
"baseUrl": "https://api.moleapi.com/v1",
"apiKey": "sk-your-api-key-from-moleapi",
"auth": "api-key",
"api": "openai-completions",
"models": [
{
"id": "gemini-3-flash-preview",
"name": "gemini-3-flash-preview",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"api": "openai-completions",
"reasoning": true,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000
}
]
}
},
"bedrockDiscovery": {
"providerFilter": []
}
},
"agents": {
"defaults": {
"model": {
"primary": "newapi/gemini-3-flash-preview",
"fallbacks": [
"newapi/kimi-k2.5"
]
},
"models": {
"newapi/gemini-3-flash-preview": {
"alias": "gemini-3-flash-preview"
},
"newapi/kimi-k2.5": {
"alias": "kimi-k2.5"
}
},
"workspace": "/home/your-username/.openclaw/workspace",
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"channels": {
"lark": {
"enabled": true,
"dmPolicy": "pairing",
"appId": "your-lark-app-id",
"appSecret": "your-lark-app-secret",
"groupPolicy": "allowlist",
"streamMode": "partial"
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "your-secure-token"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}주요 구성 설명
| 구성 항목 | 설명 |
|---|---|
models.providers.newapi.baseUrl | New API 배포 주소, /v1 포함 필요 |
models.providers.newapi.apiKey | New API Token 키 |
models.providers.newapi.models | 모델 목록, 필요에 따라 여러 모델 추가 가능 |
agents.defaults.model.primary | 기본 주 모델, 형식은 provider/model-id |
agents.defaults.model.fallbacks | 대체 모델 목록, 주 모델을 사용할 수 없을 때 자동 전환 |
channels.lark.appId | Feishu 애플리케이션의 App ID, Feishu 오픈 플랫폼에서 획득 |
channels.lark.appSecret | Feishu 애플리케이션의 App Secret |
gateway.port | Gateway 리스닝 포트 |
gateway.auth.token | Gateway 접근 보안 Token |
서비스 시작
구성이 완료되면 OpenClaw를 시작합니다:
openclaw start시작 후 구성된 채널을 통해 AI 어시스턴트와 상호작용할 수 있습니다.
이 문서가 도움이 되었나요?
마지막 업데이트