MoleAPIMoleAPI
DocumentaciónInicio rápidoTutorial básico del sitio

Inicio rápido para desarrolladores

Completa tu primera llamada mínima funcional usando una interfaz compatible con OpenAI

Si vas a escribir tu propio código para integrar MoleAPI, recuerda primero estos dos puntos:

  • Base URL: https://api.moleapi.com/v1
  • Método de autenticación: Authorization: Bearer <YOUR_API_KEY>

La primera interfaz más habitual es:

  • POST /chat/completions

Paso 0: pon primero estos dos parámetros en el entorno

Se recomienda no escribir el API Key directamente en el código, sino colocarlo primero en variables de entorno.

PowerShell

$env:MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"

Bash / zsh

export MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"

Por qué usar primero variables de entorno

Así, al cambiar entre pruebas locales, CI y entorno de producción, solo tendrás que sustituir la configuración del entorno, sin modificar repetidamente el código fuente.

Ejemplo con cURL

Bash / zsh

curl https://api.moleapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $MOLEAPI_KEY" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [
      {"role": "user", "content": "你好,请用一句话介绍 MoleAPI。"}
    ]
  }'

PowerShell

$headers = @{
  "Content-Type" = "application/json"
  "Authorization" = "Bearer $env:MOLEAPI_KEY"
}

$body = @{
  model = "gpt-4o-mini"
  messages = @(
    @{
      role = "user"
      content = "你好,请用一句话介绍 MoleAPI。"
    }
  )
} | ConvertTo-Json -Depth 5

Invoke-RestMethod -Method Post `
  -Uri "https://api.moleapi.com/v1/chat/completions" `
  -Headers $headers `
  -Body $body

Si la solicitud se realiza correctamente, normalmente obtendrás una respuesta JSON que al menos incluirá:

  • id
  • model
  • choices[0].message.content

Si puedes ver que el modelo devuelve texto con normalidad, significa que el flujo mínimo de integración ya funciona correctamente.

Ejemplo mínimo en Python

from openai import OpenAI
import os

client = OpenAI(
    api_key=os.environ["MOLEAPI_KEY"],
    base_url="https://api.moleapi.com/v1",
)

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "你好,请返回一句接入成功提示。"}],
)

print(resp.choices[0].message.content)

Ejemplo mínimo en Node.js

import OpenAI from "openai";

async function main() {
  const client = new OpenAI({
    apiKey: process.env.MOLEAPI_KEY,
    baseURL: "https://api.moleapi.com/v1",
  });

  const resp = await client.chat.completions.create({
    model: "gpt-4o-mini",
    messages: [{ role: "user", content: "你好,请返回一句接入成功提示。" }],
  });

  console.log(resp.choices[0]?.message?.content);
}

main().catch(console.error);

Cuando lo ejecutes correctamente por primera vez, se recomienda validar solo estas 3 cosas

  1. La solicitud recibe una respuesta JSON válida
  2. El contenido devuelto no es un mensaje de error
  3. El nombre del modelo y el grupo que utilizas están disponibles actualmente

Cuando este paso sea estable, añade gradualmente:

  • Salida en streaming
  • Contexto más largo
  • Llamadas a herramientas
  • Capacidades multimodales como imágenes y audio

Orden mínimo recomendado para depuración

  1. Confirma primero que Base URL y la ruta sean correctas
  2. Después, confirma que el API Key sea válido y tenga permisos para el modelo objetivo
  3. Por último, verifica el nombre del modelo y el grupo actual

Se recomienda empezar por lo pequeño

Primero valida la integración con la solicitud más corta y, después, añade gradualmente contexto largo, salida en streaming y parámetros más complejos.

Si cURL funciona, pero el código de tu proyecto no

Esto normalmente indica que la plataforma en sí no tiene problemas; lo más probable es que el bloqueo esté en la capa de integración del proyecto. Revisa primero:

  • Si el código realmente está leyendo MOLEAPI_KEY
  • Si baseURL / base_url en la configuración del SDK sigue apuntando a otra plataforma
  • Si el código de negocio está concatenando de nuevo la dirección de la solicitud
  • Si el proxy, gateway o las variables de entorno del servidor son distintas de las del entorno local

Qué conviene revisar a continuación

Además de la interfaz tradicional de OpenAI chat/completions, algunos modelos de MoleAPI también admiten la interfaz más reciente responses de OpenAI, la interfaz de Gemini y la interfaz de solicitud de Anthropic. Para conocer la compatibilidad concreta y la forma de invocación, consulta la Referencia de API.

¿Te resultó útil esta guía?

Última actualización el

Volver al inicioPasarela