MoleAPIMoleAPI
DokumentationSchnellstartGrundlegende Tutorials innerhalb der Plattform

Schneller Einstieg für Entwickler

Den ersten minimal funktionsfähigen Aufruf mit einer OpenAI-kompatiblen Schnittstelle durchführen

Wenn du MoleAPI mit eigenem Code integrieren möchtest, merke dir zuerst diese beiden Punkte:

  • Base URL:https://api.moleapi.com/v1
  • Authentifizierungsmethode:Authorization: Bearer <YOUR_API_KEY>

Die häufigste erste Schnittstelle ist:

  • POST /chat/completions

Schritt 0: Lege zuerst zwei Parameter in der Umgebung ab

Es wird empfohlen, den API Key nicht direkt hart im Code zu hinterlegen, sondern ihn zuerst in einer Umgebungsvariable zu speichern.

PowerShell

$env:MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"

Bash / zsh

export MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"

Warum zuerst Umgebungsvariablen verwenden

So musst du beim Wechsel zwischen lokalen Tests, CI und Produktionsumgebung nur die Umgebungskonfiguration austauschen und nicht ständig den Quellcode ändern.

cURL-Beispiel

Bash / zsh

curl https://api.moleapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $MOLEAPI_KEY" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [
      {"role": "user", "content": "你好,请用一句话介绍 MoleAPI。"}
    ]
  }'

PowerShell

$headers = @{
  "Content-Type" = "application/json"
  "Authorization" = "Bearer $env:MOLEAPI_KEY"
}

$body = @{
  model = "gpt-4o-mini"
  messages = @(
    @{
      role = "user"
      content = "你好,请用一句话介绍 MoleAPI。"
    }
  )
} | ConvertTo-Json -Depth 5

Invoke-RestMethod -Method Post `
  -Uri "https://api.moleapi.com/v1/chat/completions" `
  -Headers $headers `
  -Body $body

Wenn die Anfrage erfolgreich ist, erhältst du in der Regel eine JSON-Antwort, die mindestens Folgendes enthält:

  • id
  • model
  • choices[0].message.content

Wenn du sehen kannst, dass das Modell normal Text zurückgibt, ist der minimale Integrationspfad erfolgreich durchlaufen.

Minimales Python-Beispiel

from openai import OpenAI
import os

client = OpenAI(
    api_key=os.environ["MOLEAPI_KEY"],
    base_url="https://api.moleapi.com/v1",
)

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "你好,请返回一句接入成功提示。"}],
)

print(resp.choices[0].message.content)

Minimales Node.js-Beispiel

import OpenAI from "openai";

async function main() {
  const client = new OpenAI({
    apiKey: process.env.MOLEAPI_KEY,
    baseURL: "https://api.moleapi.com/v1",
  });

  const resp = await client.chat.completions.create({
    model: "gpt-4o-mini",
    messages: [{ role: "user", content: "你好,请返回一句接入成功提示。" }],
  });

  console.log(resp.choices[0]?.message?.content);
}

main().catch(console.error);

Beim ersten erfolgreichen Testlauf solltest du nur diese 3 Dinge prüfen

  1. Die Anfrage erhält eine normale JSON-Antwort
  2. Der Rückgabeinhalt ist keine Fehlermeldung
  3. Der von dir verwendete Modellname und die Group sind aktuell verfügbar

Sobald dieser Schritt stabil läuft, kannst du schrittweise Folgendes ergänzen:

  • Streaming-Ausgabe
  • Längerer Kontext
  • Tool-Aufrufe
  • Multimodale Fähigkeiten wie Bilder und Audio

Minimale Reihenfolge zur Fehlerbehebung

  1. Zuerst prüfen, ob Base URL und Pfad korrekt sind
  2. Danach prüfen, ob der API Key gültig ist und Berechtigungen für das Zielmodell besitzt
  3. Abschließend Modellname und aktuelle Group abgleichen

Empfehlung: erst klein, dann größer

Führe den ersten erfolgreichen Test zuerst mit der kürzesten Anfrage durch und ergänze dann schrittweise langen Kontext, Streaming-Ausgabe und komplexere Parameter.

Wenn cURL funktioniert, aber dein Projektcode nicht

Das bedeutet in der Regel, dass mit der Plattform selbst alles in Ordnung ist und das Problem eher in der Integrationsebene des Projekts liegt. Prüfe bevorzugt folgende Punkte:

  • Ob im Code MOLEAPI_KEY tatsächlich eingelesen wird
  • Ob baseURL / base_url in der SDK-Konfiguration noch auf eine andere Plattform zeigt
  • Ob der Request-Pfad im Anwendungscode noch einmal zusammengesetzt wird
  • Ob Proxy, Gateway oder Server-Umgebungsvariablen von der lokalen Umgebung abweichen

Was du dir als Nächstes ansehen solltest

Zusätzlich zur klassischen OpenAI-Schnittstelle chat/completions unterstützen einige Modelle von MoleAPI auch die neueste OpenAI-Schnittstelle responses, die Gemini-Schnittstelle sowie die Request-Schnittstelle von Anthropic. Details zur Unterstützung und zur Aufrufweise findest du in der API-Referenz.

War diese Anleitung hilfreich?

Zuletzt aktualisiert am

Zur StartseiteGateway