MoleAPIMoleAPI
DocumentationDémarrage rapideTutoriel de base du site

Démarrage rapide pour les développeurs

Effectuez votre premier appel minimal viable à l’aide d’une interface compatible OpenAI

Si vous prévoyez d’écrire vous-même le code pour intégrer MoleAPI, retenez d’abord ces deux éléments :

  • Base URL : https://api.moleapi.com/v1
  • Méthode d’authentification : Authorization: Bearer <YOUR_API_KEY>

Le premier endpoint le plus courant est :

  • POST /chat/completions

Étape 0 : placez d’abord les deux paramètres dans l’environnement

Il est recommandé de ne pas écrire l’API Key en dur directement dans le code, mais de la définir d’abord dans des variables d’environnement.

PowerShell

$env:MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"

Bash / zsh

export MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"

Pourquoi utiliser d’abord des variables d’environnement

Ainsi, lorsque vous passez entre les tests locaux, le CI et l’environnement de production, il vous suffit de remplacer la configuration d’environnement sans modifier le code source à répétition.

Exemple cURL

Bash / zsh

curl https://api.moleapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $MOLEAPI_KEY" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [
      {"role": "user", "content": "你好,请用一句话介绍 MoleAPI。"}
    ]
  }'

PowerShell

$headers = @{
  "Content-Type" = "application/json"
  "Authorization" = "Bearer $env:MOLEAPI_KEY"
}

$body = @{
  model = "gpt-4o-mini"
  messages = @(
    @{
      role = "user"
      content = "你好,请用一句话介绍 MoleAPI。"
    }
  )
} | ConvertTo-Json -Depth 5

Invoke-RestMethod -Method Post `
  -Uri "https://api.moleapi.com/v1/chat/completions" `
  -Headers $headers `
  -Body $body

Si la requête réussit, vous obtiendrez généralement une réponse JSON qui contiendra au minimum :

  • id
  • model
  • choices[0].message.content

Tant que vous voyez le modèle renvoyer du texte normalement, cela signifie que le chemin d’intégration minimal fonctionne déjà correctement.

Exemple minimal en Python

from openai import OpenAI
import os

client = OpenAI(
    api_key=os.environ["MOLEAPI_KEY"],
    base_url="https://api.moleapi.com/v1",
)

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "你好,请返回一句接入成功提示。"}],
)

print(resp.choices[0].message.content)

Exemple minimal en Node.js

import OpenAI from "openai";

async function main() {
  const client = new OpenAI({
    apiKey: process.env.MOLEAPI_KEY,
    baseURL: "https://api.moleapi.com/v1",
  });

  const resp = await client.chat.completions.create({
    model: "gpt-4o-mini",
    messages: [{ role: "user", content: "你好,请返回一句接入成功提示。" }],
  });

  console.log(resp.choices[0]?.message?.content);
}

main().catch(console.error);

Lors du premier test concluant, il est recommandé de ne vérifier que ces 3 points

  1. La requête reçoit bien une réponse JSON valide
  2. Le contenu renvoyé n’est pas un message d’erreur
  3. Le nom du modèle et le Group que vous utilisez sont actuellement disponibles

Une fois cette étape stabilisée, ajoutez progressivement :

  • la sortie en streaming
  • un contexte plus long
  • l’appel d’outils
  • des capacités multimodales comme les images et l’audio

Ordre minimal de dépannage

  1. Confirmez d’abord que la Base URL et le chemin sont corrects
  2. Vérifiez ensuite que l’API Key est valide et qu’elle dispose des droits sur le modèle cible
  3. Enfin, vérifiez le nom du modèle et le Group actuel

Commencez petit avant de monter en charge

Commencez par faire fonctionner la requête la plus courte, puis ajoutez progressivement un contexte plus long, la sortie en streaming et des paramètres plus complexes.

Si cURL fonctionne, mais pas le code de votre projet

Cela indique généralement que la plateforme elle-même n’a pas de problème ; le blocage se situe plus probablement au niveau de la couche d’intégration du projet. Vérifiez en priorité :

  • si MOLEAPI_KEY est bien réellement lu dans le code
  • si baseURL / base_url dans la configuration du SDK pointe encore vers une autre plateforme
  • si le code métier effectue une seconde concaténation de l’adresse de requête
  • si le proxy, le Gateway ou les variables d’environnement côté serveur diffèrent de l’environnement local

Que consulter ensuite

En plus de l’interface OpenAI classique chat/completions, certains modèles de MoleAPI prennent également en charge la nouvelle interface OpenAI responses, l’interface Gemini, ainsi que l’interface de requête d’Anthropic. Pour les détails de compatibilité et les modes d’appel, consultez la référence API.

Ce guide vous a-t-il aidé ?

Dernière mise à jour le

Retour à l’accueilPasserelle