Démarrage rapide pour les développeurs
Effectuez votre premier appel minimal viable à l’aide d’une interface compatible OpenAI
Si vous prévoyez d’écrire vous-même le code pour intégrer MoleAPI, retenez d’abord ces deux éléments :
- Base URL :
https://api.moleapi.com/v1 - Méthode d’authentification :
Authorization: Bearer <YOUR_API_KEY>
Le premier endpoint le plus courant est :
POST /chat/completions
Étape 0 : placez d’abord les deux paramètres dans l’environnement
Il est recommandé de ne pas écrire l’API Key en dur directement dans le code, mais de la définir d’abord dans des variables d’environnement.
PowerShell
$env:MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"Bash / zsh
export MOLEAPI_KEY="sk-xxxxxxxxxxxxxxxx"Pourquoi utiliser d’abord des variables d’environnement
Ainsi, lorsque vous passez entre les tests locaux, le CI et l’environnement de production, il vous suffit de remplacer la configuration d’environnement sans modifier le code source à répétition.
Exemple cURL
Bash / zsh
curl https://api.moleapi.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $MOLEAPI_KEY" \
-d '{
"model": "gpt-4o-mini",
"messages": [
{"role": "user", "content": "你好,请用一句话介绍 MoleAPI。"}
]
}'PowerShell
$headers = @{
"Content-Type" = "application/json"
"Authorization" = "Bearer $env:MOLEAPI_KEY"
}
$body = @{
model = "gpt-4o-mini"
messages = @(
@{
role = "user"
content = "你好,请用一句话介绍 MoleAPI。"
}
)
} | ConvertTo-Json -Depth 5
Invoke-RestMethod -Method Post `
-Uri "https://api.moleapi.com/v1/chat/completions" `
-Headers $headers `
-Body $bodySi la requête réussit, vous obtiendrez généralement une réponse JSON qui contiendra au minimum :
idmodelchoices[0].message.content
Tant que vous voyez le modèle renvoyer du texte normalement, cela signifie que le chemin d’intégration minimal fonctionne déjà correctement.
Exemple minimal en Python
from openai import OpenAI
import os
client = OpenAI(
api_key=os.environ["MOLEAPI_KEY"],
base_url="https://api.moleapi.com/v1",
)
resp = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "你好,请返回一句接入成功提示。"}],
)
print(resp.choices[0].message.content)Exemple minimal en Node.js
import OpenAI from "openai";
async function main() {
const client = new OpenAI({
apiKey: process.env.MOLEAPI_KEY,
baseURL: "https://api.moleapi.com/v1",
});
const resp = await client.chat.completions.create({
model: "gpt-4o-mini",
messages: [{ role: "user", content: "你好,请返回一句接入成功提示。" }],
});
console.log(resp.choices[0]?.message?.content);
}
main().catch(console.error);Lors du premier test concluant, il est recommandé de ne vérifier que ces 3 points
- La requête reçoit bien une réponse JSON valide
- Le contenu renvoyé n’est pas un message d’erreur
- Le nom du modèle et le Group que vous utilisez sont actuellement disponibles
Une fois cette étape stabilisée, ajoutez progressivement :
- la sortie en streaming
- un contexte plus long
- l’appel d’outils
- des capacités multimodales comme les images et l’audio
Ordre minimal de dépannage
- Confirmez d’abord que la Base URL et le chemin sont corrects
- Vérifiez ensuite que l’API Key est valide et qu’elle dispose des droits sur le modèle cible
- Enfin, vérifiez le nom du modèle et le Group actuel
Commencez petit avant de monter en charge
Commencez par faire fonctionner la requête la plus courte, puis ajoutez progressivement un contexte plus long, la sortie en streaming et des paramètres plus complexes.
Si cURL fonctionne, mais pas le code de votre projet
Cela indique généralement que la plateforme elle-même n’a pas de problème ; le blocage se situe plus probablement au niveau de la couche d’intégration du projet. Vérifiez en priorité :
- si
MOLEAPI_KEYest bien réellement lu dans le code - si
baseURL/base_urldans la configuration du SDK pointe encore vers une autre plateforme - si le code métier effectue une seconde concaténation de l’adresse de requête
- si le proxy, le Gateway ou les variables d’environnement côté serveur diffèrent de l’environnement local
Que consulter ensuite
En plus de l’interface OpenAI classique chat/completions, certains modèles de MoleAPI prennent également en charge la nouvelle interface OpenAI responses, l’interface Gemini, ainsi que l’interface de requête d’Anthropic. Pour les détails de compatibilité et les modes d’appel, consultez la référence API.
Ce guide vous a-t-il aidé ?
Dernière mise à jour le