Génération de texte : Chat Completions #
Tous nos modèles de LLMs / Génération de texte suivent le standard “Chat Completions” popularisé par OpenAI.
Avec une liste de messages constituant une conversation, le modèle renverra une réponse.
Il y a plusieurs façons d'utiliser les modèles de génération de texte :
- Le chat interactif depuis notre site web.
- Avec des requêtes directement au point de terminaison correspondant de l'API HTTP en utilisant votre outil préféré, votre langage de programmation, ou avec les libraries clientes pour l'API d'OpenAI.
En utilisant la méthode HTTP POST
, le point de terminaison pour les modèles de texte est : https://api.ektos.ai/v1/chat/completions
Lors de la création d'une requête vers ce point de terminaison, sélectionnez le modèle que vous souhaitez utiliser avec le paramètre model
.
Les modèles disponibles sont listés ici (type : LLM
).
Pour obtenir une réponse en continu, définissez le paramètre stream
à true
.
Une description détaillée des paramètres disponibles se trouve dans la spécification de référence de l'API.
Vous trouverez ci-dessous des exemples de base utilisant cuRL et les librairies clientes officielles d'OpenAI pour Python et Node.JS.
Des exemples dans d'autres langages de programmation sont disponibles dans la spécification de référence de l'API (utilisez le menu déroulant en haut à droite de l'exemple de bloc de code) : Lien.
cuRL #
1curl --request POST \
2 --url https://api.ektos.ai/v1/chat/completions \
3 --header "Authorization: Bearer $EKTOS_API_KEY" \
4 --header "Content-Type: application/json" \
5 -d '{
6 "model": "phi-3-mini-4k-instruct",
7 "messages": [
8 {
9 "role": "user",
10 "content": "Bonjour, comment pouvez-vous m '\''aider?"
11 }
12 ]
13 }'
Python: librairie cliente OpenAI #
1import os
2from openai import OpenAI
3client = OpenAI(
4 base_url="https://api.ektos.ai/v1/",
5 api_key="YOUR_EKTOS_API_KEY_HERE"
6 # api_key=os.environ.get("EKTOS_API_KEY")
7)
8
9completion = client.chat.completions.create(
10 model="phi-3-mini-4k-instruct",
11 messages=[
12 {"role": "user", "content": "Bonjour, comment pouvez-vous m'aider?"}
13 ]
14)
15
16print(completion.choices[0].message)
JavaScript: librairie cliente OpenAI Node.JS #
1import OpenAI from "openai";
2
3const openai = new OpenAI({
4 apiKey: "$EKTOS_API_KEY",
5 baseURL: 'https://api.ektos.ai/v1/',
6});
7
8async function main() {
9 const completion = await openai.chat.completions.create({
10 messages: [
11 { role: "user", content: "Bonjour, comment pouvez-vous m'aider?" }
12 ],
13 model: "phi-3-mini-4k-instruct"
14 });
15
16 console.log(completion.choices[0].message);
17}
18main();