Models

Le point de terminaison "models" vous permet de lister de manière programmatique les modèles disponibles et de récupérer des métadonnées étendues telles que les fonctionnalités compatibles et la taille de la fenêtre de contexte. Pour en savoir plus, consultez le guide des modèles.

Méthode: models.get

Récupère des informations sur un Model spécifique, comme son numéro de version, ses limites de jeton, ses paramètres et d'autres métadonnées. Pour en savoir plus sur les modèles, consultez le guide des modèles Gemini.

Point de terminaison

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Paramètres de chemin d'accès

name string

Obligatoire. Nom de la ressource du modèle.

Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list.

Format: models/{model} Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête doit être vide.

Exemple de requête

Python

import google.generativeai as genai

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Coquille Rose

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de Model.

Méthode: models.list

Répertorie les Model disponibles via l'API Gemini.

Point de terminaison

get https://generativelanguage.googleapis.com/v1beta/models

Paramètres de requête

pageSize integer

Nombre maximal de Models à renvoyer (par page).

Si ce paramètre n'est pas spécifié, 50 modèles sont renvoyés par page. Cette méthode ne renvoie pas plus de 1 000 modèles par page, même si vous transmettez une valeur de pageSize plus élevée.

pageToken string

Jeton de page reçu d'un appel models.list précédent.

Indiquez le pageToken renvoyé par une requête en tant qu'argument de la requête suivante pour récupérer la page suivante.

Lors de la pagination, tous les autres paramètres fournis à models.list doivent correspondre à l'appel ayant fourni le jeton de page.

Corps de la requête

Le corps de la requête doit être vide.

Exemple de requête

Python

import google.generativeai as genai

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Coquille Rose

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Corps de la réponse

Réponse de ListModel contenant une liste paginée de modèles.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
models[] object (Model)

Modèles renvoyés.

nextPageToken string

Jeton pouvant être envoyé en tant que pageToken pour récupérer la page suivante.

Si ce champ est omis, il n'y a plus de pages.

Représentation JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Ressource REST: modèles

Ressource : Modèle

Informations sur un modèle de langage génératif.

Champs
name string

Obligatoire. Nom de la ressource du Model. Pour connaître toutes les valeurs autorisées, consultez Variantes de modèle.

Format: models/{model} avec une convention d'attribution de noms {model}:

  • "{baseModelId}-{version}"

Exemples :

  • models/gemini-1.5-flash-001
baseModelId string

Obligatoire. Nom du modèle de base. Transmettez-le à la requête de génération.

Exemples :

  • gemini-1.5-flash
version string

Obligatoire. Numéro de version du modèle.

Représente la version majeure (1.0 ou 1.5)

displayName string

Nom lisible du modèle. Exemple : "Gemini 1.5 Flash".

Le nom peut comporter jusqu'à 128 caractères et inclure n'importe quel caractère UTF-8.

description string

Brève description du modèle.

inputTokenLimit integer

Nombre maximal de jetons d'entrée autorisé pour ce modèle.

outputTokenLimit integer

Nombre maximal de jetons de sortie disponibles pour ce modèle.

supportedGenerationMethods[] string

Méthodes de génération compatibles avec le modèle.

Les noms de méthode d'API correspondants sont définis comme des chaînes en casse Pascal, telles que generateMessage et generateContent.

temperature number

Contrôle le caractère aléatoire de la sortie.

Les valeurs peuvent être supérieures à [0.0,maxTemperature] (inclus). Une valeur plus élevée produit des réponses plus variées, tandis qu'une valeur plus proche de 0.0 entraîne généralement des réponses moins surprenantes du modèle. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.

maxTemperature number

Température maximale que ce modèle peut utiliser.

topP number

Pour l'échantillonnage Nucleus.

L'échantillonnage du noyau prend en compte le plus petit ensemble de jetons dont la somme des probabilités est d'au moins topP. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.

topK integer

Pour l'échantillonnage top-k.

L'échantillonnage top-k prend en compte l'ensemble des topK jetons les plus probables. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle. Si ce champ est vide, cela signifie que le modèle n'utilise pas l'échantillonnage top-k et que topK n'est pas autorisé en tant que paramètre de génération.

Représentation JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}