All methods

Generative Language API

Mit der Gemini API können Entwickler Anwendungen mit generativer KI mithilfe von Gemini-Modellen erstellen. Gemini ist unser leistungsstärkstes Modell, das von Grund auf multimodal konzipiert wurde. Es kann generalisieren und problemlos verschiedene Arten von Informationen wie Sprache, Bilder, Audio, Video und Code verstehen, verarbeiten und kombinieren. Sie können die Gemini API für Anwendungsfälle wie das Ableiten von Text und Bildern, die Generierung von Inhalten, Dialog-Agents, Zusammenfassungs- und Klassifizierungssysteme und vieles mehr verwenden.

Dienst: generativelanguage.googleapis.com

Wir empfehlen, diesen Dienst mit den von Google bereitgestellten Clientbibliotheken aufzurufen. Wenn deine Anwendung diesen Dienst mit deinen eigenen Bibliotheken aufrufen muss, solltest du die folgenden Informationen verwenden, wenn du die API-Anfragen sendest.

Dienstendpunkt

Ein Dienstendpunkt ist eine Basis-URL, die die Netzwerkadresse eines API-Dienstes angibt. Ein Dienst kann mehrere Dienstendpunkte haben. Dieser Dienst hat den folgenden Dienstendpunkt und alle nachstehenden URIs beziehen sich auf ihn:

  • https://generativelanguage.googleapis.com

REST-Ressource: v1beta.batches

Methoden
cancel POST /v1beta/{name=batches/*}:cancel
Startet den asynchronen Abbruch eines lang andauernden Vorgangs.
delete DELETE /v1beta/{name=batches/*}
Löscht einen Vorgang mit langer Ausführungszeit.
get GET /v1beta/{name=batches/*}
Ruft den letzten Status eines Vorgangs mit langer Ausführungszeit ab.
list GET /v1beta/{name=batches}
Listet Vorgänge auf, die zu dem angegebenen Filter in der Anfrage passen.
updateEmbedContentBatch PATCH /v1beta/{embedContentBatch.name=batches/*}:updateEmbedContentBatch
Aktualisiert eine Gruppe von EmbedContent-Anfragen für die Batchverarbeitung.
updateGenerateContentBatch PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch
Aktualisiert einen Batch von GenerateContent-Anfragen für die Batchverarbeitung.

REST-Ressource: v1beta.cachedContents

Methoden
create POST /v1beta/cachedContents
Erstellt eine CachedContent-Ressource.
delete DELETE /v1beta/{name=cachedContents/*}
Löscht die CachedContent-Ressource.
get GET /v1beta/{name=cachedContents/*}
Liest die CachedContent-Ressource.
list GET /v1beta/cachedContents
Listet CachedContents auf.
patch PATCH /v1beta/{cachedContent.name=cachedContents/*}
Aktualisiert die CachedContent-Ressource (nur das Ablaufdatum kann aktualisiert werden).

REST-Ressource: v1beta.files

Methoden
delete DELETE /v1beta/{name=files/*}
Löscht die File.
get GET /v1beta/{name=files/*}
Ruft die Metadaten für die angegebene File ab.
list GET /v1beta/files
Listet die Metadaten für File auf, die dem anfragenden Projekt gehören.

REST-Ressource: v1beta.media

Methoden
upload POST /v1beta/{ragStoreName=ragStores/*}:uploadToRagStore
POST /upload/v1beta/{ragStoreName=ragStores/*}:uploadToRagStore
Lädt Daten in einen RagStore hoch, verarbeitet sie vor und teilt sie in Chunks auf, bevor sie in einem RagStore-Dokument gespeichert werden.

REST-Ressource: v1beta.models

Methoden
asyncBatchEmbedContent POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent
Stellt einen Batch von EmbedContent-Anfragen für die Batchverarbeitung in die Warteschlange.
batchEmbedContents POST /v1beta/{model=models/*}:batchEmbedContents
Generiert mehrere Einbettungsvektoren aus der Eingabe Content, die aus einem Batch von Strings besteht, die als EmbedContentRequest-Objekte dargestellt werden.
batchEmbedText POST /v1beta/{model=models/*}:batchEmbedText
Generiert mehrere Einbettungen aus dem Modell, wenn in einem synchronen Aufruf Eingabetext angegeben wird.
batchGenerateContent POST /v1beta/{batch.model=models/*}:batchGenerateContent
Stellt einen Batch von GenerateContent-Anfragen für die Batchverarbeitung in die Warteschlange.
countMessageTokens POST /v1beta/{model=models/*}:countMessageTokens
Führt den Tokenizer eines Modells für einen String aus und gibt die Anzahl der Tokens zurück.
countTextTokens POST /v1beta/{model=models/*}:countTextTokens
Führt den Tokenizer eines Modells für einen Text aus und gibt die Anzahl der Tokens zurück.
countTokens POST /v1beta/{model=models/*}:countTokens
Führt den Tokenizer eines Modells für die Eingabe Content aus und gibt die Anzahl der Tokens zurück.
embedContent POST /v1beta/{model=models/*}:embedContent
Generiert einen Texteinbettungsvektor aus der Eingabe Content mit dem angegebenen Gemini-Einbettungsmodell.
embedText POST /v1beta/{model=models/*}:embedText
Generiert eine Einbettung aus dem Modell anhand einer Eingabenachricht.
generateContent POST /v1beta/{model=models/*}:generateContent
Generiert eine Modellantwort für die Eingabe GenerateContentRequest.
generateMessage POST /v1beta/{model=models/*}:generateMessage
Generiert eine Antwort des Modells anhand einer Eingabe MessagePrompt.
generateText POST /v1beta/{model=models/*}:generateText
Generiert eine Antwort des Modells auf eine Eingabenachricht.
get GET /v1beta/{name=models/*}
Ruft Informationen zu einem bestimmten Model ab, z. B. die Versionsnummer, Tokenlimits, Parameter und andere Metadaten.
list GET /v1beta/models
Listet die Models auf, die über die Gemini API verfügbar sind.
predict POST /v1beta/{model=models/*}:predict
Führt eine Vorhersageanfrage aus.
predictLongRunning POST /v1beta/{model=models/*}:predictLongRunning
Identisch mit „Predict“, gibt aber einen LRO zurück.
streamGenerateContent POST /v1beta/{model=models/*}:streamGenerateContent
Generiert eine gestreamte Antwort vom Modell für eine Eingabe GenerateContentRequest.