Generative Language API
Mit der Gemini API können Entwickler Anwendungen mit generativer KI mithilfe von Gemini-Modellen erstellen. Gemini ist unser leistungsstärkstes Modell, das von Grund auf multimodal konzipiert wurde. Es kann generalisieren und problemlos verschiedene Arten von Informationen wie Sprache, Bilder, Audio, Video und Code verstehen, verarbeiten und kombinieren. Sie können die Gemini API für Anwendungsfälle wie das Ableiten von Text und Bildern, die Generierung von Inhalten, Dialog-Agents, Zusammenfassungs- und Klassifizierungssysteme und vieles mehr verwenden.
- REST-Ressource: v1beta.batches
- REST-Ressource: v1beta.cachedContents
- REST-Ressource: v1beta.corpora
- REST-Ressource: v1beta.corpora.documents
- REST-Ressource: v1beta.corpora.documents.chunks
- REST-Ressource: v1beta.corpora.operations
- REST-Ressource: v1beta.corpora.permissions
- REST-Ressource: v1beta.dynamic
- REST-Ressource: v1beta.files
- REST-Ressource: v1beta.generatedFiles
- REST-Ressource: v1beta.generatedFiles.operations
- REST-Ressource: v1beta.media
- REST-Ressource: v1beta.models
- REST-Ressource: v1beta.models.operations
- REST-Ressource: v1beta.ragStores
- REST-Ressource: v1beta.ragStores.documents
- REST-Ressource: v1beta.ragStores.operations
- REST-Ressource: v1beta.ragStores.upload.operations
- REST-Ressource: v1beta.tunedModels
- REST-Ressource: v1beta.tunedModels.operations
- REST-Ressource: v1beta.tunedModels.permissions
Dienst: generativelanguage.googleapis.com
Wir empfehlen, diesen Dienst mit den von Google bereitgestellten Clientbibliotheken aufzurufen. Wenn deine Anwendung diesen Dienst mit deinen eigenen Bibliotheken aufrufen muss, solltest du die folgenden Informationen verwenden, wenn du die API-Anfragen sendest.
Dienstendpunkt
Ein Dienstendpunkt ist eine Basis-URL, die die Netzwerkadresse eines API-Dienstes angibt. Ein Dienst kann mehrere Dienstendpunkte haben. Dieser Dienst hat den folgenden Dienstendpunkt und alle nachstehenden URIs beziehen sich auf ihn:
https://generativelanguage.googleapis.com
REST-Ressource: v1beta.batches
Methoden | |
---|---|
cancel |
POST /v1beta/{name=batches/*}:cancel Startet den asynchronen Abbruch eines lang andauernden Vorgangs. |
delete |
DELETE /v1beta/{name=batches/*} Löscht einen Vorgang mit langer Ausführungszeit. |
get |
GET /v1beta/{name=batches/*} Ruft den letzten Status eines Vorgangs mit langer Ausführungszeit ab. |
list |
GET /v1beta/{name=batches} Listet Vorgänge auf, die zu dem angegebenen Filter in der Anfrage passen. |
updateEmbedContentBatch |
PATCH /v1beta/{embedContentBatch.name=batches/*}:updateEmbedContentBatch Aktualisiert eine Gruppe von EmbedContent-Anfragen für die Batchverarbeitung. |
updateGenerateContentBatch |
PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch Aktualisiert einen Batch von GenerateContent-Anfragen für die Batchverarbeitung. |
REST-Ressource: v1beta.cachedContents
Methoden | |
---|---|
create |
POST /v1beta/cachedContents Erstellt eine CachedContent-Ressource. |
delete |
DELETE /v1beta/{name=cachedContents/*} Löscht die CachedContent-Ressource. |
get |
GET /v1beta/{name=cachedContents/*} Liest die CachedContent-Ressource. |
list |
GET /v1beta/cachedContents Listet CachedContents auf. |
patch |
PATCH /v1beta/{cachedContent.name=cachedContents/*} Aktualisiert die CachedContent-Ressource (nur das Ablaufdatum kann aktualisiert werden). |
REST-Ressource: v1beta.files
Methoden | |
---|---|
delete |
DELETE /v1beta/{name=files/*} Löscht die File . |
get |
GET /v1beta/{name=files/*} Ruft die Metadaten für die angegebene File ab. |
list |
GET /v1beta/files Listet die Metadaten für File auf, die dem anfragenden Projekt gehören. |
REST-Ressource: v1beta.media
Methoden | |
---|---|
upload |
POST /v1beta/{ragStoreName=ragStores/*}:uploadToRagStore POST /upload/v1beta/{ragStoreName=ragStores/*}:uploadToRagStore Lädt Daten in einen RagStore hoch, verarbeitet sie vor und teilt sie in Chunks auf, bevor sie in einem RagStore-Dokument gespeichert werden. |
REST-Ressource: v1beta.models
Methoden | |
---|---|
asyncBatchEmbedContent |
POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent Stellt einen Batch von EmbedContent -Anfragen für die Batchverarbeitung in die Warteschlange. |
batchEmbedContents |
POST /v1beta/{model=models/*}:batchEmbedContents Generiert mehrere Einbettungsvektoren aus der Eingabe Content , die aus einem Batch von Strings besteht, die als EmbedContentRequest -Objekte dargestellt werden. |
batchEmbedText |
POST /v1beta/{model=models/*}:batchEmbedText Generiert mehrere Einbettungen aus dem Modell, wenn in einem synchronen Aufruf Eingabetext angegeben wird. |
batchGenerateContent |
POST /v1beta/{batch.model=models/*}:batchGenerateContent Stellt einen Batch von GenerateContent -Anfragen für die Batchverarbeitung in die Warteschlange. |
countMessageTokens |
POST /v1beta/{model=models/*}:countMessageTokens Führt den Tokenizer eines Modells für einen String aus und gibt die Anzahl der Tokens zurück. |
countTextTokens |
POST /v1beta/{model=models/*}:countTextTokens Führt den Tokenizer eines Modells für einen Text aus und gibt die Anzahl der Tokens zurück. |
countTokens |
POST /v1beta/{model=models/*}:countTokens Führt den Tokenizer eines Modells für die Eingabe Content aus und gibt die Anzahl der Tokens zurück. |
embedContent |
POST /v1beta/{model=models/*}:embedContent Generiert einen Texteinbettungsvektor aus der Eingabe Content mit dem angegebenen Gemini-Einbettungsmodell. |
embedText |
POST /v1beta/{model=models/*}:embedText Generiert eine Einbettung aus dem Modell anhand einer Eingabenachricht. |
generateContent |
POST /v1beta/{model=models/*}:generateContent Generiert eine Modellantwort für die Eingabe GenerateContentRequest . |
generateMessage |
POST /v1beta/{model=models/*}:generateMessage Generiert eine Antwort des Modells anhand einer Eingabe MessagePrompt . |
generateText |
POST /v1beta/{model=models/*}:generateText Generiert eine Antwort des Modells auf eine Eingabenachricht. |
get |
GET /v1beta/{name=models/*} Ruft Informationen zu einem bestimmten Model ab, z. B. die Versionsnummer, Tokenlimits, Parameter und andere Metadaten. |
list |
GET /v1beta/models Listet die Model s auf, die über die Gemini API verfügbar sind. |
predict |
POST /v1beta/{model=models/*}:predict Führt eine Vorhersageanfrage aus. |
predictLongRunning |
POST /v1beta/{model=models/*}:predictLongRunning Identisch mit „Predict“, gibt aber einen LRO zurück. |
streamGenerateContent |
POST /v1beta/{model=models/*}:streamGenerateContent Generiert eine gestreamte Antwort vom Modell für eine Eingabe GenerateContentRequest . |