Gemini API verwendet Firebase AI Logic

Mit den Gemini-Modellen und Firebase AI Logic KI-basierte Mobil- und Web-Apps und ‑Funktionen erstellen

Mit Firebase AI Logic erhalten Sie Zugriff auf die neuesten auf generativer KI basierenden Modelle von Google: die Gemini-Modelle.

Wenn Sie die Gemini API direkt über Ihre mobile App oder Web-App aufrufen müssen – anstatt serverseitig –, können Sie die Firebase AI Logic-Client-SDKs verwenden. Diese Client-SDKs wurden speziell für die Verwendung mit mobilen Apps und Webanwendungen entwickelt und bieten Sicherheitsoptionen gegen nicht autorisierte Clients sowie Integrationen mit anderen Firebase-Diensten.

Diese Client-SDKs sind in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar.

Mit diesen Client-SDKs können Sie Apps KI-Personalisierung hinzufügen, einen KI-Chat erstellen, KI-basierte Optimierungen und Automatisierungen entwickeln und vieles mehr.

Jetzt starten

Hauptmerkmale

Multimodale Eingabe und Eingabe in natürlicher Sprache Die Gemini-Modelle sind multimodal. Prompts, die an Gemini API gesendet werden, können also Text, Bilder, PDFs, Videos und Audio enthalten. Einige Gemini-Modelle können auch multimodale Ausgaben generieren.

Die Gemini-Modelle können mit Eingaben in natürlicher Sprache aufgefordert werden.

Wachsende Anzahl von Funktionen Mit den SDKs können Sie die Gemini API direkt aus Ihrer mobilen App oder Web-App aufrufen, um KI-Chatfunktionen zu entwickeln, Bilder zu generieren, Tools wie Funktionsaufrufe und Fundierung mit der Google Suche zu verwenden und multimodale Ein- und Ausgaben (einschließlich Audio) zu streamen.
Sicherheit und Schutz vor Missbrauch für Produktions-Apps Verwenden Sie Firebase App Check, um die APIs, die auf die Gemini-Modelle zugreifen, vor Missbrauch durch nicht autorisierte Clients zu schützen.

Firebase AI Logic hat standardmäßig auch Ratenlimits pro Nutzer, die vollständig konfigurierbar sind.

Robuste Infrastruktur Nutzen Sie die skalierbare Infrastruktur, die für die Verwendung mit mobilen Apps und Webanwendungen entwickelt wurde, z. B. Dateien mit Cloud Storage for Firebase verwalten, strukturierte Daten mit Firebase-Datenbankangeboten wie Cloud Firestore verwalten und Laufzeitkonfigurationen dynamisch mit Firebase Remote Config festlegen.

Funktionsweise

Firebase AI Logic bietet Client-SDKs, einen Proxydienst und andere Funktionen, mit denen Sie auf die generativen KI-Modelle von Google zugreifen können, um KI-Funktionen in Ihren mobilen Apps und Web-Apps zu entwickeln.

Unterstützung für Google-Modelle und Gemini API-Anbieter

Wir unterstützen alle aktuellen Gemini-Modelle. Sie wählen Ihren bevorzugten Gemini API-Anbieter aus, um auf diese Modelle zuzugreifen. Wir unterstützen sowohl Gemini Developer API als auch Vertex AI Gemini API. Unterschiede zwischen den beiden API-Anbietern

Wenn Sie sich für die Verwendung von Gemini Developer API entscheiden, können Sie das kostenlose Kontingent nutzen, um schnell loszulegen.

Mobile und Webclient-SDKs

Sie senden Anfragen mit unseren Firebase AI Logic-Client-SDKs direkt von Ihrer mobilen App oder Web-App an die Modelle. Die SDKs sind in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar.

Wenn Sie beide Gemini API-Anbieter in Ihrem Firebase-Projekt eingerichtet haben, können Sie zwischen den API-Anbietern wechseln, indem Sie die andere API aktivieren und einige Zeilen Initialisierungscode ändern.

Außerdem bieten mehrere unserer Client-SDKs Zugriff auf Hybrid- und On-Device-Inferenz. Mit dieser Konfiguration kann Ihre App das On-Device-Modell verwenden, wenn es verfügbar ist, und bei Bedarf nahtlos auf das in der Cloud gehostete Modell zurückgreifen (und umgekehrt).

Proxy-Dienst

Unser Proxydienst fungiert als Gateway zwischen dem Client und dem von Ihnen ausgewählten Gemini API-Anbieter (und den Modellen von Google). Es bietet Dienste und Integrationen, die für mobile Apps und Web-Apps wichtig sind. Sie können beispielsweise Firebase App Check einrichten, um Ihren ausgewählten API-Anbieter und Ihre Backend-Ressourcen vor Missbrauch durch nicht autorisierte Clients zu schützen.

Das ist besonders wichtig, wenn Sie sich für die Verwendung von Gemini Developer API entschieden haben, da unser Proxyservice und diese App Check-Integration dafür sorgen, dass Ihr Gemini-API-Schlüssel auf dem Server verbleibt und nicht in den Code Ihrer Apps eingebettet ist.

Vorgehensweise bei der Implementierung

Firebase-Projekt einrichten und App mit Firebase verbinden Richten Sie Ihr Projekt mit dem geführten Workflow auf der Seite Firebase AI Logic der Firebase-Konsole ein. Dazu gehört, die erforderlichen APIs für den ausgewählten Gemini API-Anbieter zu aktivieren, Ihre App in Ihrem Firebase-Projekt zu registrieren und dann die Firebase-Konfiguration zu Ihrer App hinzuzufügen.
SDK installieren und initialisieren Installieren Sie das Firebase AI Logic SDK, das für die Plattform Ihrer App spezifisch ist, initialisieren Sie den Dienst und erstellen Sie eine Modellinstanz in Ihrer App.
Prompt-Anfragen an die Gemini-Modelle senden Mit den SDKs können Sie reine Text- oder multimodale Prompts an ein Gemini-Modell senden, um Text und Code, strukturierte Ausgaben (wie JSON) und Bilder zu generieren.

Mit Multi-Turn-Unterhaltungen, bidirektionalem Streaming (einschließlich Audio) und Funktionsaufrufen können Sie noch bessere Nutzererlebnisse schaffen.

Für die Produktion vorbereiten Implementieren Sie wichtige Integrationen für mobile Apps und Web-Apps, z. B. den Schutz der API vor Missbrauch mit Firebase App Check und die Verwendung von Firebase Remote Config, um Parameter in Ihrem Code remote zu aktualisieren (vor allem den Modellnamen).

Nächste Schritte

Erste Schritte beim Zugriff auf ein Modell über Ihre Mobil- oder Web-App

Zum Startleitfaden

Weitere Informationen zu den unterstützten Modellen

Verfügbare Modelle für verschiedene Anwendungsfälle, Kontingente und Preise