[go: up one dir, main page]

Aller au contenu

La passerelle proxy LiteLLM fournit une API compatible OpenAI pour exécuter des modèles localement. Configurez les clés LITELLM_... pour définir la clé et, éventuellement, l’URL de base.

Utilisez le fournisseur litellm.

.env
LITELLM_API_KEY="..."
#LITELLM_API_BASE="..."