Journalisation structurée en Go avec slog pour l'observabilité et l'alerting

Journalisation structurée en Go avec slog pour l'observabilité et l'alerting

Journaux JSON interrogeables connectés aux traces.

Les journaux (logs) sont une interface de débogage que vous pouvez encore utiliser lorsque le système est en feu. Le problème, c’est que les journaux texte brut vieillissent mal : dès que vous avez besoin de filtrage, d’agrégation et d’alertes, vous commencez à parser des phrases.

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.

Embeddings de texte pour RAG et recherche - Python, Ollama, API compatibles OpenAI

Embeddings de texte pour RAG et recherche - Python, Ollama, API compatibles OpenAI

Intégration RAG - Python, Ollama, API OpenAI.

Si vous travaillez sur la génération augmentée par récupération (RAG), cette section explique les incorporations de texte (text embeddings) en termes simples : ce qu’elles sont, comment elles s’intègrent dans la recherche et la récupération, et comment appeler deux configurations locales courantes depuis Python en utilisant Ollama ou une API HTTP compatible OpenAI (comme le font de nombreux serveurs basés sur llama.cpp).

Netlify pour Hugo et les sites statiques : tarification, offre gratuite et alternatives

Netlify pour Hugo et les sites statiques : tarification, offre gratuite et alternatives

Déploiements basés sur Git, CDN, crédits et compromis.

Netlify est l’une des méthodes les plus adaptées aux développeurs pour déployer des sites Hugo et des applications web modernes avec un flux de travail de niveau production : URLs de prévisualisation pour chaque demande de fusion (pull request), déploiements atomiques, un CDN mondial et des capacités serverless et edge optionnelles.

Prise en main rapide du sélecteur de modèles llama.swap pour les LLM locaux compatibles avec OpenAI

Prise en main rapide du sélecteur de modèles llama.swap pour les LLM locaux compatibles avec OpenAI

Remplacement à chaud des LLM locaux sans modifier les clients.

Bientôt, vous jonglerez avec vLLM, llama.cpp et bien plus encore — chaque pile fonctionnant sur son propre port. Tout le reste de votre infrastructure souhaite toujours une URL de base unique /v1 ; sinon, vous finissez par réorganiser constamment les ports, les profils et les scripts ponctuels. llama-swap est le proxy /v1 qui précède ces piles.