Partager via


Explorer les modèles Azure AI Foundry

Azure AI Foundry Models est votre destination unique pour découvrir, évaluer et déployer de puissants modèles IA, que vous construisiez un copilote personnalisé, générant un agent, améliorant une application existante ou explorant de nouvelles fonctionnalités d’IA.

Avec les modèles Foundry, vous pouvez :

  • Explorez un catalogue riche de modèles de pointe de Microsoft, OpenAI, DeepSeek, Hugging Face, Meta, etc.
  • Comparez et évaluez des modèles côte à côte à l’aide de tâches réelles et de vos propres données.
  • Déployez avec confiance, grâce à des outils intégrés pour l’optimisation, l’observabilité et l’IA responsable.
  • Choisissez votre chemin d’accès : apportez votre propre modèle, utilisez un modèle hébergé ou intégrez-en toute transparence aux services Azure.
  • Que vous soyez développeur, scientifique des données ou architecte d’entreprise, Foundry Models vous offre la flexibilité et le contrôle nécessaires pour créer des solutions IA qui s’adaptent de manière sécurisée, responsable et rapide.

Azure AI Foundry offre un catalogue complet de modèles IA. Il existe plus de 1900 modèles de base, modèles de raisonnement, modèles de petite langue, modèles modals, modèles spécifiques à un domaine, modèles industriels et bien plus encore.

Notre catalogue est organisé en deux catégories principales :

La compréhension de la distinction entre ces catégories vous aide à choisir les modèles appropriés en fonction de vos besoins spécifiques et de vos objectifs stratégiques.

Remarque

  • Pour tous les modèles, les clients restent responsables (i) de se conformer à la loi dans leur utilisation de n’importe quel modèle ou système ; (ii) examiner les descriptions des modèles dans le catalogue de modèles, les cartes de modèle rendues disponibles par le fournisseur de modèles et d’autres documents pertinents ; (iii) la sélection d’un modèle approprié pour leur cas d’usage, et (iv) l’implémentation de mesures appropriées (y compris l’utilisation d’Azure AI Content Safety) pour garantir que l’utilisation du client des services IA Microsoft est conforme à la stratégie d’utilisation acceptable dans les termes du produit de Microsoft et le code de conduite des services d’ia d’entreprise Microsoft.

Modèles vendus directement par Azure

Il s’agit de modèles hébergés et vendus par Microsoft en vertu des conditions du produit Microsoft. Microsoft a évalué ces modèles et ils sont profondément intégrés à l’écosystème IA d’Azure. Les modèles proviennent d’un large éventail de fournisseurs et offrent une intégration améliorée, des performances optimisées et un support Microsoft direct, y compris des contrats de niveau de service de niveau de service (SLA) de niveau de service d’entreprise.

Caractéristiques des modèles vendus directement par Azure :

  • Support disponible auprès de Microsoft.
  • Haut niveau d’intégration avec les services et l’infrastructure Azure.
  • Sous réserve d’une révision interne basée sur les normes d’IA responsable de Microsoft.
  • Les rapports de documentation et de transparence des modèles fournissent une visibilité des clients sur les risques, les atténuations et les limitations du modèle.
  • Scalabilité, fiabilité et sécurité de niveau entreprise.

Certains de ces modèles bénéficient également du débit provisionné fongible, ce qui signifie que vous pouvez utiliser de manière flexible votre quota et vos réservations sur l’un de ces modèles.

Modèles des partenaires et de la communauté

Ces modèles constituent la grande majorité des modèles Azure AI Foundry et sont fournis par des organisations tierces, partenaires, laboratoires de recherche et contributeurs communautaires approuvés. Ces modèles offrent des fonctionnalités d’IA spécialisées et diversifiées, couvrant un large éventail de scénarios, d’industries et d’innovations.

Les exemples de modèles des partenaires et de la communauté sont des modèles ouverts du hub Hugging Face. Il s'agit notamment de centaines de modèles du hub Hugging Face pour l'inférence en temps réel avec un calcul géré. Hugging Face crée et gère les modèles listés dans cette collection. Pour obtenir de l’aide sur les modèles Hugging Face, utilisez le forum Hugging Face ou le support Hugging Face. Découvrez comment déployer des modèles Hugging Face dans Déployer des modèles ouverts avec Azure AI Foundry.

Caractéristiques des modèles des partenaires et de la communauté :

  • Développé et pris en charge par des partenaires externes et des contributeurs communautaires
  • Diverses gammes de modèles spécialisés qui s’adressent à des niches ou à des cas d’usage larges
  • Généralement validé par les fournisseurs eux-mêmes, avec des instructions d’intégration fournies par Azure
  • Innovation pilotée par la communauté et disponibilité rapide des modèles de pointe
  • Intégration d’Azure AI standard, avec prise en charge et maintenance gérées par les fournisseurs respectifs

Les modèles des partenaires et de la communauté sont déployables en tant qu’options de déploiement d’API serverless ou de calcul managé. Le fournisseur de modèles sélectionne la façon dont les modèles sont déployables.

Demande d’un modèle à inclure dans le catalogue de modèles

Vous pouvez demander que nous ajoutions un modèle au catalogue de modèles, directement à partir de la page du catalogue de modèles dans le portail Azure AI Foundry. Dans la barre de recherche de la page du catalogue de modèles, une recherche d’un modèle qui n’existe pas dans le catalogue, tel que mymodel, retourne le bouton Demander un modèle . Sélectionnez ce bouton pour ouvrir un formulaire dans lequel vous pouvez partager des détails sur le modèle que vous demandez.

Capture d’écran montrant où demander l’inclusion d’un modèle dans le catalogue de modèles.

Choix entre des modèles directs et des modèles de partenaires et de communauté

Lorsque vous sélectionnez des modèles à partir de modèles Azure AI Foundry, tenez compte des éléments suivants :

  • Cas d’utilisation et exigences : les modèles vendus directement par Azure sont idéaux pour les scénarios nécessitant une intégration Approfondie d’Azure, une prise en charge garantie et des contrats SLA d’entreprise. Les modèles des partenaires et de la communauté excellent dans les cas d’usage spécialisés et les scénarios axés sur l’innovation.
  • Attentes en matière de support : les modèles vendus directement par Azure bénéficient d'un support et d'une maintenance robustes fournis par Microsoft. Ces modèles sont pris en charge par leurs fournisseurs, avec différents niveaux de sla et de structures de support.
  • Innovation et spécialisation : les modèles des partenaires et de la communauté offrent un accès rapide aux innovations spécialisées et aux capacités de niche souvent développées par des laboratoires de recherche de pointe et des fournisseurs d’IA émergents.

Vue d’ensemble des fonctionnalités du catalogue de modèles

Le catalogue de modèles du Portail Azure AI Foundry est le hub qui permet de découvrir et d’utiliser un large éventail de modèles pour créer des applications d’IA générative. Le catalogue de modèles comprend des centaines de modèles parmi des fournisseurs de modèles tels qu’Azure OpenAI, Mistral, Meta, Cohere, NVIDIA et Hugging Face, y compris les modèles que Microsoft a entraînés. Les modèles provenant de fournisseurs autres que Microsoft ne sont pas des produits Microsoft, tels que définis dans les conditions générales des produits Microsoft, et sont soumis aux conditions fournies avec les modèles.

Vous pouvez rechercher et découvrir des modèles qui répondent à vos besoins par le biais de la recherche et des filtres de mots clés. Le catalogue de modèles offre également le classement des performances du modèle et les métriques de benchmark pour les modèles sélectionnés. Vous pouvez y accéder en sélectionnant Parcourir le classement et comparer les modèles. Les données de benchmark sont également accessibles à partir de l’onglet Benchmark de la fiche du modèle.

Dans les filtres de catalogue de modèles, vous trouverez :

  • Collection : vous pouvez filtrer des modèles en fonction de la collection de fournisseurs de modèles.
  • Industrie : vous pouvez filtrer les modèles formés sur un jeu de données spécifique au secteur.
  • Fonctionnalités : vous pouvez filtrer des fonctionnalités de modèle uniques telles que le raisonnement et l’appel d’outils.
  • Options de déploiement : vous pouvez filtrer les modèles qui prennent en charge des options de déploiement spécifiques.
    • API serverless : cette option vous permet de payer par appel d’API.
    • Provisionné : adapté au scoring en temps réel pour un volume cohérent important.
    • Lot : adapté aux travaux de traitement par lots optimisés pour les coûts, et non à la latence. Aucune prise en charge du terrain de jeu n’est fournie pour le déploiement par lots.
    • Calcul managé : cette option vous permet de déployer un modèle sur une machine virtuelle Azure. Vous serez facturé pour l’hébergement et l’inférence.
  • Tâches d’inférence : vous pouvez filtrer des modèles en fonction du type de tâche d’inférence.
  • Ajuster les tâches : vous pouvez filtrer les modèles en fonction du type de tâche affiné.
  • Licences : vous pouvez filtrer des modèles en fonction du type de licence.

Sur la carte de modèle, vous trouverez :

  • En bref : vous trouverez des informations clés sur le modèle en un coup d’œil.
  • Détails : cette page contient les informations détaillées sur le modèle, notamment la description, les informations de version, le type de données pris en charge, etc.
  • Benchmarks : vous trouverez des métriques de benchmark de performances pour les modèles sélectionnés.
  • Déploiements existants : si vous avez déjà déployé le modèle, vous pouvez le trouver sous l’onglet Déploiements existants.
  • Licence : vous trouverez des informations légales relatives aux licences de modèles.
  • Artefacts : cet onglet s’affiche uniquement pour les modèles ouverts. Vous pouvez voir les ressources du modèle et les télécharger via l’interface utilisateur.

Déploiement de modèles : déploiements d’API en mode serverless et de calcul géré

Outre le déploiement sur Azure OpenAI, le catalogue de modèles offre deux façons distinctes de déployer des modèles pour votre utilisation : les déploiements d’API serverless et de calcul managés.

Les options et fonctionnalités de déploiement disponibles pour chaque modèle varient, comme vous pouvez le voir dans les tableaux suivants. Découvrez-en davantage sur le traitement des données avec les options de déploiement.

Fonctionnalités des options de déploiement de modèle

Fonctionnalités Capacité de calcul managée Déploiement d’API serverless
Expérience de déploiement et facturation Les pondérations de modèle sont déployées sur des machines virtuelles dédiées avec un calcul managé. Un calcul managé, qui peut avoir un ou plusieurs déploiements, met à disposition une API REST pour l’inférence. Vous êtes facturé pour les Heures cœur de machine virtuelle utilisées par les déploiements. L’accès aux modèles se fait via un déploiement qui approvisionne une API pour accéder au modèle. L’API fournit l’accès au modèle que Microsoft héberge et gère pour l’inférence. Vous êtes facturé pour les entrées et sorties vers les API, généralement en jetons. Les informations de tarification sont fournies avant le déploiement.
Authentification des API Clés et authentification Microsoft Entra. Clés uniquement.
Sécurité du contenu Utilisez les API du service Azure AI Sécurité du Contenu. Les filtres Azure AI Sécurité du Contenu sont intégrés aux API d’inférence. Les filtres Azure AI Sécurité du Contenu sont facturés séparément.
Isolement réseau Configurer des réseaux managés pour les hubs Azure AI Foundry. Le calcul managé suit le paramètre d’indicateur d’accès au réseau public (PNA) de votre hub. Pour plus d’informations, consultez la section Isolation réseau pour les modèles déployés via des déploiements d’API serverless plus loin dans cet article.

Modèles disponibles pour les options de déploiement prises en charge

Pour les modèles Azure OpenAI, consultez Azure OpenAI.

Pour afficher la liste des modèles pris en charge pour le déploiement d’API serverless ou Le calcul managé, accédez à la page d’accueil du catalogue de modèles dans Azure AI Foundry. Utilisez le filtre d’options de déploiement pour sélectionner le déploiement d’API serverless ou Le calcul managé.

Capture d’écran montrant comment filtrer par modèles de calcul managés dans le catalogue.

Diagramme montrant des MaaS (modèles en tant que service) et le cycle de service de calculs managés.

Cycle de vie des modèles : Dépréciation et retrait

Les modèles IA évoluent rapidement et quand une nouvelle version ou un nouveau modèle avec des fonctionnalités mises à jour dans la même famille de modèles deviennent disponibles, les modèles plus anciens peuvent être retirés du catalogue de modèles AI Foundry. Pour bénéficier d’une transition fluide vers une version de modèle plus récente, certains modèles offrent aux utilisateurs la possibilité d’activer les mises à jour automatiques. Pour en savoir plus sur le cycle de vie des différents modèles, les dates de retrait de modèle à venir et les suggestions de modèle et de version de remplacement, consultez :

Capacité de calcul managée

La capacité à déployer des modèles en tant que calcul managé s’appuie sur les fonctionnalités de plateforme d’Azure Machine Learning pour permettre une intégration fluide de la vaste collection de modèles dans le catalogue de modèles tout au long du cycle de vie des opérations des grands modèles de langage (LLM).

Diagramme montrant le cycle de vie des opérations de grands modèles de langage.

Disponibilité des modèles pour le déploiement en tant que calcul managé

Les modèles sont mis à disposition via les registres Azure Machine Learning. Ces registres offrent une approche axée sur le Machine Learning pour l’hébergement et la distribution des ressources Azure Machine Learning. Ces ressources incluent des pondérations de modèle, des runtimes de conteneur pour l’exécution des modèles, des pipelines pour l’évaluation et l’ajustement des modèles, ainsi que des jeux de données pour les benchmarks et les exemples.

Ces registres s’appuient sur une infrastructure hautement évolutive et prête pour l’entreprise qui :

  • Fournit des artefacts de modèle d’accès à faible latence à toutes les régions Azure avec la géoréplication intégrée.

  • Prend en charge les exigences de sécurité d’entreprise, notamment la limitation de l’accès aux modèles avec Azure Policy et la sécurisation du déploiement à l’aide de réseaux virtuels managés.

Déploiement de modèles pour l’inférence avec le calcul managé

Les modèles disponibles pour le déploiement vers le calcul managé peuvent être déployés sur un calcul managé Azure Machine Learning pour l’inférence en temps réel. Pour un déploiement sur le calcul managé, vous devez avoir un quota de machines virtuelles dans votre abonnement Azure pour les produits spécifiques dont vous avez besoin pour exécuter le modèle de manière optimale. Certains modèles vous permettent d’effectuer un déploiement sur un quota temporairement partagé pour les tests de modèle.

Découvrez-en davantage sur le déploiement de modèles :

Création d’applications d’IA générative avec le calcul managé

La fonctionnalité flux d’invite dans Azure Machine Learning offre une expérience idéale pour le prototypage. Vous pouvez utiliser des modèles déployés avec le calcul managé dans le flux d’invite avec l’outil Open Model LLM. Vous pouvez également utiliser l’API REST exposée par le calcul managé dans les outils LLM populaires tels que LangChain avec l’extension Azure Machine Learning.

Sécurité du contenu pour les modèles déployés en tant que calcul managé

Le service Azure AI Sécurité du Contenu est disponible pour une utilisation avec des calculs managés pour détecter différentes catégories de contenu dangereux, notamment le contenu sexuel, violent, haineux et d’automutilation. Vous pouvez également utiliser le service pour détecter des menaces avancées telles que la détection des risques de jailbreak et la détection de texte matériel protégé.

Vous pouvez vous référer à ce notebook pour une intégration de référence à Azure AI Sécurité du Contenu pour Llama 2. Vous pouvez également utiliser l’outil Sécurité du Contenu (texte) dans le flux d’invite pour passer des réponses du modèle à Azure AI Sécurité du Contenu à des fins de filtrage. Vous êtes facturé séparément pour cette utilisation, comme décrit dans la tarification d’Azure AI Sécurité du Contenu.

Facturation du déploiement d’API serverless

Vous pouvez déployer certains modèles dans le catalogue de modèles en utilisant la facturation API sans serveur. Cette méthode de déploiement, également appelée déploiement d’API serverless, permet de consommer les modèles en tant qu’API sans les héberger sur votre abonnement. Les modèles sont hébergés dans une infrastructure managée par Microsoft qui permet un accès basé sur l’API au modèle du fournisseur de modèles. L’accès basé sur l’API peut réduire drastiquement le coût d’accès à un modèle et simplifie l’expérience d’approvisionnement.

Les modèles disponibles pour le déploiement en tant que déploiements d’API serverless sont proposés par le fournisseur de modèles, mais ils sont hébergés dans une infrastructure Azure gérée par Microsoft et accessibles via l’API. Les fournisseurs de modèles définissent les termes du contrat de licence et définissent le prix d’utilisation de leurs modèles. Azure Machine Learning service :

  • Gère l’infrastructure d’hébergement.
  • Met à disposition les API d’inférence.
  • Agit en tant que processeur de données pour les prompts envoyés et le contenu généré en sortie par les modèles déployés via MaaS.

Découvrez-en davantage sur le traitement de données pour MaaS dans l’article sur la confidentialité des données.

Diagramme montrant le cycle de service de l’éditeur de modèle.

Remarque

Les abonnements CSP (Cloud Solution Provider) ne peuvent pas acheter de modèles de déploiement d'API serverless.

Facturation

L’expérience de découverte, d’abonnement et de consommation pour les modèles déployés via MaaS se trouve dans le Portail Azure AI Foundry et Azure Machine Learning studio. Les utilisateurs acceptent les termes du contrat de licence régissant l’utilisation des modèles. Les informations de tarification pour la consommation sont fournies pendant le déploiement.

Les modèles provenant de fournisseurs non-Microsoft sont facturés via la Place de marché Azure, conformément aux conditions d’utilisation de la place de marché commerciale Microsoft.

Les modèles de Microsoft sont facturés via des compteurs Azure en tant que services de consommation internes. Comme décrit dans les conditions du produit, vous achetez des services de consommation internes à l’aide de compteurs Azure, mais ils ne sont pas soumis aux conditions du service Azure. L’utilisation de ces modèles est soumise aux termes du contrat de licence fourni.

Réglage des modèles

Certains modèles prennent également en charge le réglage précis. Pour ces modèles, vous pouvez tirer parti du calcul managé (préversion) ou des déploiements d’API serverless pour adapter les modèles à l’aide de données que vous fournissez. Pour obtenir plus d’informations, consultez la vue d’ensemble de l’ajustement.

RAG avec des modèles déployés en tant que déploiements d’API serverless

Dans le portail Azure AI Foundry, vous pouvez utiliser des index vectoriels et la génération augmentée de récupération (RAG). Vous pouvez utiliser des modèles qui peuvent être déployés via des déploiements d’API serverless pour générer des incorporations et inférences basées sur des données personnalisées. Ces incorporations et inférences peuvent ensuite générer des réponses spécifiques à votre cas d’utilisation. Pour plus d’informations, consultez Créer et consommer des index vectoriels dans le portail Azure AI Foundry.

Disponibilité régionale des offres et des modèles

La facturation avec paiement par jeton est disponible uniquement pour les utilisateurs dont l’abonnement Azure appartient à un compte de facturation dans un pays/une région où le fournisseur de modèles a rendu l’offre disponible. Si l’offre est disponible dans la région concernée, les utilisateurs doivent disposer d’une ressource de projet dans la région Azure où le modèle est disponible pour le déploiement ou l’ajustement, le cas échéant. Consultez la disponibilité des régions pour les modèles dans les déploiements d’API serverless | Azure AI Foundry pour obtenir des informations détaillées.

Sécurité du contenu pour les modèles déployés via des déploiements d’API serverless

Pour les modèles de langage déployés via l’API serverless, Azure AI implémente une configuration par défaut des filtres de modération de texte Azure AI Content Safety qui détectent des contenus dangereux tels que la haine, l’auto-préjudice, le contenu sexuel et violent. Pour en savoir plus sur le filtrage de contenu, consultez Garde-fous & contrôles pour les modèles vendus directement par Azure.

Conseil / Astuce

Le filtrage de contenu n’est pas disponible pour certains types de modèles déployés via l’API serverless. Ces types de modèles incluent des modèles d’incorporation et des modèles de série chronologique.

Le filtrage de contenu se produit de façon synchrone lorsque le service traite les invites pour générer du contenu. Vous pouvez être facturé séparément conformément à la tarification d’Azure AI Sécurité du Contenu pour cette utilisation. Vous pouvez désactiver le filtrage de contenu pour des points de terminaison serverless individuels :

  • Au moment où vous déployez un modèle de langage pour la première fois
  • Ultérieurement, en sélectionnant le bouton bascule de filtrage du contenu dans la page des détails du déploiement

Supposons que vous décidez d’utiliser une API autre que l’API d’inférence de modèle pour travailler avec un modèle déployé via une API serverless. Dans ce cas, le filtrage de contenu n’est pas activé, sauf si vous l’implémentez séparément à l’aide d’Azure AI Content Safety.

Pour bien démarrer avec Azure AI Sécurité du Contenu, consultez Démarrage rapide : Analyser le contenu d’un texte. Si vous n’utilisez pas de filtrage de contenu lors de l’utilisation de modèles déployés via l’API serverless, vous risquez davantage d’exposer les utilisateurs à du contenu dangereux.

Isolation réseau pour les modèles déployés via des déploiements d’API serverless

Les points de terminaison des modèles déployés en tant que déploiements d’API serverless suivent le paramètre de l'indicateur d’accès réseau public du hub Azure AI Foundry qui contient le projet où se trouve le déploiement. Pour sécuriser votre déploiement d’API serverless, désactivez l’indicateur d’accès réseau public sur votre hub Azure AI Foundry. Vous pouvez sécuriser la communication entrante d’un client vers votre point de terminaison à l’aide d’un point de terminaison privé pour le hub.

Pour définir l’indicateur d’accès au réseau public pour le hub Azure AI Foundry :

  • Accédez au portail Azure.
  • Recherchez le groupe de ressources auquel le hub appartient, puis sélectionnez votre hub Azure AI Foundry dans les ressources listées pour ce groupe de ressources.
  • Dans la page de présentation du hub, dans le volet de gauche, accédez à Paramètres>Mise en réseau.
  • Sous l’onglet Accès public, vous pouvez configurer les paramètres de l’indicateur d’accès au réseau public.
  • Enregistrez vos modifications. Vos modifications peuvent prendre jusqu’à cinq minutes pour se propager.

Limites

  • Si vous disposez d’un hub Azure AI Foundry avec un point de terminaison privé créé avant le 11 juillet 2024, les déploiements d’API serverless ajoutés aux projets dans ce hub ne suivent pas la configuration réseau du hub. Au lieu de cela, vous devez créer un point de terminaison privé pour le hub et créer un déploiement d’API serverless dans le projet afin que les nouveaux déploiements puissent suivre la configuration réseau du hub.

  • Si vous avez un hub Azure AI Foundry avec des déploiements MaaS créés avant le 11 juillet 2024 et que vous activez un point de terminaison privé sur ce hub, les déploiements serverless des API existants ne suivront pas la configuration de mise en réseau du hub. Pour que les déploiements d’API serverless dans le hub suivent la configuration de mise en réseau du hub, vous devez recréer les déploiements.

  • Actuellement, la prise en charge d’Azure OpenAI sur vos données n’est pas disponible pour les déploiements serverless des APIs dans des hubs privés, car l’indicateur d’accès au réseau public est désactivé sur les hubs privés.

  • Toute modification apportée à la configuration réseau (par exemple, l’activation ou la désactivation de l’indicateur d’accès au réseau public) peut prendre jusqu’à cinq minutes pour se propager.