Créez des garde-fous robustes pour l’IA générative
Détectez et bloquez les contenus violents, haineux, à caractère sexuel et relatifs à l’automutilation. Configurez des seuils de gravité pour votre cas d’utilisation spécifique et respectez vos stratégies d’IA responsable.
Créez des filtres de contenu uniques adaptés à vos besoins à l’aide de catégories personnalisées. Entraînez rapidement une nouvelle catégorie personnalisée en fournissant des exemples de contenu que vous devez bloquer.
Protégez vos applications IA contre les attaques par injection de prompt et les tentatives de jailbreak. Identifiez et atténuez les menaces directes et indirectes avec des boucliers de prompts.
Identifiez et corrigez les modèles d’IA générative et assurez-vous que les sorties sont fiables, précises et ancrées dans les données avec la détection de l’ancrage dans la réalité.
Identifiez le contenu protégé par des droits d’auteur et fournissez des sources pour le texte et le code préexistants avec la détection de matériel protégé.
Développez des applications IA avec la sécurité intégrée
Détectez et atténuez le contenu dangereux dans les entrées et sorties générées par l’IA et par l’utilisateur, y compris le texte, les images et les médias mixtes, le tout avec Azure AI Sécurité du Contenu.
Cas d’utilisation
Protégez vos applications IA
Développez des garde-fous pour les applications d’IA générative
Utilisez l’intelligence artificielle pour superviser le contenu généré par l’homme
Sécurité
Sécurité et conformité intégrées
34 000
Ingénieurs équivalents temps plein dédiés aux initiatives de sécurité chez Microsoft.
15 000
Partenaires disposant d’une expertise spécialisée en sécurité.
>100
Certifications de conformité, dont plus de 50 spécifiques à des régions et pays dans le monde.
Créez et innovez plus rapidement avec des produits Azure AI
Utilisez Azure AI Sécurité du Contenu avec d’autres produits Azure AI pour créer des garde-fous avancés pour l’IA générative ou pour développer des solutions complètes avec des outils d’IA responsable intégrés.
Azure OpenAI
Créez vos propres applications de copilote et d’IA générative avec des modèles de langage et de vision de pointe.
Développez des solutions IA plus rapidement grâce à des modèles préconstruits et personnalisables, en utilisant vos données pour innover à grande échelle.
Découvrez comment les clients protègent leurs applications avec Azure AI Sécurité du Contenu
"Le South Australia Department for Education a lancé un chatbot pédagogique basé sur l’IA générative pour incorporer en toute sécurité la technologie IA dans les salles de classe."
"ASOS utilise l’IA générative pour faire passer son expérience client au niveau supérieur, ce qui permet aux utilisateurs de découvrir sans effort de nouveaux looks tendance. IA Azure Content Safety contribue à garantir des interactions et des résultats de qualité supérieure."
"Unity a développé Muse Chat pour améliorer son processus de création de jeu. Pour garantir une utilisation responsable, Unity utilise des filtres de contenu Service Azure OpenAI avec Azure AI Sécurité du Contenu."
"IWill Therapy a utilisé l’IA générative pour créer un chatbot en hindi qui fournit une thérapie cognitive comportementale dans toute l’Inde. La solution utilise Azure AI Sécurité du Contenu pour détecter et filtrer du contenu potentiellement dangereux."
Personnalisation de l’IA générative pour une valeur unique
Obtenez des informations d’experts sur la façon dont la personnalisation des modèles d’IA aide les plus grandes entreprises du monde à créer plus de valeur dans ce nouveau rapport de Microsoft et MIT Technology Review Insights.
Les modèles de sécurité du Contenu ont été spécifiquement entraînés et testés dans les langues suivantes : anglais, allemand, espagnol, japonais, français, italien, portugais et chinois. Le service peut également fonctionner dans d’autres langues, mais la qualité peut varier. Dans tous les cas, vous devez effectuer vos propres tests pour vous assurer qu’il fonctionne pour votre application.
Actuellement, les catégories personnalisées fonctionnent en anglais uniquement. Vous pouvez utiliser d’autres langues avec votre propre jeu de données, mais la qualité peut varier.
Le système surveille quatre catégories de danger : la haine, le sexe, la violence et l’automutilation.
Oui, vous pouvez ajuster les seuils de gravité pour chaque filtre de catégorie de danger.
Oui, vous pouvez utiliser l’API de catégories personnalisées Azure AI Sécurité du Contenu pour créer vos propres filtres de contenu. En fournissant des exemples, vous pouvez entraîner le filtre à détecter et bloquer du contenu indésirable spécifique à vos catégories personnalisées définies.
Les boucliers de prompts renforcent la sécurité des systèmes d’IA générative en se défendant contre les attaques par injection de prompt :
Attaques par prompt direct (jailbreaks) : Les utilisateurs essaient de manipuler le système IA et de contourner les protocoles de sécurité en créant des prompts qui tentent de modifier les règles système ou d’inciter le modèle à exécuter des actions restreintes.
Attaques indirectes : Le contenu tiers, comme des documents ou des courriels, contient des instructions masquées pour exploiter le système d’IA de manière malveillante, telles que des commandes incorporées qu’une IA peut exécuter sans le savoir.
La détection de l’ancrage dans la réalité identifie et corrige les sorties non ancrées des modèles d’IA générative, en veillant à ce qu’elles soient basées sur les supports sources fournis. Cela permet d’empêcher la génération d’informations falsifiées ou fausses. À l’aide d’un modèle de langage personnalisé, la détection de l’ancrage dans la réalité évalue les revendications par rapport aux données sources et atténue les hallucinations de l’IA.
La détection de matériel protégé pour le texte identifie et empêche l’affichage dans les sorties générées par l’IA du contenu de texte connu, tel que des paroles, des recettes et du contenu web sélectionné.
La détection de matériel protégé pour le code détecte et empêche la sortie du code connu. Elle vérifie les correspondances par rapport au code source public dans les référentiels GitHub. En outre, la fonctionnalité de référencement de code avec GitHub Copilot permet aux développeurs de localiser des référentiels pour explorer et découvrir du code pertinent.
Le système de filtrage de contenu à l'intérieur d’Azure OpenAI est alimenté par Azure AI Sécurité du Contenu. Il est conçu pour détecter et empêcher la sortie de contenu dangereux dans les prompts d’entrée et les sorties générées. Il fonctionne avec les modèles principaux, y compris GPT et DALL-E.
Parcourez le hub de solutions professionnelles Microsoft pour trouver les produits et solutions qui peuvent aider votre organisation à atteindre ses objectifs.