Detete e bloqueie conteúdo de violência, ódio, teor sexual e autoflagelação. Configure limiares de gravidade para o seu caso de utilização específico e cumpra as suas políticas de IA responsável.
Crie filtros de conteúdo únicos ajustados aos seus requisitos com categorias personalizadas. Prepare rapidamente uma nova categoria personalizada ao fornecer exemplos de conteúdo que precisa de bloquear.
Proteja as suas aplicações de IA contra ataques de injeção de pedidos e tentativas de desbloqueio por jailbreak. Identifique e mitigue ameaças diretas e indiretas com escudos de pedidos.
Desenvolva aplicações de IA com segurança incorporada
Detete e mitigue conteúdo prejudicial em entradas e saídas geradas pelo utilizadores e por IA, incluindo texto, imagens e multimédia mista, tudo com a Segurança de conteúdo de IA do Azure.
Casos de utilização
Salvaguarde as suas aplicações de IA
Desenvolva proteções para aplicações de IA generativa
Utilize IA para monitorizar conteúdo gerado por seres humanos
Segurança
Segurança e conformidade incorporadas
34 000
Engenheiros com equivalência de tempo inteiro dedicados a iniciativas de segurança na Microsoft.
15 000
Parceiros com conhecimentos em segurança especializados.
>100
Certificações de conformidade, incluindo mais de 50 específicas de regiões e países globais.
Crie e inove mais rapidamente com os produtos do Azure AI
Utilize a Segurança de conteúdo de IA do Azure com outros produtos do Azure AI para criar proteções avançadas para IA generativa ou para desenvolver soluções abrangentes com ferramentas de IA responsável incorporadas.
Azure OpenAI
Crie o seu próprio copiloto e aplicações de IA generativa com modelos de linguagem e visão de ponta.
Veja como os clientes estão a proteger as suas aplicações com a Segurança de conteúdo de IA do Azure
"O Departamento de Educação da Austrália Meridional lançou um chatbot educativo com tecnologia de IA generativa para incorporar em segurança a tecnologia de IA nas salas de aula."
"A ASOS está a utilizar IA generativa para elevar a experiência dos clientes, permitindo que os utilizadores descubram novos looks de moda sem esforço. A Segurança de conteúdo de IA do Azure ajuda a garantir interações e saídas de alta qualidade."
"A Unity desenvolveu o Muse Chat para melhorar o processo de criação de jogos. Para garantir uma utilização responsável, a Unity utiliza filtros de conteúdo Azure OpenAI com tecnologia Azure AI Content Safety."
"A IWill Therapy utilizou IA generativa para criar um chatbot em hindi que fornece terapia comportamental cognitiva em toda a Índia. A solução usa a Segurança de conteúdo de IA do Azure para detetar e filtrar conteúdo potencialmente prejudicial."
Começar a utilizar a Segurança de conteúdo de IA do Azure
Relatório
Personalizar a IA generativa para obter um valor único
Obtenha informações de peritos sobre como a personalização de modelos de IA está a ajudar as principais empresas do mundo a promover mais valor neste novo relatório da Microsoft e da MIT Technology Review Insights.
Os modelos de Segurança de Conteúdo foram especificamente preparados e testados nos seguintes idiomas: inglês, alemão, espanhol, japonês, francês, italiano, português e chinês. O serviço também pode funcionar noutros idiomas, mas a qualidade pode variar. Em todos os casos, deve fazer os seus próprios testes para garantir que funciona para a sua aplicação.
Atualmente, as categorias personalizadas funcionam bem apenas em inglês. Pode utilizar outros idiomas com o seu próprio conjunto de dados, mas a qualidade pode variar.
O sistema monitoriza em quatro categorias de danos: ódio, teor sexual, violência e autoflagelação.
Sim, pode ajustar os limiares de gravidade para cada filtro de categoria de dano.
Sim, pode utilizar a API de categorias personalizadas da Segurança de conteúdo de IA do Azure para criar os seus próprios filtros de conteúdo. Ao fornecer exemplos, pode preparar o filtro para detetar e bloquear conteúdo indesejável específico das categorias personalizadas definidas por si.
Os escudos de pedidos melhoram a segurança dos sistemas de IA generativa ao defenderem contra ataques de injeção de pedidos:
Ataques de pedidos diretos (jailbreaks): Os utilizadores tentam manipular o sistema de IA e contornar protocolos de segurança ao criar pedidos que tentam alterar as regras do sistema ou levar o modelo a executar ações restritas.
Ataques indiretos: Conteúdo de terceiros, como documentos ou e-mails, contêm instruções ocultas para explorar o sistema de IA, como comandos incorporados que uma IA pode executar involuntariamente.
A deteção de verdade identifica e corrige as saídas sem fundamento dos modelos de IA generativa, garantindo que se baseiam nos materiais de origem fornecidos. Isto ajuda a impedir a geração de informações inventadas ou falsas. Ao utilizar um modelo de linguagem personalizado, a deteção de verdade avalia as afirmações em relação aos dados de origem e mitiga as alucinações de IA.
A deteção de material protegido para texto identifica e bloqueia conteúdo de texto conhecido, como letras, artigos, receitas e conteúdo Web selecionado, para não aparecer em saídas geradas por IA.
A deteção de material protegido para código deteta e impede a saída de código conhecido. Verifica se há correspondências com o código fonte público em repositórios do GitHub. Além disso, a capacidade de referência de código possibilitada pelo GitHub Copilot permite aos programadores localizar repositórios para explorar e descobrir código relevante.
O sistema de filtragem de conteúdos no Azure OpenAI é alimentado pelo Azure AI Content Safety. Foi concebido para detetar e impedir a saída de conteúdo prejudicial em pedidos de entrada e conclusão de saída. Funciona juntamente com modelos principais, incluindo GPT e DALL-E.