Dela via


Standardprinciper för skyddsräcken och kontroller för Azure AI Foundry-modeller

Azure AI Foundry Models tillämpar standardsäkerhet på alla modeller, exklusive ljudmodeller som Whisper i Azure OpenAI i Foundry Models. De här konfigurationerna ger dig en ansvarsfull upplevelse som standard.

Standardsäkerhet syftar till att minska risker som hat och rättvisa, sexuellt, våld, självskadebeteende, skyddat materialinnehåll och användarinmatningsattacker. Mer information om innehållsfiltrering finns i avsnittet om riskkategorier och allvarlighetsnivåer.

I den här artikeln beskrivs standardsäkerhetskonfigurationen.

Tips/Råd

Standardkonfigurationen gäller för alla modeller. Du kan dock konfigurera innehållsfiltrering per modelldistribution enligt beskrivningen i Konfigurera innehållsfilter.

Textmodeller

Textmodeller i Azure AI Foundry Models kan ta in och generera både text och kod. Dessa modeller använder Azures modeller för textinnehållsfiltrering för att identifiera och förhindra skadligt innehåll. Det här systemet fungerar både när du frågar och slutför.

Riskkategori Fråga/slutföra Tröskelvärde för allvarlighetsgrad
Hat och rättvisa Frågor och slutföranden Medel
Våld Frågor och slutföranden Medel
Sexuell Frågor och slutföranden Medel
Självskadebeteende Frågor och slutföranden Medel
Användarinmatningsattack (Jailbreak) Uppmaningar Inte tillgänglig
Skyddat material – text Kompletteringar Inte tillgänglig
Skyddat material – kod Kompletteringar Inte tillgänglig

Vision och chatta med visionsmodeller

Visionsmodeller kan ta både text och bilder samtidigt som en del av indata. Standardfunktionerna för innehållsfiltrering varierar beroende på modell och leverantör.

Azure OpenAI: GPT-4o och GPT-4 Turbo

Riskkategori Fråga/slutföra Tröskelvärde för allvarlighetsgrad
Hat och rättvisa Frågor och slutföranden Medel
Våld Frågor och slutföranden Medel
Sexuell Frågor och slutföranden Medel
Självskadebeteende Frågor och slutföranden Medel
Identifiering av individer och slutsatsdragning av känsliga attribut Uppmaningar Inte tillgänglig
Användarinmatningsattack (Jailbreak) Uppmaningar Inte tillgänglig

Azure OpenAI: DALL-E 3 och DALL-E 2

Riskkategori Fråga/slutföra Tröskelvärde för allvarlighetsgrad
Hat och rättvisa Frågor och slutföranden Låg
Våld Frågor och slutföranden Låg
Sexuell Frågor och slutföranden Låg
Självskadebeteende Frågor och slutföranden Låg
Autentiseringsuppgifter för innehåll Kompletteringar Inte tillgänglig
Bedräglig generation av politiska kandidater Uppmaningar Inte tillgänglig
Skildringar av offentliga figurer Uppmaningar Inte tillgänglig
Användarinmatningsattack (Jailbreak) Uppmaningar Inte tillgänglig
Skyddat material – Konst och Studio-tecken Uppmaningar Inte tillgänglig
Olämpligt språk Uppmaningar Inte tillgänglig

Utöver de tidigare säkerhetskonfigurationerna levereras Azure OpenAI DALL-E också med snabbomvandling som standard. Denna omvandling sker på alla uppmaningar för att förbättra säkerheten för din ursprungliga uppmaning, särskilt i riskkategorierna för mångfald, bedräglig generation av politiska kandidater, skildringar av offentliga personer, skyddat material och andra.

Meta: Llama-3.2-11B-Vision-Instruct och Llama-3.2-90B-Vision-Instruct

Innehållsfilter gäller endast för textprompter och slutföranden. Innehållsmoderering gäller inte för bilder.

Nästa steg