Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Azure AI Foundry Models tillämpar standardsäkerhet på alla modeller, exklusive ljudmodeller som Whisper i Azure OpenAI i Foundry Models. De här konfigurationerna ger dig en ansvarsfull upplevelse som standard.
Standardsäkerhet syftar till att minska risker som hat och rättvisa, sexuellt, våld, självskadebeteende, skyddat materialinnehåll och användarinmatningsattacker. Mer information om innehållsfiltrering finns i avsnittet om riskkategorier och allvarlighetsnivåer.
I den här artikeln beskrivs standardsäkerhetskonfigurationen.
Tips/Råd
Standardkonfigurationen gäller för alla modeller. Du kan dock konfigurera innehållsfiltrering per modelldistribution enligt beskrivningen i Konfigurera innehållsfilter.
Textmodeller
Textmodeller i Azure AI Foundry Models kan ta in och generera både text och kod. Dessa modeller använder Azures modeller för textinnehållsfiltrering för att identifiera och förhindra skadligt innehåll. Det här systemet fungerar både när du frågar och slutför.
| Riskkategori | Fråga/slutföra | Tröskelvärde för allvarlighetsgrad |
|---|---|---|
| Hat och rättvisa | Frågor och slutföranden | Medel |
| Våld | Frågor och slutföranden | Medel |
| Sexuell | Frågor och slutföranden | Medel |
| Självskadebeteende | Frågor och slutföranden | Medel |
| Användarinmatningsattack (Jailbreak) | Uppmaningar | Inte tillgänglig |
| Skyddat material – text | Kompletteringar | Inte tillgänglig |
| Skyddat material – kod | Kompletteringar | Inte tillgänglig |
Vision och chatta med visionsmodeller
Visionsmodeller kan ta både text och bilder samtidigt som en del av indata. Standardfunktionerna för innehållsfiltrering varierar beroende på modell och leverantör.
Azure OpenAI: GPT-4o och GPT-4 Turbo
| Riskkategori | Fråga/slutföra | Tröskelvärde för allvarlighetsgrad |
|---|---|---|
| Hat och rättvisa | Frågor och slutföranden | Medel |
| Våld | Frågor och slutföranden | Medel |
| Sexuell | Frågor och slutföranden | Medel |
| Självskadebeteende | Frågor och slutföranden | Medel |
| Identifiering av individer och slutsatsdragning av känsliga attribut | Uppmaningar | Inte tillgänglig |
| Användarinmatningsattack (Jailbreak) | Uppmaningar | Inte tillgänglig |
Azure OpenAI: DALL-E 3 och DALL-E 2
| Riskkategori | Fråga/slutföra | Tröskelvärde för allvarlighetsgrad |
|---|---|---|
| Hat och rättvisa | Frågor och slutföranden | Låg |
| Våld | Frågor och slutföranden | Låg |
| Sexuell | Frågor och slutföranden | Låg |
| Självskadebeteende | Frågor och slutföranden | Låg |
| Autentiseringsuppgifter för innehåll | Kompletteringar | Inte tillgänglig |
| Bedräglig generation av politiska kandidater | Uppmaningar | Inte tillgänglig |
| Skildringar av offentliga figurer | Uppmaningar | Inte tillgänglig |
| Användarinmatningsattack (Jailbreak) | Uppmaningar | Inte tillgänglig |
| Skyddat material – Konst och Studio-tecken | Uppmaningar | Inte tillgänglig |
| Olämpligt språk | Uppmaningar | Inte tillgänglig |
Utöver de tidigare säkerhetskonfigurationerna levereras Azure OpenAI DALL-E också med snabbomvandling som standard. Denna omvandling sker på alla uppmaningar för att förbättra säkerheten för din ursprungliga uppmaning, särskilt i riskkategorierna för mångfald, bedräglig generation av politiska kandidater, skildringar av offentliga personer, skyddat material och andra.
Meta: Llama-3.2-11B-Vision-Instruct och Llama-3.2-90B-Vision-Instruct
Innehållsfilter gäller endast för textprompter och slutföranden. Innehållsmoderering gäller inte för bilder.