Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Important
Översättningar som inte är engelska tillhandahålls endast för enkelhetens skull. Se versionen EN-US av det här dokumentet för den slutgiltiga versionen.
Den här artikeln innehåller information om hur data som tillhandahålls av dig till Azure Direct Models i Azure AI Foundry bearbetas, används och lagras. Azure Direct Model innebär en AI-modell som har utsetts och distribuerats som en "Azure Direct Model" i Azure AI Foundry och innehåller Azure OpenAI-modeller. Azure Direct Models lagrar och bearbetar data för att tillhandahålla tjänsten och övervaka användningar som strider mot tillämpliga produktvillkor. Se även Microsoft Products and Services Data Protection Addendum, som styr databehandling av Azure Direct Models. Azure AI Foundry är en Azure-tjänst. läs mer om tillämpliga Azure-efterlevnadserbjudanden.
Important
Dina frågor (indata) och slutföranden (utdata), dina inbäddningar och dina träningsdata:
- är INTE tillgängliga för andra kunder.
- är INTE tillgängliga för OpenAI eller andra Azure Direct Model-leverantörer.
- används INTE av Azure Direct Model-leverantörer för att förbättra sina modeller eller tjänster.
- används INTE för att träna generativa AI-grundmodeller utan din tillåtelse eller instruktion.
Dina finjusterade Azure Direct-modeller är endast tillgängliga för din användning.
Azure AI Foundry är en Azure-tjänst. Microsoft är värd för Azure Direct Models i Microsofts Azure-miljö och Azure Direct Models interagerar INTE med några tjänster som drivs av Azure Direct Model-leverantörer, till exempel OpenAI (t.ex. ChatGPT eller OpenAI API).
Vilka data bearbetar Azure AI Foundry för att tillhandahålla Azure Direct Models?
Azure AI Foundry bearbetar följande typer av data för att tillhandahålla Azure Direct Models:
- Frågar och genererade innehåll. När uppmaningar skickas av användaren genereras innehåll av tjänsten, via kompletteringar, chatkompletteringar, bilder och inbäddningar.
- Uppladdade data. Du kan ladda upp dina egna data för användning med vissa tjänstfunktioner (t.ex. finjustering, api för assistenter, batchbearbetning) med hjälp av Files API eller vektorarkivet.
- Data för tillståndskänsliga entiteter. När du använder vissa valfria funktioner i Azure Direct Models and Agents, till exempel svars-API:et, funktionen Trådar i Assistent-API:et och Lagrade slutföranden, skapar tjänsten ett datalager för att bevara meddelandehistorik och annat innehåll, i enlighet med hur du konfigurerar funktionen.
- Förhöjda data som ingår i eller via prompter. När du använder data som är associerade med tillståndskänsliga entiteter hämtar tjänsten relevanta data från ett konfigurerat datalager och utökar uppmaningen för att skapa generationer som baseras på dina data. Uppmaningar kan också utökas med data som hämtats från en källa som ingår i själva prompten, till exempel en URL.
- Tränings- och valideringsdata. Du kan ange egna träningsdata som består av par med snabb slutförande för att finjustera en modell.
Hur bearbetar Azure AI Foundry data för att tillhandahålla Azure Direct Models?
Diagrammet nedan visar hur dina data bearbetas. Det här diagrammet beskriver flera typer av bearbetning:
- Hur Azure AI Foundry bearbetar dina frågor via slutsatsdragning med Azure Direct Models för att generera innehåll (inklusive när ytterligare data från en utsedd datakälla läggs till i en uppmaning med Azure OpenAI på dina data, assistenter eller batchbearbetning).
- Hur funktionen Assistent lagrar data i anslutning till Meddelanden, Trådar och Körningar.
- Hur funktionen Svars-API lagrar data för att bevara meddelandehistoriken.
- Hur Batch-funktionen bearbetar dina uppladdade data.
- Så skapar Azure AI Foundry en finjusterad (anpassad) modell med dina uppladdade data.
- Hur Azure AI Foundry och Microsofts personal analyserar uppmaningar och slutföranden (text och bild) för skadligt innehåll och för mönster som tyder på användning av tjänsten på ett sätt som bryter mot uppförandekoden eller andra tillämpliga produktvillkor.
Som du ser i diagrammet ovan kan hanterade kunder ansöka om att ändra övervakning av missbruk.
Generera slutföranden, bilder eller inbäddningar via slutsatsdragning
Azure Direct Models (bas eller finjusterad) som distribueras i din Azure AI Foundry-resurs bearbetar dina indatafrågor och genererar svar med text, bilder eller inbäddningar. Kundinteraktioner med modellen är logiskt isolerade och skyddade med tekniska mått, inklusive men inte begränsat till transportkryptering av TLS1.2 eller senare, beräkningssäkerhetsperimeter, tokenisering av text och exklusiv åtkomst till allokerat GPU-minne. Frågor och slutföranden utvärderas i realtid för skadliga innehållstyper och innehållsgenerering filtreras baserat på konfigurerade tröskelvärden. Läs mer i Översikt över innehållsfiltrering.
Frågor och svar bearbetas inom det kunddefinierade geografiska området (såvida du inte använder en global distributionstyp eller datazondistributionstyp), men kan bearbetas mellan regioner inom geografin i driftssyfte (inklusive prestanda- och kapacitetshantering). Se nedan för information om bearbetningens plats när du använder en global distributionstyp eller DataZone-distributionstyp.
Modellerna är tillståndslösa: inga uppmaningar eller slutföranden lagras i modellen. Dessutom används inte uppmaningar och slutföranden för att träna, träna om eller förbättra basmodellerna.
Förstå platsen för bearbetning för distributionstyperna "Global" och "Datazon"
Utöver standarddistributioner erbjuder Azure AI Foundry distributionsalternativ för Azure Direct Model märkta som "Global" och "DataZone". För alla distributionstyper med etiketten "Global" kan frågor och svar bearbetas i alla geografiska områden där relevant Azure Direct Model distribueras (läs mer om tillgängligheten för modeller i regionen). För alla distributionstyper som är märkta med "DataZone" kan frågor och svar bearbetas i alla geografiska områden inom den angivna datazonen, enligt microsofts definition. Om du skapar en DataZone-distribution i en Azure AI Foundry-resurs i USA kan frågor och svar bearbetas var som helst i USA. Om du skapar en DataZone-distribution i en Azure AI Foundry-resurs som finns i en eu-medlemsnation kan frågor och svar bearbetas i den eller någon annan medlem i Europeiska unionen. För både globala distributionstyper och DataZone-distributionstyper lagras alla data som lagras i vila, till exempel uppladdade data och inklusive datalagret för missbruksövervakning som skapats för globala distributioner och DataZone-distributioner, i det kundspecifika geografiska området. Endast bearbetningsplatsen påverkas när en kund använder en global distributionstyp eller datazondistributionstyp i Azure Direct Models. Åtaganden för databearbetning och efterlevnad i Azure är fortfarande tillämpliga.
Förstärkta uppmaningar till att basera genererade resultat på dina data
Med funktionen "på dina data" i Azure OpenAI kan du ansluta datakällor för att jorda de genererade resultaten med dina data. Data lagras fortfarande i den datakälla och plats som du anger. Azure OpenAI skapar inte ett duplicerat datalager. När en användarprompt tas emot hämtar tjänsten relevanta data från den anslutna datakällan och utökar prompten. Modellen bearbetar den här utökade uppmaningen och det genererade innehållet returneras enligt beskrivningen ovan. Läs mer om hur du använder funktionen På dina data på ett säkert sätt.
Funktioner för datalagring för Azure Direct Models
Vissa Azure Direct Models-funktioner lagrar data i tjänsten. Dessa data laddas antingen upp av kunden med hjälp av files-API:et eller vektorlagret, eller lagras automatiskt i anslutning till vissa tillståndskänsliga entiteter, till exempel svars-API:et, funktionen Trådar i assistent-API:et och lagrade slutföranden. Data som lagras för sådana funktioner:
- Lagras i vila i Azure AI Foundry-resursen i kundens Azure-klientorganisation, inom samma geografiska område som resursen.
- Krypteras alltid i vila med Microsofts AES-256-kryptering som standard, med alternativet att använda en kundhanterad nyckel (vissa förhandsversionsfunktioner kanske inte stöder kundhanterade nycklar). Microsoft-hanterade nycklar används alltid för att säkerställa baslinjekryptering för alla lagrade data.
- Kan tas bort av kunden när som helst.
Note
Modeller eller funktioner i förhandsversionen kanske inte stöder alla ovanstående villkor.
Lagrade data kan användas med följande tjänstfunktioner:
- Skapa en anpassad (finjusterad) modell. Läs mer om hur finjustering fungerar. Finjusterade modeller är exklusivt tillgängliga för kunden vars data användes för att skapa den finjusterade modellen, krypteras i vila (när de inte distribueras för slutsatsdragning) och kan tas bort av kunden när som helst. Träningsdata som laddas upp för finjustering används inte för att träna några generativa AI-grundmodeller utan din tillåtelse eller instruktion.
- Batchbearbetning. Läs mer om hur batchbearbetning fungerar. Batchbearbetning är en global distributionstyp. data som lagras i vila finns kvar i det angivna Azure-geografiska området tills bearbetningskapaciteten blir tillgänglig. bearbetning kan ske i alla geografiska områden där relevant Azure Direct Model distribueras (läs mer om regionstillgänglighet för modeller).
- Api för svar. Läs mer om hur svars-API :et fungerar. Det här API:et lagrar meddelandehistorik och annat innehåll som är relaterat till meddelandehistorik. Detta krävs för konversationer och arbetsflöden med flera turer.
- Api för assistenter (förhandsversion). Läs mer om hur API:et assistenter fungerar. Vissa funktioner i Assistenter, till exempel Trådar, lagra meddelandehistorik och annat innehåll.
- Lagrade kompletteringar (förhandsversion). Lagrade fullständigheter lagrar indata-utdata par från kundens implementerade Azure OpenAI-modeller, som GPT-4o, via chattslutförande-API:et och visar paren i Azure AI Foundry-portalen. Detta gör det möjligt för kunder att skapa datauppsättningar med sina produktionsdata, som sedan kan användas för att utvärdera eller finjustera modeller (enligt vad som tillåts i tillämpliga produktvillkor).
Förhindra missbruk
För att minska risken för missbruk eller skadlig användning innehåller Azure Direct Models funktioner för övervakning av missbruk. Mer information om övervakning av missbruk finns i Övervakning av missbruk.
Säkerhetsutvärderingar av finjusterade modeller utvärderar en finjusterad modell för potentiellt skadliga svar med hjälp av Azures risk- och säkerhetsmått. Endast den resulterande utvärderingen (som kan distribueras eller inte kan distribueras) loggas av tjänsten.
Övervakningssystemet för missbruk i Azure Direct Models är utformat för att identifiera och minimera instanser av återkommande innehåll och/eller beteenden som föreslår användning av tjänsten på ett sätt som kan bryta mot uppförandekoden eller andra tillämpliga produktvillkor. Som beskrivs här använder systemet algoritmer och heuristik för att identifiera indikatorer på potentiellt missbruk. När dessa indikatorer identifieras kan ett exempel på kundens uppmaningar och slutföranden väljas för granskning. Granskningen utförs med automatiserade metoder, inklusive av AI-modeller som LLM:er som standard, med ytterligare granskningar av mänskliga granskare efter behov. Detaljerad information om automatiserad granskning och mänsklig granskning finns på Övervakning av missbruk.
För automatisk granskning lagras inte kundens uppmaningar och slutföranden av systemet eller används för att träna AI-modeller eller andra system. Datalagret för missbruksövervakning där frågor och slutföranden lagras för mänsklig granskning separeras logiskt av kundresursen (varje begäran innehåller resurs-ID för kundens Azure AI Foundry-resurs). Ett separat datalager finns i varje geografiskt område där Azure Direct Model är tillgängligt, och en kunds uppmaningar och genererat innehåll lagras i azure-geografin där kundens Azure AI Foundry-resurs distribueras, inom tjänstgränsen för Azure Direct Models. Mänskliga granskare som bedömer potentiellt missbruk kan endast komma åt frågor och slutförandedata när dessa data redan har flaggats av systemet för övervakning av missbruk, eller när uppmaningar och slutföranden är en del av ett potentiellt missbruksmönster. De mänskliga granskarna är auktoriserade Microsoft-anställda som kommer åt data via punktvisa frågor med hjälp av begärande-ID:er, SAW:er (Secure Access Workstations) och JIT-begärandegodkännande (Just-In-Time) som beviljats av teamchefer. För Azure Direct Models som distribueras i Europeiska ekonomiska samarbetsområdet finns de auktoriserade Microsoft-anställda i Europeiska ekonomiska samarbetsområdet.
Om kunden har godkänts för modifierad övervakning av missbruk (läs mer i Missbruksövervakning)) utförs inte datalagringen och processen för mänsklig granskning som beskrivs ovan. Automatiserad granskning kan dock fortfarande utföras, med hjälp av algoritmer, inklusive AI-modeller som granskar uppmaningar och slutföranden vid den tidpunkt som tillhandahålls eller genereras, beroende på vad som är tillämpligt. Om sådan automatiserad granskning identifierar innehåll som potentiellt indikerar allvarligt eller återkommande missbruk i kundens prenumeration kan kunden omfattas av begränsningar i åtkomsten, enligt produktvillkoren för ansvarsfull användning av Microsoft AI-tjänster. Kunden kan också uppmanas att godkänna missbruksövervakning med mänsklig granskning aktiverad för att minska risken för framtida begränsningar av åtkomsten (t.ex. begränsning och/eller avstängning av kontot eller prenumerationen där missbruk har upptäckts).
Note
Azure Preview-funktioner, inklusive Azure Direct Models i förhandsversion, kan använda olika sekretessrutiner, inklusive när det gäller övervakning av missbruk. Förhandsversioner kan omfattas av kompletterande villkor på: Kompletterande användningsvillkor för Förhandsversioner av Microsoft Azure.
Förhindra generering av skadligt innehåll
Azure Direct Models innehåller ett system som är utformat för att identifiera och förhindra utdata från skadligt innehåll. Mer information om innehållsfiltrering finns i Innehållsfiltrering.
Innehållsfiltrering sker synkront när tjänsten bearbetar uppmaningar om att generera innehåll enligt beskrivningen ovan och här. Inga uppmaningar eller genererat innehåll lagras i innehållsklassificerarens modeller, och uppmaningar och utdata används inte för att träna några generativa AI Foundation-modeller utan din tillåtelse eller instruktion.
Hur kan en kund kontrollera om datalagring för övervakning av missbruk är inaktiverat?
Det finns två sätt för kunder, när de har godkänts att inaktivera övervakning av missbruk, att verifiera att datalagring för övervakning av missbruk har inaktiverats i sin godkända Azure-prenumeration:
- Använda Azure-portalen, eller
- Azure CLI (eller något hanterings-API).
Note
Värdet "false" för attributet "ContentLogging" visas endast om datalagring för övervakning av missbruk är inaktiverat. Annars visas inte den här egenskapen i azure-portalen eller Azure CLI:s utdata.
Prerequisites
- Logga in på Azure
- Välj den Azure-prenumeration som är värd för Azure AI Foundry-resursen.
- Gå till översiktssidan för Azure AI Foundry-resursen.
Gå till resursöversiktssidan
Klicka på JSON-vylänken i det övre högra hörnet enligt bilden nedan.
Det finns ett värde i listan Funktioner med namnet "ContentLogging" som visas och är inställt på FALSE när loggning för övervakning av missbruk är inaktiverad.
{
"name":"ContentLogging",
"value":"false"
}
Mer information om Microsofts sekretess- och säkerhetsåtaganden finns i Microsoft Trust Center.
Ändringslogg
| Date | Changes |
|---|---|
| den 3 oktober 2025 | Expanderat dokument till Azure Direct Models; separata avsnitt för innehållsfiltrering och övervakning av missbruk. förtydliganden om övervakning av missbruk och allvarliga eller återkommande missbruk. |
| den 17 december 2024 | Information om databearbetning och lagring har lagts till i samband med den nya funktionen Lagrade slutföranden. tillagt språk som klargör att Azure OpenAI-funktioner i förhandsversionen kanske inte stöder alla datalagringsvillkor. tog bort "förhandsversionsbeteckning" för Batch-bearbetning |
| den 18 november 2024 | Lade till information om platsen för databehandling för nya distributionstyper för datazoner. lade till information om ny AI-granskning av uppmaningar och slutföranden som en del av att förhindra missbruk och generering av skadligt innehåll |
| den 4 september 2024 | Lade till information (och reviderad befintlig text i enlighet därmed) om databehandling för nya funktioner, inklusive Assistants API (förhandsversion), Batch (förhandsversion) och Globala distributioner. reviderat språk som rör platsen för databehandling i enlighet med azure-principerna för datahemvist. lade till information om databehandling för säkerhetsutvärderingar av finjusterade modeller. förtydligade åtaganden som rör användning av uppmaningar och slutföranden. mindre revisioner för att förbättra tydligheten |
| den 23 juni 2023 | Information om databehandling för en ny funktion i Azure relaterad till din data har lagts till. Information om övervakning av missbruk har tagits bort och är nu tillgänglig i missbruksövervakning i Azure OpenAI Service. Sammanfattningsanteckning har lagts till. Uppdaterat och effektiviserat innehåll och uppdaterade diagram för ytterligare tydlighet. ändringslogg har lagts till |
Se även
- Uppförandekod för Azure OpenAI-tjänstintegreringar
- Översikt över ansvarsfulla AI-metoder för Azure OpenAI-modeller
- Transparensanteckning och användningsfall för Azure OpenAI-tjänsten
- Datahemvist i Azure
- Jämföra Azure OpenAI i Azure Government
- Begränsad åtkomst till Azure OpenAI Service
- Rapportera missbruk av Azure OpenAI-tjänsten via portalen för rapportmissbruk
- Rapportera problematiskt till cscraireport@microsoft.com