Dela via


Vägledning för integrering och ansvarsfull användning med sammanfattning

Viktigt!

Översättningar som inte är engelska tillhandahålls endast för enkelhetens skull. Se versionen EN-US av det här dokumentet för den slutgiltiga versionen.

Microsoft vill hjälpa dig att utveckla och distribuera lösningar som använder sammanfattningsfunktionen på ett ansvarsfullt sätt. Microsoft har en principfast metod för att upprätthålla personlig handlingsfrihet och värdighet genom att överväga följande aspekter av ett AI-system: rättvisa, tillförlitlighet och säkerhet, sekretess och säkerhet, inkludering, transparens och mänsklig ansvarsskyldighet. Dessa överväganden återspeglar vårt åtagande att utveckla ansvarsfull AI.

Allmänna riktlinjer

När du gör dig redo att integrera och på ett ansvarsfullt sätt använda AI-baserade produkter eller funktioner hjälper följande aktiviteter dig att konfigurera dig för framgång. Även om varje riktlinje sannolikt inte kommer att gälla för alla scenarier bör du betrakta dem som en startpunkt för att minimera möjliga risker:

  • Förstå vad det kan göra och hur det kan missbrukas. Utvärdera funktionerna i alla AI-system som du använder för att förstå dess funktioner och begränsningar. Den specifika testning som Microsoft utför kanske inte återspeglar ditt scenario. Förstå hur det kommer att fungera i ditt specifika scenario genom att noggrant testa det med verkliga förhållanden och olika data som återspeglar din kontext. Inkludera rättviseöverväganden.

  • Testa med verkliga, olika data. Förstå hur systemet kommer att fungera i ditt scenario. Testa den noggrant med verkliga förhållanden och data som återspeglar mångfalden i dina användare, geografi och distributionskontexter. Små datamängder, syntetiska data och tester som inte återspeglar ditt scenario från slutpunkt till slutpunkt kommer sannolikt inte att representera produktionsprestanda tillräckligt.

  • Utvärdera systemet. Överväg att använda kontradiktorisk testning, där betrodda testare försöker hitta systemfel, dåliga prestanda eller oönskade beteenden. Den här informationen hjälper dig att förstå risker och hur du minimerar dem. Förmedla funktionerna och begränsningarna till intressenterna. För att hjälpa dig att utvärdera systemet kanske du tycker att några av dessa resurser är användbara: Checklista på GitHub, Stereotyping Norwegian Salmon: An Inventory of Pitfalls in Fairness Benchmark Datasets (Blodgett et al., 2021) och On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (Bender et al., 2021).

  • Lär dig mer om rättvisa. AI-system kan bete sig orättvist av olika skäl. Vissa är sociala, vissa är tekniska, och vissa är en kombination av de två. Det finns sällan tydliga lösningar. Riskreduceringsmetoder är vanligtvis kontextberoende. Att lära dig mer om rättvisa kan hjälpa dig att lära dig vad du kan förvänta dig och hur du kan minimera potentiella skador. Mer information om hur Microsoft använder finns i Ansvarsfulla AI-resurser, checklistan för AI-rättvisa och resurser från Microsoft Research.

  • Respektera en individs rätt till privatliv. Samla endast in data och information från individer för lagliga och berättigade ändamål. Använd endast data och information som du har medgivande att använda för detta ändamål.

  • Utför användartestning under utvecklingen och begär feedback efter distributionen. Överväg att använda värdekänslig design för att identifiera intressenter. Arbeta med dem för att identifiera deras värden för att utforma system som stöder dessa värden. Sök feedback från en mångfaldig grupp människor under utveckling och utvärderingsprocessen. Använd strategier som Community Jury.

    Utför användartestning med olika intressenter. Analysera sedan resultaten uppdelade efter intressentgrupper. Inkludera intressenter från olika demografiska grupper. Överväg att utföra onlineexperiment, ringtestning, dogfooding, fältförsök eller piloter i distributionskontexter.

  • Begränsa längden, strukturen, hastigheten och källan för indata och utdata. Om du begränsar indata- och utdatalängden kan risken minskas. Sådana risker omfattar att producera oönskat innehåll, missbruk för ett alltför allmänt ändamål utöver de avsedda användningsfallen för program eller andra skadliga, otillåtna eller oavsiktliga scenarier.

  • Överväg att kräva att uppmaningar struktureras på ett visst sätt. De kan begränsas till ett visst ämne eller hämtas från verifierade källor, till exempel ett listrutefält. Överväg att strukturera utdata så att den inte är alltför öppen. Överväg att returnera utdata från verifierat, tillförlitligt källmaterial (till exempel befintliga supportartiklar) i stället för att ansluta till Internet. Den här begränsningen kan hjälpa ditt program att fortsätta med uppgiften och minimera orättvist, otillförlitligt eller stötande beteende. Att införa hastighetsgränser kan ytterligare minska missbruket.

  • Implementera blocklistor och innehållsmoderering. Håll din ansökan fokuserad på ämnet. Överväg blocklistor och strategier för innehållsmoderering för att kontrollera indata och utdata för oönskat innehåll. Definitionen av innehåll som inte önskas beror på ditt scenario och kan ändras med tiden. Det kan innehålla hatpropaganda, text som innehåller olämpliga ord eller fraser, felaktig information och text som relaterar till känsliga eller känslomässigt laddade ämnen. Genom att kontrollera indata kan du behålla ditt program i ämnet, även om en skadlig användare försöker skapa oönskat innehåll. Genom att kontrollera API-utdata kan du identifiera oönstrade innehåll som produceras av systemet. Du kan sedan ersätta den, rapportera den, be användaren att ange olika indata eller ange indataexempel.

  • Autentisera användare. För att göra missbruk svårare kan du överväga att kräva att kunderna loggar in och, om det är lämpligt, länka en giltig betalningsmetod. Överväg att bara arbeta med kända, betrodda kunder i ett tidigt utvecklingsstadium.

  • Se till att det finns mänsklig tillsyn. Särskilt i scenarier med högre insatser, upprätthålla människans roll i beslutsfattandet. Avslöja vad AI:n har gjort jämfört med vad en människa har gjort.

    Baserat på ditt scenario finns det olika steg i livscykeln där du kan lägga till mänsklig tillsyn. Se till att du kan ha mänsklig inblandning i realtid i lösningen för att förhindra skada. När du till exempel genererar sammanfattningar bör redigerarna granska sammanfattningarna innan de publiceras. Vi rekommenderar att du utvärderar effektiviteten av mänsklig tillsyn före distributionen, genom användartestning och efter distributionen.

  • Ha en feedbackloop för kunder. Ange en feedbackkanal som gör det möjligt för användare och individer att rapportera problem med tjänsten efter distributionen. Problem kan vara orättvisa eller oönskade beteenden. När du har distribuerat en AI-baserad produkt eller funktion kräver den kontinuerlig övervakning och förbättring. Upprätta kanaler för att samla in frågor och frågor från intressenter som kan påverkas direkt eller indirekt av systemet, till exempel anställda, besökare och allmänheten. Exempel är:

    • Feedbackfunktioner som är inbyggda i appupplevelser.
    • En lätt att komma ihåg e-postadress för feedback.
  • Genomför en rättslig prövning. Få lämplig juridisk rådgivning för att granska din lösning, särskilt om du använder den i känsliga program eller högriskprogram. Ta reda på vilka begränsningar du kan behöva arbeta inom. Förstå ditt ansvar för att lösa eventuella problem som kan uppstå i framtiden. Se till att datauppsättningarna används på rätt sätt.

  • Genomför en systemgranskning. Du kan planera att integrera och på ett ansvarsfullt sätt använda en AI-baserad produkt eller funktion i ett befintligt system med programvara, kunder och organisationsprocesser. I så fall kan du ta dig tid att förstå hur varje del av systemet påverkas. Fundera på hur din AI-lösning överensstämmer med principerna för ansvarsfull AI som Microsoft använder.

  • Säkerhet. Se till att din lösning är säker och har tillräckliga kontroller för att bevara innehållets integritet och förhindra obehörig åtkomst.