Ansvarsfull AI
Viktiga punkter att förstå om ansvarsfull AI är:
- Rättvisa: AI-modeller tränas med hjälp av data, som vanligtvis hämtas och väljs av människor. Det finns en betydande risk för att urvalskriterierna för data eller själva data återspeglar omedveten bias som kan leda till att en modell producerar diskriminerande utdata. AI-utvecklare måste vara noga med att minimera fördomar i träningsdata och testa AI-system för rättvisa.
- Tillförlitlighet och säkerhet: AI baseras på probabilistiska modeller, det är inte ofelbart. AI-baserade program måste ta hänsyn till detta och minimera riskerna i enlighet med detta.
- Sekretess och säkerhet: Modeller tränas med data, vilket kan innefatta personlig information. AI-utvecklare har ett ansvar för att säkerställa att träningsdata hålls säkra och att de tränade modellerna själva inte kan användas för att avslöja privat personlig information eller organisationsinformation.
- Inkludering: AI:s potential för att förbättra liv och driva framgång bör vara öppen för alla. AI-utvecklare bör sträva efter att se till att deras lösningar inte utesluter vissa användare.
- Transparens: AI kan ibland verka som "magi", men det är viktigt att göra användarna medvetna om hur systemet fungerar och eventuella begränsningar det kan ha.
- Ansvar: I slutändan är de personer och organisationer som utvecklar och distribuerar AI-lösningar ansvariga för sina åtgärder. Det är viktigt för organisationer som utvecklar AI-modeller och program att definiera och tillämpa ett styrningsramverk för att säkerställa att de tillämpar ansvarsfulla AI-principer i sitt arbete.
Exempel på ansvarsfull AI
Exempel på scenarier där ansvarsfulla AI-metoder bör tillämpas är:
- Ett AI-baserat antagningssystem för college bör testas för att säkerställa att det utvärderar alla program rättvist, med hänsyn till relevanta akademiska kriterier men undviker ogrundad diskriminering baserat på irrelevanta demografiska faktorer.
- En AI-baserad robotlösning som använder datorseende för att identifiera objekt bör undvika oavsiktlig skada eller förstörelse. Ett sätt att uppnå det här målet är att använda sannolikhetsvärden för att fastställa "förtroende" för objektidentifiering innan du interagerar med fysiska objekt och undvika åtgärder om konfidensnivån ligger under ett visst tröskelvärde.
- Ett system för ansiktsidentifiering som används på en flygplats eller ett annat säkert område bör ta bort personliga bilder som används för tillfällig åtkomst så snart de inte längre behövs. Dessutom bör skydd förhindra att bilderna görs tillgängliga för operatörer eller användare som inte behöver visa dem.
- En webbaserad chattrobot som erbjuder talbaserad interaktion bör också generera texttexter för att undvika att systemet blir oanvändbart för användare med nedsatt hörsel.
- En bank som använder ett AI-baserat program för godkännande av lån bör avslöja användningen av AI och beskriva funktioner i de data som den har tränats på (utan att avslöja konfidentiell information).