Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Generativ AI refererar till en klass av AI-algoritmer som kan lära sig av befintligt multimediainnehåll och skapa nytt innehåll. Det producerade innehållet kan anpassas genom tekniker som frågor och finjustering. Generativa AI-algoritmer tillämpar specifika maskininlärningsmodeller:
- Transformatorer och återkommande neurala nätverk (RNN) för textgenerering
- Generativa adversariella nätverk (GAN) och variantbaserade autokodare (VAE) för bildgenerering
Generativ AI används i bild- och musiksyntes och i sjukvården, tillsammans med vanliga uppgifter som automatisk komplettering av text, textsammanfattning och översättning. Generativa AI-tekniker möjliggör funktioner för data som klustring och segmentering, semantisk sökning och rekommendationer, ämnesmodellering, frågesvar och avvikelseidentifiering.
Följande video visar användningen av generativ AI med Azure Database for PostgreSQL och pgvector tillägget, vilket kan hjälpa dig att förstå begreppen i den här artikeln.
OpenAI (på engelska)
OpenAI är en forskningsorganisation och ett teknikföretag som är känt för sitt banbrytande arbete inom AI och maskininlärning. Dess uppdrag är att säkerställa att artificiell allmän intelligens (AGI), som refererar till mycket autonoma AI-system som kan överträffa människor i mest ekonomiskt värdefullt arbete, gynnar hela mänskligheten. OpenAI introducerade på marknaden avancerade generativa modeller som GPT-3, GPT-3.5 och GPT-4.
Azure OpenAI är ett Microsoft-tjänsterbjudande som hjälper dig att skapa generativa AI-program med hjälp av Azure. Azure OpenAI ger kunderna avancerade språk-AI med OpenAI GPT-4-, GPT-3-, Codex-, DALL-E- och Whisper-modeller med säkerhets- och företagsfunktionerna i Azure. Azure OpenAI codevelops API:erna med OpenAI för att säkerställa kompatibilitet och en smidig övergång från en till en annan.
Med Azure OpenAI får kunderna säkerhetsfunktionerna i Microsoft Azure när de kör samma modeller som OpenAI. Azure OpenAI erbjuder privata nätverk, regional tillgänglighet och ansvarsfull AI-innehållsfiltrering.
Stor språkmodell
En stor språkmodell (LLM) är en typ av AI-modell som tränas på enorma mängder textdata för att förstå och generera mänskligt språk. LLM:er baseras vanligtvis på djupinlärningsarkitekturer, till exempel transformatorer. De är kända för sin förmåga att utföra en mängd olika uppgifter för förståelse och generering av naturligt språk. Azure OpenAI-tjänsten och OpenAI:s ChatGPT är exempel på LLM-erbjudanden.
Viktiga egenskaper och funktioner för LLM:er är:
- Skala: Skalan för LLMs är enorm, när det gäller antalet parametrar som deras arkitekturer använder. Modeller som GPT-3 innehåller från hundratals miljoner till biljoner parametrar, vilket gör att de kan avbilda komplexa mönster på språket.
- Förträning: LLM:er genomgår förträning på en stor mängd textdata från Internet. Med den här förträningen kan de lära sig grammatik, syntax, semantik och ett brett spektrum av kunskaper om språk och världen.
- Finjustering: Efter förträningen kan LLM:er finjusteras för specifika uppgifter eller domäner med mindre, uppgiftsspecifika datamängder. Med den här finjusteringsprocessen kan de anpassa sig till mer specialiserade uppgifter, till exempel textklassificering, översättning, sammanfattning och frågesvar.
GPT
GPT står för Generative Pretrained Transformer, och det refererar till en serie stora språkmodeller som OpenAI utvecklade. GPT-modellerna är neurala nätverk som är förtränade på stora datamängder från internet, så de kan förstå och generera mänskliknande text.
Här är en översikt över de viktigaste GPT-modellerna och deras viktigaste egenskaper:
- GPT-3: Släpptes i juni 2020 och en välkänd modell i GPT-serien. Den har 175 miljarder parametrar, vilket gör den till en av de största och mest kraftfulla språkmodellerna som finns. - GPT-3 uppnådde anmärkningsvärda prestanda på en mängd olika uppgifter för förståelse och generering av naturligt språk. Den kan utföra uppgifter som textkomplettering, översättning och frågesvar med flyt på mänsklig nivå. - GPT-3 är indelat i olika modellstorlekar, allt från de minsta (125 miljoner parametrarna) till de största (175 miljarder parametrar). 
- GPT-4: Den senaste GPT-modellen från OpenAI. Den har 1,76 biljoner parametrar. 
Vektorer
En vektor är ett matematiskt begrepp som används i linjär algebra och geometri för att representera kvantiteter som har både storlek och riktning. När det gäller maskininlärning används vektorer ofta för att representera datapunkter eller funktioner.
Viktiga attribut och åtgärder för vektorer är:
- Storlek: Längden eller storleken på en vektor, som ofta betecknas som dess norm, representerar storleken på data. Det är ett icke-negativt reellt tal.
- Riktning: Riktningen anger orienteringen eller vinkeln för den kvantitet som den representerar i förhållande till en referenspunkt eller ett koordinatsystem.
- 
              Komponenter: En vektor kan delas upp i dess komponenter längs olika axlar eller dimensioner. I ett 2D-kartesiskt koordinatsystem kan en vektor representeras som (x, y), där x och y är dess komponenter längs x-axeln respektive y-axeln. En vektor i n dimensioner är en n-tuppel ({x1, x2… xn}).
- Addition och skalär multiplikation: Vektorer kan läggas till tillsammans för att bilda nya vektorer, och de kan multipliceras med skalärer (verkliga tal).
- Dot-produkter och korsprodukter: Vektorer kan kombineras via punktprodukter (skalärprodukter) och korsprodukter (vektorprodukter).
Vektordatabaser
En vektordatabas, även känd som ett vektordatabashanteringssystem (DBMS), är en typ av databassystem som är utformat för att lagra, hantera och fråga vektordata effektivt. Traditionella relationsdatabaser hanterar främst strukturerade data i tabeller, medan vektordatabaser är optimerade för lagring och hämtning av flerdimensionella datapunkter som representeras som vektorer. Dessa databaser är användbara för program där åtgärder som likhetssökningar, geospatiala data, rekommendationssystem och klustring ingår.
Viktiga egenskaper för vektordatabaser är:
- Vektorlagring: Vektordatabaser lagrar datapunkter som vektorer med flera dimensioner. Varje dimension representerar en funktion eller ett attribut för datapunkten. Dessa vektorer kan representera ett brett spektrum av datatyper, inklusive numeriska, kategoriska och textbaserade data.
- Effektiva vektoråtgärder: Vektordatabaser är optimerade för att utföra vektoråtgärder, till exempel vektortillägg, subtraktion, punktprodukter och likhetsberäkningar (till exempel cosinuslikhet eller Euklidiska avstånd).
- Effektiv sökning: Effektiva indexeringsmekanismer är avgörande för snabb hämtning av liknande vektorer. Vektordatabaser använder olika indexeringsmekanismer för att aktivera snabb hämtning.
- Frågespråk: Vektordatabaser tillhandahåller frågespråk och API:er som är skräddarsydda för vektoråtgärder och likhetssökningar. Dessa frågespråk gör det möjligt för användare att uttrycka sina sökvillkor effektivt.
- Likhetssökning: Vektordatabaser utmärker sig vid likhetssökningar, vilket gör att användare kan hitta datapunkter som liknar en angivet frågepunkt. Den här egenskapen är värdefull i sök- och rekommendationssystem.
- Geospatial datahantering: Vissa vektordatabaser är utformade för geospatiala data, så de passar bra för program som platsbaserade tjänster, geografiska informationssystem (GIS) och kartrelaterade uppgifter.
- Stöd för olika datatyper: Vektordatabaser kan lagra och hantera olika typer av data, till exempel vektorer, bilder och text.
PostgreSQL kan få funktionerna i en vektordatabas med hjälp av pgvector tillägget.
Inbäddningar
Inbäddningar är ett begrepp inom maskininlärning och bearbetning av naturligt språk som innebär att representera objekt (till exempel ord, dokument eller entiteter) som vektorer i ett flerdimensionellt utrymme.
Dessa vektorer är ofta täta. De har alltså ett stort antal dimensioner. De lärs genom olika tekniker, inklusive neurala nätverk. Inbäddningar syftar till att fånga semantiska relationer och likheter mellan objekt i ett kontinuerligt vektorutrymme.
Vanliga typer av inbäddningar är:
- 
              Ord: Vid bearbetning av naturligt språk representerar ord inbäddningar ord som vektorer. Varje ord mappas till en vektor i ett högdimensionellt utrymme, där ord med liknande betydelser eller kontexter ligger närmare varandra. 
              Word2VecochGloVeär populära ord-inbäddningstekniker.
- 
              Dokument: Dokumentbäddningar representerar dokument som vektorer. 
              Doc2Vecär populärt för att skapa inbäddningar av dokument.
- Bild: Bilder kan representeras som inbäddningar för att samla in visuella funktioner för uppgifter som objektigenkänning.
Inbäddningar är centrala för att representera komplexa, högdimensionella data i en form som maskininlärningsmodeller enkelt kan bearbeta. De kan tränas på stora datamängder och sedan användas som funktioner för olika uppgifter. LLM:er använder dem.
PostgreSQL kan få funktioner för att generera vektorinbäddningar med Azure AI-tillägget OpenAI-integrering.
Scenarier
Generativ AI har ett brett utbud av program inom olika domäner och branscher, inklusive teknik, sjukvård, underhållning, ekonomi, tillverkning med mera. Här följer några vanliga uppgifter som människor kan utföra med generativ AI:
- 
              Semantisk sökning: - Generativ AI möjliggör semantisk sökning på data i stället för lexikal sökning. Det senare söker efter exakta matchningar till frågor, medan semantisk sökning hittar innehåll som uppfyller sökfrågans avsikt.
 
- Chattrobotar och virtuella assistenter: - Utveckla chattrobotar som kan delta i naturliga sammanhangsmedvetna konversationer. till exempel för att implementera självhjälp för kunder.
 
- Rekommendationssystem: - Förbättra rekommendationsalgoritmer genom att generera inbäddningar eller representationer av objekt eller användare.
 
- Klustring och segmentering: - Generativa AI-genererade inbäddningar gör det möjligt för klustringsalgoritmer att klustra data så att liknande data grupperas tillsammans. Den här klustring möjliggör scenarier som kundsegmentering, vilket gör det möjligt för annonsörer att rikta in sig på sina kunder på olika sätt baserat på deras attribut.
 
- Innehållsgenerering: - Generera mänsklig text för program som chattrobotar, skapandet av romaner/poesi och förståelse för naturligt språk.
- Skapa realistiska bilder, konstverk eller design för grafik, underhållning och reklam.
- Generera videor, animeringar eller videoeffekter för filmer, spel och marknadsföring.
- Generera musik.
 
- Översättning: - Översätt text från ett språk till ett annat.
 
- Sammanfattas: - Sammanfatta långa artiklar eller dokument för att extrahera viktig information.
 
- Dataförstoring: - Generera extra dataexempel för att expandera och förbättra träningsdatauppsättningar för maskininlärningsmodeller.
- Skapa syntetiska data för scenarier som är svåra eller dyra att samla in i verkligheten, till exempel medicinsk avbildning.
 
- Läkemedelsutveckling - Generera molekylära strukturer och förutsäga potentiella läkemedelskandidater för läkemedelsforskning.
 
- Spelutveckling: - Skapa spelinnehåll, inklusive nivåer, tecken och texturer.
- Generera realistiska miljöer och landskap i spelet.
 
- Databrusreduktion och komplettering - Rensa brusdata genom att generera rena dataexempel.
- Fyll i saknade eller ofullständiga data i datauppsättningar.
 
Relaterat innehåll
- Integrera Azure Database for PostgreSQL med Azure Cognitive Services
- Generativ AI med Azure Database for PostgreSQL
- Integrera Azure Database for PostgreSQL med Azure Machine Learning
- Generera vektorinbäddningar med Azure OpenAI i Azure Database for PostgreSQL
- Azure AI-tillägg i Azure Database for PostgreSQL
- Skapa ett rekommendationssystem med Azure Database for PostgreSQL och Azure OpenAI
- Skapa en semantisk sökning med Azure Database for PostgreSQL och Azure OpenAI
- Aktivera och använda pgvector i Azure Database for PostgreSQL