Dela via


Översikt över generativ AI för JavaScript

Upptäck kraften i Generativ AI med JavaScript. Lär dig hur du sömlöst integrerar AI i dina webb-, mobil- eller skrivbordsprogram.

JavaScript med AI?

Python är visserligen bra för att skapa och träna AI-modeller, men det är annorlunda att skapa appar med dessa modeller. De flesta AI-modeller fungerar via webb-API:er, så alla språk som kan göra HTTP-anrop kan använda AI. JavaScript är plattformsoberoende och ansluter enkelt webbläsare och servrar, vilket gör det till ett starkt val för AI-appar.

Rolig och interaktiv kurs

Delta i en fördjupad inlärningsupplevelse, inklusive videor, kodprojekt och en fullständig implementering för att både använda och lära dig mer om generativ AI.

Den här kursen är ett bra sätt för studenter och nya utvecklare att lära sig om AI på ett roligt, interaktivt sätt. För karriärutvecklare kan du fördjupa dig i din uppskalning till AI.

I den här kursen:

  • Lär dig AI medan du väcker historiska figurer till liv med generativ AI
  • Tillämpa tillgänglighet genom de inbyggda webbläsar-API:erna
  • Använda text- och bildgenerering för att integrera AI i appupplevelsen
  • Lär dig arkitekturmönster för AI-program

En AI-genererad bild av Leonardo Da Vinci som används i den tillhörande appen för att prata med historiska karaktärer.

Använd det tillhörande programmet för att prata med historiska tecken

Vad du behöver veta om LLM:er?

Stora språkmodeller (LLM) är djupa neurala nätverk som tränats på massor av data för att förstå och skapa text. Träningen börjar med stora, olika datauppsättningar för att skapa en basmodell och använder sedan specialdata för att finjustera för bättre resultat. LLM:er fungerar som verktyg för smart automatisk komplettering i kodredigerare eller chattappar. Modeller har gränser, till exempel kontextfönster (vanligtvis några tusen token, även om nyare modeller stöder mer) och kan visa fördomar från sina träningsdata. Därför är ansvarsfull AI viktigt – fokusera på rättvisa, tillförlitlighet, sekretess och ansvarsskyldighet, som Microsoft rekommenderar.

Läs mer i kursens LLM-session:

Grundläggande metoder för promptdesign

Prompt engineering innebär att utforma uppmaningar för att få bättre AI-resultat. Du kan använda zero-shot-lärning (inga exempel) eller few-shot-lärning (med exempel) för att styra modellen. Genom att lägga till tips som stegvisa instruktioner, tydliga kontexter och utdataformat kan modellen ge bättre svar. Du kan också justera ton och anpassa svar. De här grunderna konfigurerar dig för avancerade tekniker som RAG.

Läs mer i den tekniska sessionen för kursen:

Förbättra AI-noggrannheten och tillförlitligheten med RAG

Använd RAG (Retrieval Augmented Generation) för att göra AI mer exakt och tillförlitligt. RAG kombinerar en retriever som hittar aktuella dokument med en generator som använder dessa dokument för att besvara frågor. Den här metoden ger tydliga, faktiska svar baserade på betrodda källor, vilket gör resultatet enkelt att kontrollera och kostnadseffektivt. Contosos fastighetsstöd använder till exempel RAG för att ge detaljerade svar som backas upp av företagsdokument.

Läs mer i RAG-sessionen i kursen:

Påskynda DIN AI-utveckling med LangChain.js

Snabba upp dina AI-projekt med LangChain.js. Det här JavaScript-biblioteket gör det enkelt att arbeta med stora språkmodeller. Använd LangChain.js för att skapa promptmallar, ansluta modeller och vektordatabaser och skapa komplexa arbetsflöden. Snabbt prototypa appar, som till exempel ett API som hämtar och besvarar frågor från YouTube-transkript. När du är redo för produktion byter du lokala modeller och vektorlager mot Azure-tjänster utan att ändra koden.

Läs mer i kursens LangChain.js session:

Köra AI-modeller på din lokala dator med Ollama

Ladda ned och använda lokala AI-modeller med Ollama – ett verktyg med öppen källkod baserat på llama.cpp – för att effektivt köra små språkmodeller som Phi-3. Lokala modeller eliminerar beroendet av molninfrastruktur, möjliggör snabb utveckling med offlinefunktioner och erbjuder kostnadseffektiv testning via en snabb inre utvecklingsloop. Phi-3, som är känt för sin höga prestanda och ansvarsfulla AI-säkerhet, kan köras även på enheter med måttlig specifikation och är tillgängligt via ett OpenAI-kompatibelt API, vilket gör det enkelt att integrera med ditt utvecklingsarbetsflöde.

Läs mer i kursens Ollama-session:

Kom igång med AI kostnadsfritt med Hjälp av Phi-3

Prova AI-modeller med Ollama-verktyget och Phi-3-modellen i webbläsaren med hjälp av en onlinelekplats. Skapa ett GitHub Codespace för att använda VS Code i din webbläsare, kör kommandon som "Ollama run phi3" för att chatta med modellen och använd en Jupyter-notebook för att testa promptteknik, få-skottsinlärning och RAG. Du kan skapa och utforska AI-projekt online – du behöver ingen snabb GPU eller lokal installation.

Läs mer i Phi-3-sessionen i kursen:

Introduktion till Azure AI Foundry

Använd Azure AI Foundry för att börja skapa generativa AI-appar med JavaScript. Organisera resurser med hubbar och projekt, bläddra bland tusentals modeller och distribuera en modell för att testa på en lekplats. Oavsett om du väljer hanterade beräknings- eller serverlösa API:er följer du samma steg för att välja, distribuera och använda din modell i arbetsflödet.

Läs mer i Azure AI Foundry-sessionen i kursen:

Skapa generativa AI-appar med Azure Cosmos DB

Läs mer i Azure Cosmos DB-sessionen i kursen:

Azure-verktyg & tjänster för att hantera och lagra AI-appar

Upptäck viktiga Azure-verktyg och -tjänster för att vara värd för och lagra dina AI-appar. Skapa olika typer av AI-appar, till exempel chattappar, RAG och autonoma agenter. Använd Azure Developer CLI (AZD) för att enkelt distribuera. Jämför serverlösa och containerbaserade alternativ och lär dig hur du håller dina API:er säkra, skalbara och övervakade för verklig användning.

Läs mer i azure-verktygs- och tjänstsessionen i kursen:

Strömma generativa AI-utdata med AI Chat Protocol

Strömma generativa AI-utdata med AI Chat Protocol. Det här verktyget gör det enkelt att kommunicera i realtid mellan din AI-tjänst och dina klientappar. Prova två strömningsmetoder: kör slutsatsdragning i webbläsaren eller använd en AI-slutsatsdragningsserver. Se upp för API-nyckelexponering, datasäkerhet och val av rätt protokoll. Med AI Chat Protocol:s enkla klient kan du lägga till säker och effektiv direktuppspelning till din app med hjälp av getCompletion- och getStreamedCompletion-metoder, vilket visas i vårt serverlösa RAG med LangChain.js exempel.

Läs mer i Streaming-sessionen i kursen: