Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Azure AI Foundry Models is uw eenmalige bestemming voor het detecteren, evalueren en implementeren van krachtige AI-modellen, ongeacht of u een aangepaste copilot bouwt, een agent bouwt, een bestaande toepassing verbetert of nieuwe AI-mogelijkheden verkent.
Met Foundry-modellen kunt u het volgende doen:
- Verken een uitgebreide catalogus met geavanceerde modellen van Microsoft, OpenAI, DeepSeek, Hugging Face, Meta en meer.
- Vergelijk en evalueer modellen naast elkaar met behulp van echte taken en uw eigen gegevens.
- Implementeer met vertrouwen dankzij ingebouwde hulpprogramma's voor het afstemmen, waarneembaarheid en verantwoorde AI.
- Kies uw pad: bring your own model, gebruik een gehost model of integreer naadloos met Azure-services.
- Of u nu een ontwikkelaar, data scientist of enterprise architect bent, Foundry Models biedt u de flexibiliteit en controle om AI-oplossingen te bouwen die veilig, verantwoord en snel kunnen worden geschaald.
Azure AI Foundry biedt een uitgebreide catalogus met AI-modellen. Er zijn meer dan 1900 modellen, variërend van Foundation Models, Reasoning Models, Small Language Models, Multimodal Models, Domain Specific Models, Industry Models en meer.
Onze catalogus is ingedeeld in twee hoofdcategorieën:
Als u het onderscheid tussen deze categorieën begrijpt, kunt u de juiste modellen kiezen op basis van uw specifieke vereisten en strategische doelen.
Opmerking
- Voor alle modellen blijven klanten verantwoordelijk voor (i) het naleven van de wet in hun gebruik van elk model of systeem; ii) het beoordelen van modelbeschrijvingen in de modelcatalogus, modelkaarten die beschikbaar worden gesteld door de modelprovider en andere relevante documentatie; (iii) het selecteren van een geschikt model voor hun gebruiksscenario en (iv) het implementeren van passende maatregelen (inclusief het gebruik van Azure AI Content Safety) om ervoor te zorgen dat het gebruik van de Microsoft AI-services voldoet aan het beleid voor acceptabel gebruik in de productvoorwaarden van Microsoft en de Gedragscode voor Microsoft Enterprise AI Services.
Modellen die rechtstreeks door Azure worden verkocht
Dit zijn modellen die worden gehost en verkocht door Microsoft onder Microsoft-productvoorwaarden. Microsoft heeft deze modellen geëvalueerd en ze zijn diep geïntegreerd in het AI-ecosysteem van Azure. De modellen zijn afkomstig van verschillende providers en bieden verbeterde integratie, geoptimaliseerde prestaties en directe Microsoft-ondersteuning, waaronder SLA's (Service Level Agreements) op bedrijfsniveau.
Kenmerken van modellen die rechtstreeks door Azure worden verkocht:
- Ondersteuning beschikbaar van Microsoft.
- Hoog integratieniveau met Azure-services en -infrastructuur.
- Onderhevig aan interne beoordeling op basis van de verantwoordelijke AI-standaarden van Microsoft.
- Modeldocumentatie en transparantierapporten bieden inzicht in klantrisico's, risicobeperking en beperkingen.
- Schaalbaarheid, betrouwbaarheid en beveiliging op bedrijfsniveau.
Sommige van deze modellen hebben ook het voordeel van vervangbare ingerichte doorvoer, wat betekent dat u uw quota en reserveringen flexibel kunt gebruiken voor elk van deze modellen.
Modellen van partners en gemeenschap
Deze modellen vormen de overgrote meerderheid van de Azure AI Foundry-modellen en worden geleverd door vertrouwde externe organisaties, partners, onderzoekslabs en inzenders van de community. Deze modellen bieden gespecialiseerde en diverse AI-mogelijkheden, met een breed scala aan scenario's, branches en innovaties.
Voorbeelden van modellen van partners en community zijn Open-modellen uit de Hugging Face-hub. Dit zijn honderden modellen van de Hugging Face-hub voor realtime deductie met beheerde rekenkracht. Hugging Face creëert en onderhoudt de modellen die in deze verzameling zijn opgenomen. Voor hulp bij de hugging Face-modellen gebruikt u het hugging Face-forum of hugging Face-ondersteuning. Meer informatie over het implementeren van Hugging Face-modellen in Open modellen implementeren met Azure AI Foundry.
Kenmerken van modellen van partners en gemeenschap:
- Ontwikkeld en ondersteund door externe partners en community-inzenders
- Diverse reeks gespecialiseerde modellen die geschikt zijn voor niche of brede gebruiksvoorbeelden
- Doorgaans gevalideerd door providers zelf, met integratierichtlijnen van Azure
- Communitygestuurde innovatie en snelle beschikbaarheid van geavanceerde modellen
- Standaard Azure AI-integratie met ondersteuning en onderhoud die wordt beheerd door de respectieve providers
Modellen van partners en community's kunnen worden geïmplementeerd als beheerde compute- of serverloze API-implementatieopties. De modelprovider selecteert hoe de modellen kunnen worden geïmplementeerd.
Een model aanvragen dat moet worden opgenomen in de modelcatalogus
U kunt aanvragen dat we een model toevoegen aan de modelcatalogus, rechtstreeks vanaf de pagina modelcatalogus in de Azure AI Foundry-portal. In het zoekveld van de modelcataloguspagina, wanneer er gezocht wordt naar een model dat niet in de catalogus bestaat, zoals mymodel, verschijnt de knop Een model aanvragen. Selecteer deze knop om een formulier te openen waarin u details kunt delen over het model dat u aanvraagt.
Kiezen tussen directe modellen en partnermodellen en communitymodellen
Houd rekening met het volgende bij het selecteren van modellen in Azure AI Foundry-modellen:
- Use-case en vereisten: modellen die rechtstreeks door Azure worden verkocht, zijn ideaal voor scenario's waarvoor diepgaande Azure-integratie, gegarandeerde ondersteuning en enterprise SLA's zijn vereist. Modellen van partners en community exceln in gespecialiseerde use cases en door innovatie geleide scenario's.
- Ondersteuningsverwachtingen: modellen die rechtstreeks door Azure worden verkocht, worden geleverd met robuuste door Microsoft geleverde ondersteuning en onderhoud. Deze modellen worden ondersteund door hun providers, met verschillende niveaus van SLA en ondersteuningsstructuren.
- Innovatie en specialisatie: Modellen van partners en community bieden snelle toegang tot gespecialiseerde innovaties en nichemogelijkheden die vaak zijn ontwikkeld door toonaangevende onderzoekslabs en opkomende AI-providers.
Overzicht van mogelijkheden van modelcatalogus
De modelcatalogus in de Azure AI Foundry-portal is de hub voor het detecteren en gebruiken van een breed scala aan modellen voor het bouwen van generatieve AI-toepassingen. De modelcatalogus bevat honderden modellen voor modelproviders, zoals Azure OpenAI, Mistral, Meta, Cohere, NVIDIA en Hugging Face, inclusief modellen die Door Microsoft zijn getraind. Modellen van andere providers dan Microsoft zijn niet-Microsoft-producten zoals gedefinieerd in de Microsoft-productvoorwaarden en zijn onderhevig aan de voorwaarden die bij de modellen worden geleverd.
U kunt modellen zoeken en ontdekken die voldoen aan uw behoeften via trefwoorden zoeken en filters. Modelcatalogus biedt ook het scorebord voor modelprestaties en benchmarkgegevens voor bepaalde modellen. U kunt deze openen door bladeren op leaderboard en Modellen vergelijken te selecteren. Benchmarkgegevens zijn ook toegankelijk via het tabblad Benchmark voor modelkaarten.
Op de filters van de modelcatalogus vindt u het volgende:
- Verzameling: u kunt modellen filteren op basis van de verzameling van de modelprovider.
- Branche: u kunt filteren op de modellen die zijn getraind op branchespecifieke gegevensset.
- Mogelijkheden: u kunt filteren op unieke modelfuncties, zoals redenering en aanroepen van hulpprogramma's.
-
Implementatieopties: u kunt filteren op de modellen die ondersteuning bieden voor een specifieke implementatieopties.
- serverloze API: met deze optie kunt u betalen per API-aanroep.
- Ingericht: het meest geschikt voor real-time scoren voor grote, consistente volumes.
- Batch: het meest geschikt voor kosten geoptimaliseerde batchtaken, niet voor gevallen waar latentie belangrijk is. Er is geen ondersteuning voor speeltuinen beschikbaar voor de batchimplementatie.
- Beheerde berekening: met deze optie kunt u een model implementeren op een virtuele Azure-machine. U wordt gefactureerd voor hosting en inferentie.
- Deductietaken: u kunt modellen filteren op basis van het type deductietaak.
- Fijn afstemmen van taken: u kunt modellen filteren op basis van het type fine-tune taak.
- Licenties: u kunt modellen filteren op basis van het licentietype.
Op de modelkaart vindt u:
- Snelle feiten: u ziet in één oogopslag belangrijke informatie over het model.
- Details: deze pagina bevat de gedetailleerde informatie over het model, inclusief beschrijving, versie-informatie, ondersteund gegevenstype, enzovoort.
- Benchmarks: u vindt metrische prestatiebenchmarks voor geselecteerde modellen.
- Bestaande implementaties: als u het model al hebt geïmplementeerd, kunt u dit vinden op het tabblad Bestaande implementaties.
- Licentie: u vindt juridische informatie met betrekking tot modellicenties.
- Artefacten: dit tabblad wordt alleen weergegeven voor geopende modellen. U kunt de modelassets zien en downloaden via de gebruikersinterface.
Modelimplementatie: Beheerde compute- en serverloze API-implementaties
Naast implementatie in Azure OpenAI biedt de modelcatalogus twee verschillende manieren om modellen te implementeren voor uw gebruik: beheerde compute- en serverloze API-implementaties.
De implementatieopties en -functies die beschikbaar zijn voor elk model variëren, zoals beschreven in de volgende tabellen. Meer informatie over gegevensverwerking met de implementatieopties.
Mogelijkheden van modelimplementatieopties
| Kenmerken | Volledig beheerde rekenprocessen | serverloze API-implementatie |
|---|---|---|
| Implementatie-ervaring en -facturering | Modelgewichten worden geïmplementeerd op toegewezen virtuele machines met beheerde rekenkracht. Een beheerde berekening, die een of meer implementaties kan hebben, maakt een REST API beschikbaar voor deductie. U wordt gefactureerd voor de kernuren van de virtuele machine die door de implementaties worden gebruikt. | Toegang tot modellen is via een implementatie die een API inricht voor toegang tot het model. De API biedt toegang tot het model dat door Microsoft wordt gehost en beheerd voor inferentie. U wordt gefactureerd voor invoer en uitvoer voor de API's, meestal in tokens. Prijsinformatie wordt verstrekt voordat u implementeert. |
| API-verificatie | Sleutels en Microsoft Entra-authenticatie. | Alleen sleutels. |
| Inhoudsveiligheid | Azure AI Content Safety Service-API's gebruiken. | Azure AI Content Veiligheid-filters zijn geïntegreerd met deductie-API's. Azure AI Content Safety-filters worden afzonderlijk gefactureerd. |
| Netwerkisolatie | Beheerde netwerken configureren voor Azure AI Foundry-hubs. | Beheerde rekenkracht volgt de vlaginstelling voor openbare netwerktoegang (PNA) van uw hub. Zie de sectie Netwerkisolatie voor modellen die zijn geïmplementeerd via serverloze API-implementaties verderop in dit artikel voor meer informatie. |
Beschikbare modellen voor ondersteunde implementatieopties
Zie Azure OpenAI voor Azure OpenAI-modellen.
Als u een lijst met ondersteunde modellen voor serverloze API-implementatie of Managed Compute wilt weergeven, gaat u naar de startpagina van de modelcatalogus in Azure AI Foundry. Gebruik het filter Implementatieopties om serverloze API-implementatie of Managed Compute te selecteren.
Modellevenscyclus: veroudering en uitfasering
AI-modellen ontwikkelen zich snel en wanneer een nieuwe versie of een nieuw model met bijgewerkte mogelijkheden in dezelfde modelfamilie beschikbaar wordt, kunnen oudere modellen buiten gebruik worden gesteld in de ai Foundry-modelcatalogus. Om een soepele overgang naar een nieuwere modelversie mogelijk te maken, bieden sommige modellen gebruikers de mogelijkheid om automatische updates in te schakelen. Zie voor meer informatie over de levenscyclus van verschillende modellen, toekomstige buitengebruikstellingsdatums van modellen en voorgestelde vervangingsmodellen en versies:
- Afschaffingen en buitengebruikstelling van Azure OpenAI-modellen
- Afschaffingen en buitengebruikstelling van serverloze API-implementatiemodellen
Volledig beheerde rekenprocessen
De mogelijkheid om modellen als beheerde berekening te implementeren, bouwt voort op platformmogelijkheden van Azure Machine Learning om naadloze integratie mogelijk te maken van de brede verzameling modellen in de modelcatalogus gedurende de gehele levenscyclus van LLM-bewerkingen (Large Language Model).
Beschikbaarheid van modellen voor implementatie als beheerde rekenkracht
De modellen worden beschikbaar gesteld via Azure Machine Learning-registers. Deze registers maken een machine learning-first-benadering mogelijk voor het hosten en distribueren van Azure Machine Learning-assets. Deze assets omvatten modelgewichten, containerruntimes voor het uitvoeren van de modellen, pijplijnen voor het evalueren en verfijnen van de modellen en gegevenssets voor benchmarks en voorbeelden.
De registers bouwen voort op een zeer schaalbare en bedrijfsklare infrastructuur die:
Biedt artefacten van het toegangsmodel met lage latentie aan voor alle Azure-regio's met ingebouwde geo-replicatie.
Ondersteunt bedrijfsbeveiligingsvereisten, zoals het beperken van de toegang tot modellen met behulp van Azure Policy en veilige implementatie met behulp van beheerde virtuele netwerken.
Implementatie van modellen voor deductie met beheerde rekenkracht
Modellen die beschikbaar zijn voor deployment naar beheerbare rekenkracht, kunnen worden ingezet op Azure Machine Learning beheerbare rekenkracht voor realtime inference. Voor het implementeren naar beheerde berekeningen moet u een quotum voor virtuele machines in uw Azure-abonnement hebben voor de specifieke producten die u nodig hebt om het model optimaal uit te voeren. Met sommige modellen kunt u een tijdelijk gedeeld quotum implementeren voor modeltests.
Meer informatie over het implementeren van modellen:
Generatieve AI-apps bouwen met beheerde rekenkracht
De prompt flow functie in Azure Machine Learning biedt een uitstekende ervaring voor het maken van prototypes. U kunt modellen gebruiken die zijn geïmplementeerd met beheerbare rekenkracht in prompt-flow met het hulpprogramma Open Model LLM. U kunt ook de REST API gebruiken die wordt weergegeven door beheerde compute in populaire LLM-hulpprogramma's zoals LangChain met de Azure Machine Learning-extensie.
Inhoudsveiligheid voor modellen die zijn geïmplementeerd als beheerde rekenkracht
De Azure AI Content Safety-service is beschikbaar voor gebruik met beheerde berekeningen om te controleren op verschillende categorieën schadelijke inhoud, zoals seksuele inhoud, geweld, haat en zelfbeschadiging. U kunt de service ook gebruiken om te screenen op geavanceerde bedreigingen, zoals jailbreak-risicodetectie en detectie van beveiligde materiaalteksten.
U kunt dit notebook raadplegen voor referentieintegratie met Azure AI Content Safety voor Llama 2. U kunt ook het hulpprogramma Content Safety (Text) gebruiken in de promptstroom om reacties van het model door te geven aan Azure AI Content Safety voor screening. U wordt afzonderlijk gefactureerd voor dergelijk gebruik, zoals beschreven in prijzen voor Azure AI Content Safety.
Facturering voor serverloze API-implementatie
U kunt bepaalde modellen implementeren in de modelcatalogus met serverloze API-facturering. Deze implementatiemethode, ook wel serverloze API-implementatie genoemd, biedt een manier om de modellen als API's te gebruiken zonder deze te hosten in uw abonnement. Modellen worden gehost in een door Microsoft beheerde infrastructuur, waardoor API-toegang tot het model van de modelprovider mogelijk is. Api-toegang kan de kosten voor het openen van een model aanzienlijk verlagen en de inrichtingservaring vereenvoudigen.
Modellen die beschikbaar zijn voor implementatie als serverloze API-implementaties, worden aangeboden door de modelprovider, maar ze worden gehost in een door Microsoft beheerde Azure-infrastructuur en toegankelijk via API. Modelproviders definiëren de licentievoorwaarden en stellen de prijs in voor het gebruik van hun modellen. De Azure Machine Learning-service:
- Beheert de hostinginfrastructuur.
- Maakt de deductie-API's beschikbaar.
- Fungeert als de gegevensverwerker voor prompts die worden verzonden en inhoudsuitvoer door modellen die zijn geïmplementeerd via MaaS.
Meer informatie over gegevensverwerking voor MaaS vindt u in het artikel over gegevensprivacy.
Opmerking
CSP-abonnementen (Cloud Solution Provider) hebben niet de mogelijkheid om serverloze API-implementatiemodellen aan te schaffen.
Facturatie
De detectie-, abonnements- en verbruikservaring voor modellen die zijn geïmplementeerd via MaaS, bevindt zich in de Azure AI Foundry-portal en Azure Machine Learning Studio. Gebruikers accepteren licentievoorwaarden voor het gebruik van de modellen. Prijsinformatie voor verbruik wordt verstrekt tijdens de implementatie.
Modellen van niet-Microsoft-providers worden gefactureerd via Azure Marketplace, in overeenstemming met de gebruiksvoorwaarden van Microsoft Commercial Marketplace.
Modellen van Microsoft worden gefactureerd via Azure-meters als First Party Consumption Services. Zoals beschreven in de productvoorwaarden, koopt u First Party Consumption Services met behulp van Azure-meters, maar deze zijn niet onderhevig aan de Azure-servicevoorwaarden. Het gebruik van deze modellen is onderhevig aan de opgegeven licentievoorwaarden.
Modellen verfijnen
Bepaalde modellen maken ook fijnafstelling mogelijk. Voor deze modellen kunt u profiteren van beheerde berekeningen (preview) of serverloze API-implementaties om de modellen af te stemmen met behulp van gegevens die u opgeeft. Zie het fijn-afstem overzicht voor meer informatie.
RAG met modellen die zijn geïmplementeerd als serverloze API-implementaties
In de Azure AI Foundry-portal kunt u vectorindexen en retrieval-augmented generation (RAG) gebruiken. U kunt modellen gebruiken die kunnen worden geïmplementeerd via serverloze API-implementaties om insluitingen en deductie te genereren op basis van aangepaste gegevens. Deze insluitingen en deductie kunnen vervolgens antwoorden genereren die specifiek zijn voor uw use-case. Zie Vectorindexen bouwen en gebruiken in de Azure AI Foundry-portal voor meer informatie.
Regionale beschikbaarheid van aanbiedingen en modellen
Facturering per token is alleen beschikbaar voor gebruikers van wie het Azure-abonnement deel uitmaakt van een factureringsrekening in een land/regio waar de modelprovider de aanbieding beschikbaar heeft gesteld. Als de aanbieding beschikbaar is in de relevante regio, moet de gebruiker een projectresource hebben in de Azure-regio waar het model beschikbaar is voor implementatie of afstemming, indien van toepassing. Zie de beschikbaarheid van regio's voor modellen in serverloze API-implementaties | Azure AI Foundry voor meer gedetailleerde informatie.
Inhoudsveiligheid voor modellen die zijn geïmplementeerd via serverloze API-implementaties
Voor taalmodellen die zijn geïmplementeerd via serverloze API, implementeert Azure AI een standaardconfiguratie van tekstbeheerfilters van Azure AI Content Safety die schadelijke inhoud detecteren, zoals haat, zelfschadig, seksueel en gewelddadig inhoud. Zie Kaders en besturingselementen voor modellen die rechtstreeks door Azure worden verkocht voor meer informatie over het filteren van inhoud.
Aanbeveling
Inhoudsfiltering is niet beschikbaar voor bepaalde modeltypen die worden geïmplementeerd via serverloze API. Deze modeltypen omvatten het insluiten van modellen en tijdreeksmodellen.
Inhoudsfiltering wordt synchroon uitgevoerd wanneer de service vraagt om inhoud te genereren. Mogelijk wordt u afzonderlijk gefactureerd op basis van azure AI Content Safety-prijzen voor dergelijk gebruik. U kunt het filteren van inhoud uitschakelen voor afzonderlijke serverloze eindpunten:
- Op het moment dat u voor het eerst een taalmodel implementeert
- Later selecteert u de wisselknop voor het filteren van inhoud op de pagina met implementatiedetails
Stel dat u besluit een andere API dan de ModelDeductie-API te gebruiken om te werken met een model dat is geïmplementeerd via een serverloze API. In een dergelijke situatie wordt inhoudsfiltering niet ingeschakeld, tenzij u deze afzonderlijk implementeert met behulp van Azure AI Content Safety.
Zie quickstart: Tekstinhoud analyseren om aan de slag te gaan met Azure AI Content Safety. Als u geen inhoudsfilters gebruikt bij het werken met modellen die zijn geïmplementeerd via serverloze API, loopt u een hoger risico om gebruikers bloot te stellen aan schadelijke inhoud.
Netwerkisolatie voor modellen die zijn geïmplementeerd via serverloze API-implementaties
Eindpunten voor modellen die zijn geïmplementeerd als serverloze API-implementaties, volgen de instelling van de openbare netwerktoegangsvlag van de Azure AI Foundry-hub met het project waarin de implementatie bestaat. Als u uw serverloze API-implementatie wilt beveiligen, schakelt u de vlag voor openbare netwerktoegang uit op uw Azure AI Foundry-hub. U kunt binnenkomende communicatie van een client naar uw eindpunt beveiligen met behulp van een privé-eindpunt voor de hub.
De vlag voor openbare netwerktoegang instellen voor de Azure AI Foundry-hub:
- Ga naar Azure Portal.
- Zoek naar de resourcegroep waartoe de hub behoort en selecteer uw Azure AI Foundry-hub in de resources die voor deze resourcegroep worden vermeld.
- Ga op de overzichtspagina van de hub in het linkerdeelvenster naar Instellingennetwerken>.
- Op het tabblad Openbare toegang kunt u instellingen configureren voor de vlag voor openbare netwerktoegang.
- Sla uw wijzigingen op. Het kan vijf minuten duren voordat uw wijzigingen zijn doorgevoerd.
Beperkingen
Als u een Azure AI Foundry-hub hebt met een privé-eindpunt dat vóór 11 juli 2024 is gemaakt, volgen serverloze API-implementaties die zijn toegevoegd aan projecten in deze hub niet de netwerkconfiguratie van de hub. In plaats daarvan moet u een nieuw privé-eindpunt voor de hub maken en een nieuwe serverloze API-implementatie maken in het project, zodat de nieuwe implementaties de netwerkconfiguratie van de hub kunnen volgen.
Als u een Azure AI Foundry-hub hebt met MaaS-implementaties die vóór 11 juli 2024 zijn gemaakt en u een privé-eindpunt op deze hub inschakelt, volgen de bestaande serverloze API-implementaties de netwerkconfiguratie van de hub niet. Voor serverloze API-implementaties in de hub om de netwerkconfiguratie van de hub te volgen, moet u de implementaties opnieuw maken.
Momenteel is Azure OpenAI op uw gegevensondersteuning niet beschikbaar voor serverloze API-implementaties in privéhubs, omdat privéhubs de vlag voor openbare netwerktoegang hebben uitgeschakeld.
Het kan vijf minuten duren voordat een netwerkconfiguratiewijziging (bijvoorbeeld het in- of uitschakelen van de vlag voor openbare netwerktoegang) is doorgevoerd.