Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här artikeln visar ett urval av Azure AI Foundry-modeller från partner och community tillsammans med deras funktioner, distributionstyper och tillgänglighetsområden, exklusive inaktuella och äldre modeller. De flesta Foundry-modeller kommer från partner och community. Betrodda tredjepartsorganisationer, partner, forskningslabb och communitydeltagare tillhandahåller dessa modeller.
Beroende på vilken typ av projekt du använder i Azure AI Foundry ser du ett annat urval av modeller. Mer specifikt, om du använder ett Foundry-projekt som bygger på en Azure AI Foundry-resurs, ser du de modeller som är tillgängliga för standarddistribution till en Foundry-resurs. Om du använder ett hubbbaserat projekt som hanteras av en Azure AI Foundry-hubb kan du också se modeller som är tillgängliga för distribution till hanterade beräknings- och serverlösa API:er. Dessa modellval överlappar ofta eftersom många modeller stöder flera distributionsalternativ.
Mer information om attribut för Foundry-modeller från partner och community finns i Utforska Azure AI Foundry Models.
Anmärkning
En lista över modeller som säljs direkt av Azure finns i Foundry-modeller som säljs direkt av Azure.
Cohere
Cohere-serien med modeller innehåller olika modeller som är optimerade för olika användningsfall, inklusive chattavslut och inbäddningar. Sammanhållna modeller är optimerade för olika användningsfall som inkluderar resonemang, sammanfattning och frågesvar.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| Cohere-command-a | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: text (8 182 tokens) - Språk: en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Cohere-command-r-plus-08-2024 | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Språk: en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Cohere-command-r-08-2024 | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Språk: en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| embed-v-4-0 | embeddings |
-
Indata: text (512 token) och bilder (2MM bildpunkter) - Utdata: Vektor (256, 512, 1024, 1536 dim.) - Språk: en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar |
Foundry, Hub-baserad |
| Cohere-embed-v3-english | embeddings |
-
Indata: text och bilder (512 element) - Utdata: Vektor (1 024 dim.) - Språk: en |
Foundry, Hub-baserad |
| Cohere-embed-v3-multilingual | embeddings |
-
Ingång: text (512 tokens) - Utdata: Vektor (1 024 dim.) - Språk: en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar |
Foundry, Hub-baserad |
Cohere omrangordna
| Model | Typ | Capabilities | API-referens | Projekttyp |
|---|---|---|---|---|
| Cohere-rerank-v3.5 | rerank text classification |
-
Indata: text - Resultat: text - Språk: Engelska, kinesiska, franska, tyska, indonesiska, italienska, portugisiska, ryska, spanska, arabiska, nederländska, hindi, japanska, vietnamesiska |
Cohere's v2/rerank API | Hubbbaserad |
Mer information om priser för cohere-omrankningsmodeller finns i Prissättning för cohere-omrankningsmodeller.
Se cohere-modellsamlingen i Azure AI Foundry-portalen.
Core42
Core42 innehåller autoregressiva tvåspråkiga LLM:er för arabiska och engelska med toppmoderna funktioner på arabiska.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| jais-30b-chat | chat-completion |
-
Indata: text (8 192 tokenar) - Utdata: (4 096 token) - Språk: en och ar - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Meta
Meta Llama-modeller och -verktyg är en samling förtränade och finjusterade generativa AI-modeller för text- och bildresonemang. Metamodeller varierar i skala för att inkludera:
- Små språkmodeller (SSM) som 1B och 3B bas- och instruktionsmodeller för inferens på enheter och i edge-miljöer.
- Medelstora stora språkmodeller (LLM: er) som 7B-, 8B- och 70B-bas- och instruktionsmodeller
- Högpresterande modeller som Meta Llama 3.1-405B Instruera för användningsfall för syntetisk datagenerering och destillation.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| Llama-3.2-11B-Vision-Instruct | chat-completion |
-
Indata: text och bild (128 000 tokens) - Utdata: (8 192 enheter) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Llama-3.2-90B-Vision-Instruct | chat-completion |
-
Indata: text och bild (128 000 tokens) - Utdata: (8 192 enheter) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Meta-Llama-3.1-405B-Instruct | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: (8 192 enheter) - Språk: en, de, fr, it, pt, hi, esoch th - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Meta-Llama-3.1-8B-Instruct | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: (8 192 enheter) - Språk: en, de, fr, it, pt, hi, esoch th - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Llama-4-Scout-17B-16E-Instruct | chat-completion |
-
Indata: text och bild (128 000 tokens) - Utdata: text (8 192 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
Se den här modellsamlingen i Azure AI Foundry-portalen. Du kan också hitta flera metamodeller som är tillgängliga som modeller som säljs direkt av Azure.
Microsoft
Microsoft-modeller innehåller olika modellgrupper som MAI-modeller, Phi-modeller, AI-modeller för hälso- och sjukvård med mera.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| Phi-4-mini-instruct | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: (4 096 token) - Språk: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr och uk - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Phi-4-multimodal-instruct | chat-completion |
-
Indata: text, bilder och ljud (131 072 tokens) - Utdata: (4 096 token) - Språk: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr och uk - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Phi-4 | chat-completion |
-
Indata: text (16,384 tokens) - Utdata: (16 384 tokens) - Språk: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, och zh - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Phi-4-reasoning | chat-completion med resonemangsinnehåll |
-
Indata: text (32 768 tokens) - Utdata: text (32 768 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Phi-4-mini-reasoning | chat-completion med resonemangsinnehåll |
-
Indata: text (128 000 tokenar) - Utdata: text (128 000 token) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
Se Microsofts modellsamling i Azure AI Foundry-portalen. Microsoft-modeller är också tillgängliga som modeller som säljs direkt av Azure.
Mistral AI
Mistral AI erbjuder två kategorier av modeller: premiummodeller som Mistral Large 2411 och Ministral 3B och öppna modeller som Mistral Nemo.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| Codestral-2501 | chat-completion |
-
Indata: text (262,144 token) - Utdata: text (4,096 tokens) - Språk: en - Verktygsanrop: Nej - Svarsformat: Text |
Foundry, Hub-baserad |
| Ministral-3B | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Språk: fr, de, es, it och en - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Mistral-Nemo | chat-completion |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Språk: en, fr, de, es, it, zh, ja, ko, pt, , nloch pl - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Mistral-small-2503 | chat-completion |
-
Indata: text (32 768 tokens) - Utdata: text (4,096 tokens) - Språk: fr, de, es, it och en - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Mistral-medium-2505 | chat-completion |
-
Indata: text (128 000 tokens), bild - Utdata: text (128 000 token) - Verktygsanrop: Nej - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Mistral-Large-2411 | chat-completion |
-
Indata: text (128 000 tokenar) - Utdata: text (4,096 tokens) - Språk: en, fr, de, es, it, zh, ja, ko, pt, , nloch pl - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Foundry, Hub-baserad |
| Mistral-OCR-2503 | bild till text |
-
Indata: bild- eller PDF-sidor (1 000 sidor, max 50 MB PDF-fil) - Resultat: text - Verktygsanrop: Nej - Svarsformat: Text, JSON, Markdown |
Hubbbaserad |
| mistralai-Mistral-7B-Instruct-v01 | chat-completion |
-
Indata: text - Resultat: text - Språk: en - Svarsformat: Text |
Hubbbaserad |
| mistralai-Mistral-7B-Instruct-v0-2 | chat-completion |
-
Indata: text - Resultat: text - Språk: en - Svarsformat: Text |
Hubbbaserad |
| mistralai-Mixtral-8x7B-Instruct-v01 | chat-completion |
-
Indata: text - Resultat: text - Språk: en - Svarsformat: Text |
Hubbbaserad |
| mistralai-Mixtral-8x22B-Instruct-v0-1 | chat-completion |
-
Indata: text (64 000 tokens) - Utdata: text (4,096 tokens) - Språk: fr, it, de, es, en - Svarsformat: Text |
Hubbbaserad |
Se den här modellsamlingen i Azure AI Foundry-portalen. Mistral-modeller är också tillgängliga som modeller som säljs direkt av Azure.
Nixtla
Nixtlas TimeGEN-1 är en generativ förtränad prognostiserings- och avvikelseidentifieringsmodell för tidsseriedata. TimeGEN-1 ger korrekta prognoser för nya tidsserier utan träning, med endast historiska värden och exogena samvariater som indata.
För att utföra slutsatsdragning kräver TimeGEN-1 att du använder Nixtlas anpassade slutsatsdragnings-API.
| Model | Typ | Capabilities | Slutsatsdragnings-API | Projekttyp |
|---|---|---|---|---|
| TimeGEN-1 | Forecasting |
-
Inmatning: Tidsseriedata som JSON eller dataramar (med stöd för multivariatindata) - Utdata: Tidsseriedata som JSON - Verktygsanrop: Nej - Svarsformat: JSON |
Prognosklienten interagerar med Nixtlas API | Hubbbaserad |
Mer information om priser för Nixtla-modeller finns i Nixtla.
NTT-data
tsuzumi är en autoregressiv språkoptimerad transformerare. De finjusterade versionerna använder övervakad finjustering (SFT). tsuzumi hanterar både japanska och engelska med hög effektivitet.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| tsuzumi-7b | chat-completion |
-
Indata: text (8 192 tokenar) - Utdata: text (8 192 tokens) - Språk: en och jp - Verktygsanrop: Nej - Svarsformat: Text |
Hubbbaserad |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Stabilitets-AI
Samlingen Stabilitets-AI för bildgenereringsmodeller innehåller Stable Image Core, Stable Image Ultra och Stable Diffusion 3.5 Large. Stabil diffusion 3.5 Large accepterar både bild- och textinmatning.
| Model | Typ | Capabilities | Projekttyp |
|---|---|---|---|
| Stabil diffusion 3,5 stor | Bildgenerering |
-
Indata: text och bild (1 000 token och 1 bild) - Utdata: En bild - Verktygsanrop: Nej - Svarsformat: Bild (PNG och JPG) |
Foundry, Hub-baserad |
| Stabil bildkärna | Bildgenerering |
-
Indata: text (1 000 token) - Utdata: En bild - Verktygsanrop: Nej - Svarsformat: Bild (PNG och JPG) |
Foundry, Hub-baserad |
| Ultra Stabil Bild | Bildgenerering |
-
Indata: text (1 000 token) - Utdata: En bild - Verktygsanrop: Nej - Svarsformat: Bild (PNG och JPG) |
Foundry, Hub-baserad |
Se den här modellsamlingen i Azure AI Foundry-portalen.
Öppna och anpassade modeller
Modellkatalogen erbjuder ett större urval av modeller från ett bredare utbud av leverantörer. För dessa modeller kan du inte använda alternativet för standarddistribution i Azure AI Foundry-resurser, där modeller tillhandahålls som API:er. För att distribuera dessa modeller kan du i stället behöva vara värd för dem i din infrastruktur, skapa en AI-hubb och tillhandahålla den underliggande beräkningskvoten som värd för modellerna.
Dessutom kan dessa modeller vara öppna eller IP-skyddade. I båda fallen måste du distribuera dem i hanterade beräkningserbjudanden i Azure AI Foundry. Information om hur du kommer igång finns i Anvisningar: Distribuera till hanterad beräkning.