Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
In dit artikel worden de geavanceerde open modellen beschreven die worden ondersteund door Databricks Foundation-model-API's.
Opmerking
Zie Ondersteunde basismodellen op Mosaic AI Model Serving voor beschikbaarheid in regio's van deze modellen en de ondersteunde functiegebieden.
U kunt queryaanvragen naar deze modellen verzenden met behulp van de eindpunten voor betalen per token die beschikbaar zijn in uw Databricks-werkruimte. Zie Gebruik basismodellen en de tabel met modellen die betaling per token ondersteunen voor de namen van de modeleindpunten om te gebruiken.
Naast het ondersteunen van modellen in de betalen-per-token modus, biedt de Foundation Model-API ook de gereserveerde doorvoermodus aan. Databricks raadt geprovisioneerde doorvoer aan voor productiewerkbelastingen. Deze modus ondersteunt alle modellen van een modelarchitectuurfamilie (bijvoorbeeld DBRX-modellen), inclusief de nauwkeurig afgestemde en aangepaste vooraf getrainde modellen die worden ondersteund in de modus betalen per token. Zie Provisioned throughput Foundation Model API's voor de lijst met ondersteunde architecturen.
U kunt met deze ondersteunde modellen communiceren met behulp van de AI Playground-.
OpenAI GPT OSS 120B
Belangrijk
OpenAI GPT OSS 120B wordt aangeboden onder en onderworpen aan de Apache 2.0-licentie, copyright (c) De Apache Software Foundation, alle rechten voorbehouden. Klanten zijn verantwoordelijk voor het garanderen van naleving van toepasselijke modellicenties.
GPT OSS 120B is een geavanceerd, redenerend model met denkproces en aanpasbare niveaus van redeneerinspanning, gebouwd en getraind door OpenAI. Het is het vlaggenschipmodel van OpenAI met een open model en heeft een contextvenster van 128k tokens. Het model is gebouwd voor redeneringstaken van hoge kwaliteit.
Net als bij andere grote taalmodellen kan GPT OSS 120B-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
OpenAI GPT OSS 20B
Belangrijk
OpenAI GPT OSS 20B wordt aangeboden onder en onderworpen aan de Apache 2.0-licentie, copyright (c) De Apache Software Foundation, alle rechten voorbehouden. Klanten zijn verantwoordelijk voor het garanderen van naleving van toepasselijke modellicenties.
GPT OSS 20B is een state-of-the-art, lichtgewicht redeneringsmodel gebouwd en getraind door OpenAI. Dit model heeft een contextvenster van 128.000 tokens en blinkt uit in realtime copilots en batch-inferentietaken.
Net als bij andere grote taalmodellen kan GPT OSS 20B-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Google Gemma 3 12B
Belangrijk
Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de Gemma 3-communitylicentie en het beleid voor acceptabel gebruik.
Gemma 3 12B is een multimodale en visiontaalmodel van 12 miljard parameters dat door Google is ontwikkeld als onderdeel van de Gemma 3-familie. Gemma 3 heeft een token context van 128K en biedt meertalige ondersteuning voor meer dan 140 talen. Dit model is ontworpen om zowel tekst- als afbeeldingsinvoer te verwerken en tekstuitvoer te genereren en is geoptimaliseerd voor gebruiksvoorbeelden voor dialoog, het genereren van tekst en het begrijpen van afbeeldingen, waaronder het beantwoorden van vragen.
Net als bij andere grote taalmodellen kan de Uitvoer van Gemma 3 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Meta Llama 4 Maverick
Belangrijk
Zie Toepasselijke modelontwikkelaarslicenties en voorwaarden voor de Llama 4-communitylicentie en het beleid voor acceptabel gebruik.
Llama 4 Maverick is een geavanceerd groot taalmodel gebouwd en getraind door Meta. Het is de eerste van de Llama-modelfamilie dat gebruikmaakt van een combinatie van experts-architectuur voor rekenefficiƫntie. Llama 4 Maverick ondersteunt meerdere talen en is geoptimaliseerd voor nauwkeurige gebruiksvoorbeelden voor afbeeldingen en tekstbegrip. Momenteel is Databricks-ondersteuning voor Llama 4 Maverick beperkt tot toepassingsgebieden voor tekstbegrip. Meer informatie over Llama 4 Maverick.
Net als bij andere grote taalmodellen kan Llama 4-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Meta Llama 3.3 70B Instruct
Belangrijk
Vanaf 11 december 2024 vervangt Meta-Llama-3.3-70B-Instruct de ondersteuning van Meta-Llama-3.1-70B-Instruct in de pay-per-token-eindpunten van Foundation Model APIs.
Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de LLama 3.3-communitylicentie en het beleid voor acceptabel gebruik.
Meta-Llama-3.3-70B-Instruct is een state-of-the-art groot taalmodel met een context van 128.000 tokens dat is gebouwd en getraind door Meta. Het model ondersteunt meerdere talen en is geoptimaliseerd voor gebruiksscenario's voor dialoog. Meer informatie over de Meta Llama 3.3.
Net als bij andere grote taalmodellen kan de uitvoer van Llama-3 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Meta Llama 3.1 405B Instruct
Belangrijk
Het gebruik van dit model met Foundation Model-API's is in openbare preview-fase. Neem contact op met uw Databricks-accountteam als er eindpuntfouten of stabilisatiefouten optreden bij het gebruik van dit model.
Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de Llama 3.1-communitylicentie en het beleid voor acceptabel gebruik.
Meta-Llama-3.1-405B-Instruct is het grootste open beschikbare state-of-the-art grote taalmodel, gebouwd en getraind door Meta, en wordt gedistribueerd door Azure Machine Learning met behulp van de AzureML-modelcatalogus. Dankzij het gebruik van dit model kunnen klanten nieuwe mogelijkheden ontgrendelen, zoals geavanceerde, redenering in meerdere stappen en synthetische gegevensgeneratie van hoge kwaliteit. Dit model is concurrerend met GPT-4-Turbo in termen van kwaliteit.
Net als Meta-Llama-3.1-70B-Instruct heeft dit model een context van 128.000 tokens en ondersteuning in tien talen. Het is afgestemd op menselijke voorkeuren voor behulpzaamheid en veiligheid en is geoptimaliseerd voor gebruiksscenario's voor dialoog. Meer informatie over de Meta Llama 3.1-modellen.
Net als bij andere grote taalmodellen kan de uitvoer van Llama-3.1 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Meta Llama 3.1 8B Instruct
Belangrijk
Zie Toepasselijke modelontwikkelaarslicenties en -voorwaarden voor de LLama 3.1-communitylicentie en het beleid voor acceptabel gebruik.
Meta-Llama-3.1-8B-Instruct is een state-of-the-art grote taalmodel met een context van 128.000 tokens die door Meta zijn gebouwd en getraind. Het model ondersteunt meerdere talen en is geoptimaliseerd voor gebruiksscenario's voor dialoog. Meer informatie over de Meta Llama 3.1.
Net als bij andere grote taalmodellen kan de uitvoer van Llama-3 enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Anthropic Claude Sonnet 4.5
Belangrijk
Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.
Claude Sonnet 4.5 is het meest geavanceerde hybride redeneringsmodel van Tropic. Het biedt twee modi: bijna directe antwoorden en uitgebreid nadenken om dieper te redeneren op basis van de complexiteit van de taak. Claude Sonnet 4.5 is gespecialiseerd in toepassingen die een balans tussen praktische doorvoer en geavanceerd denken vereisen, zoals klantgerichte agents, werkstromen voor productiecodering en het genereren van inhoud op schaal.
Net als bij andere grote taalmodellen kan Claude Sonnet 4.5-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.
Antropische Claude Sonnet 4
Belangrijk
Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.
Claude Sonnet 4 is een state-of-the-art, hybride redeneringsmodel gebouwd en getraind door Antropicus. Dit model biedt twee modi: bijna directe antwoorden en uitgebreid nadenken om dieper te redeneren op basis van de complexiteit van de taak. Claude Sonnet 4 is geoptimaliseerd voor verschillende taken, zoals codeontwikkeling, grootschalige inhoudsanalyse en ontwikkeling van agenttoepassingen.
Net als bij andere grote taalmodellen kan Claude Sonnet 4-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.
Anthropic Claude Opus 4.1
Belangrijk
Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.
Claude Opus 4.1 is een state-of-the-art, hybride redeneringsmodel gebouwd en getraind door Antropisch. Dit algemene grote taalmodel is ontworpen voor zowel complexe redenering als echte toepassingen op ondernemingsniveau. Het ondersteunt tekst- en afbeeldingsinvoer, met een contextvenster van 200.000 token en mogelijkheden voor 32K-uitvoertoken. Dit model excelleert in taken zoals het genereren van code, onderzoek en het maken van inhoud, en werkstromen voor agents met meerdere stappen zonder constante menselijke tussenkomst.
Net als bij andere grote taalmodellen kan Claude Opus 4.1-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.
Antropische Claude 3.7 Sonnet
Belangrijk
Klanten zijn verantwoordelijk voor het waarborgen van hun naleving van de voorwaarden van het beleid voor acceptabel gebruik van antropicus. Zie ook de Databricks Master Cloud Services-overeenkomst.
Claude 3.7 Sonnet is een hypermodern, hybride redeneringsmodel gebouwd en getraind door Anthropic. Het is een model voor grote talen en redeneringen dat snel kan reageren of de redenering ervan kan uitbreiden op basis van de complexiteit van de taak. In de uitgebreide denkmodus zijn de redeneringsstappen van Claude 3.7 Sonnet zichtbaar voor de gebruiker. Claude 3.7 Sonnet is geoptimaliseerd voor verschillende taken zoals het genereren van code, wiskundige redenering en het volgen van instructies.
Net als bij andere grote taalmodellen kan Claude 3.7-uitvoer enkele feiten weglaten en af en toe valse informatie produceren. Databricks raadt aan om retrieval augmented generation (RAG) te gebruiken in scenario's waarin nauwkeurigheid vooral belangrijk is.
Dit eindpunt wordt gehost door Databricks Inc. in AWS binnen de Databricks-beveiligingsperimeter.
GTE Large (en)
Belangrijk
GTE Large (En) wordt verstrekt onder en onderworpen aan de Apache 2.0-licentie, copyright (c) De Apache Software Foundation, alle rechten voorbehouden. Klanten zijn verantwoordelijk voor het garanderen van naleving van toepasselijke modellicenties.
GTE (General Text Embedding) is een model voor het insluiten van tekst dat elke tekst kan toewijzen aan een insluitingsvector van 1024 dimensies en een insluitvenster van 8192 tokens. Deze vectoren kunnen worden gebruikt in vectorindexen voor LLM's en voor taken zoals ophalen, classificatie, vragen beantwoorden, clusteren of semantische zoekopdrachten. Dit eindpunt dient de Engelse versie van het model en genereert geen genormaliseerde insluitingen.
Inbeddingsmodellen zijn met name effectief wanneer zij samen met LLMs worden gebruikt voor retentie-verrijkte generatie (RAG)-gebruiksscenario's. GTE kan worden gebruikt om relevante tekstfragmenten te vinden in grote stukken documenten die kunnen worden gebruikt in de context van een LLM.
BGE Large (En)
BAAI General Embedding (BGE) is een model voor het insluiten van tekst dat elke tekst kan toewijzen aan een insluitingsvector van 1024 dimensies en een insluitvenster van 512 tokens. Deze vectoren kunnen worden gebruikt in vectorindexen voor LLM's en voor taken zoals ophalen, classificatie, vragen beantwoorden, clusteren of semantische zoekopdrachten. Dit eindpunt dient de Engelse versie van het model en genereert genormaliseerde insluitingen.
Inbeddingsmodellen zijn met name effectief wanneer zij samen met LLMs worden gebruikt voor retentie-verrijkte generatie (RAG)-gebruiksscenario's. BGE kan worden gebruikt om relevante tekstfragmenten te vinden in grote stukken documenten die kunnen worden gebruikt in de context van een LLM.
In RAG-toepassingen kunt u mogelijk de prestaties van uw ophaalsysteem verbeteren door een instructieparameter op te geven. De BGE-auteurs raden aan de instructie "Represent this sentence for searching relevant passages:" te proberen voor het insluiten van query's, hoewel de invloed van de prestaties afhankelijk is van een domein.