Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Microsoft Fabric Data Engineering- och Data Science-upplevelser fungerar på en fullständigt hanterad Spark-beräkningsplattform. Den här plattformen är utformad för att leverera oöverträffad hastighet och effektivitet. Den innehåller startpooler och anpassade pooler.
En Fabric-miljö innehåller en samling konfigurationer, inklusive Spark beräknings-egenskaper, som du kan använda för att konfigurera Spark-sessionen efter att de har kopplats till anteckningsböcker och Spark-jobb. Med en miljö har du ett flexibelt sätt att anpassa beräkningskonfigurationer för att köra dina Spark-jobb.
Konfigurera inställningar
Som arbetsyteadministratör kan du aktivera eller inaktivera beräkningsanpassningar.
I fönstret Arbetsyteinställningar väljer du avsnittet Datateknik/Vetenskap .
På fliken Pool aktiverar du växlingsknappen Anpassa beräkningskonfigurationer för objekt till På.
Du kan också delegera medlemmar och deltagare att ändra standardkonfigurationerna för beräkning på sessionsnivå i en Infrastrukturmiljö genom att aktivera den här inställningen.
Om du inaktiverar det här alternativet i fönstret Arbetsyteinställningar inaktiveras avsnittet Beräkning i miljön. Standardkonfigurationerna för poolberäkning för arbetsytan används för att köra Spark-jobb.
Anpassa beräkningsegenskaper på sessionsnivå i en miljö
Som användare kan du välja en pool för miljön från listan över pooler som är tillgängliga i Fabric-arbetsytan. Administratören för Fabric-arbetsytan skapar standardstartpoolen och anpassade pooler.
När du har valt en pool i avsnittet Compute kan du justera kärnorna och minnet för körarna inom gränserna för nodstorlekarna och gränserna för den valda poolen. Mer information om Spark-beräkningsstorlekar och deras kärnor eller minnesalternativ finns i Spark compute i Fabric. Använd avsnittet Beräkning för att konfigurera egenskaper på Spark-sessionsnivå för att anpassa minne och kärnor för exekutorer baserat på arbetsbelastningskrav. Spark-egenskaperna som anges via spark.conf.set kontrollparametrar på programnivå är inte relaterade till miljövariabler.
Anta till exempel att du vill välja en anpassad pool med en stor nodstorlek, som är 16 virtuella Spark-kärnor, som miljöpool.
I avsnittet Beräkning under Miljöpool använder du listrutan Spark-drivrutinskärna för att välja antingen 4, 8 eller 16 baserat på dina krav på jobbnivå.
Om du vill allokera minne till drivrutiner och utförare under Spark-körminnet väljer du 28 g, 56 g eller 112 g. Alla ligger inom gränserna för en minnesgräns för stora noder.