Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Följande viktig information innehåller information om Databricks Runtime 12.2 LTS, som drivs av Apache Spark 3.3.2.
Databricks släppte den här versionen i mars 2023.
Kommentar
LTS innebär att den här versionen stöds på lång sikt. Se Livscykeln för Databricks Runtime LTS-versionen.
Dricks
Information om hur du ser viktig information för Databricks Runtime-versioner som har nått supportens slut (EoS) finns i Viktig information om Databricks Runtime-slut. EoS Databricks Runtime-versionerna har dragits tillbaka och kanske inte uppdateras.
Förändringar i beteende
[Icke-bakåtkompatibel ändring] Ny Python-version kräver uppdatering av Databricks Connect V1 Python-klienter
Kommentar
En efterföljande uppdatering flyttar Python-versionen i Databricks Runtime 12.2 LTS till 3.9.21. 3.9.21-versionen introducerar inga beteendeändringar.
För att tillämpa nödvändiga säkerhetskorrigeringar uppgraderas Python-versionen i Databricks Runtime 12.2 LTS från 3.9.5 till 3.9.19. Eftersom dessa ändringar kan orsaka fel i klienter som använder specifika PySpark-funktioner måste alla klienter som använder Databricks Connect V1 för Python med Databricks Runtime 12.2 LTS uppdateras till Python 3.9.7 eller senare.
Nya funktioner och förbättringar
- Python har uppgraderats från 3.9.19 till 3.9.21
- Delta Lake-schemautveckling har stöd för att ange källkolumner i kopplingsinstruktioner
- Strukturerade strömningsarbetsbelastningar stöds i kluster med läget för delad åtkomst
- Nya funktioner för förutsägande I/O
- stöd för implicit lateral kolumnalias
- Ny forEachBatch-funktion
- Standardiserade anslutningsalternativ för frågefederation
- Utökat SQL-funktionsbibliotek för matrishantering
- Ny maskfunktion för att anonymisera strängar
- Vanliga felvillkor returnerar nu SQLSTATEs
- Anropa generatorfunktioner i FROM-satsen
- Stöd för protokollbuffertar är allmänt tillgängligt
- Gå till definition för notebook-variabler och funktioner
- Snabbkorrigering för notebook-filer för automatisk import av bibliotek
- Felkorrigeringar
Python har uppgraderats från 3.9.19 till 3.9.21
Python-versionen i Databricks Runtime 12.2 LTS uppdateras från 3.9.19 till 3.9.21.
Delta Lake-schemautveckling har stöd för att ange källkolumner i sammanslagningsinstruktioner
Nu kan du ange kolumner som bara finns i källtabellen i infoga eller uppdatera åtgärder för kopplingsinstruktioner när schemautveckling är aktiverat. I Databricks Runtime 12.1 och nedan kan endast INSERT * eller UPDATE SET * åtgärder användas för schemautveckling med sammanslagning. Se Automatisk schemautveckling för Delta Lake-sammanslagning.
Strukturerade strömningsarbetsbelastningar stöds i kluster med läget för delad åtkomst
Nu kan du använda Structured Streaming för att interagera med Unity Catalog vid beräkning med standardåtkomstläge. Vissa begränsningar gäller. Se Vilka funktioner för strukturerad direktuppspelning stöder Unity Catalog?.
Nya funktioner för förutsägande I/O
Photon-stöd för Foreachbatch mottagaren är nu tillgängligt. Arbetsbelastningar som strömmas från en källa och sammanfogas till deltatabeller eller skrivs till flera mottagare kan nu dra nytta av photonized Foreachbatch-sink.
Stöd för implicit lateral kolumnaliasing
Azure Databricks stöder nu implicit lateral kolumnalias som standard. Du kan nu återanvända ett uttryck som angavs tidigare i samma SELECT lista. Till exempel, givet SELECT 1 AS a, a + 1 AS bakan in a + 1 matchas som den tidigare definierade 1 AS a. Kontrollera Namnmatchning för mer information i matchningsordning.
Om du vill inaktivera den här funktionen kan du ange spark.sql.lateralColumnAlias.enableImplicitResolution till false.
Ny forEachBatch-funktion
Foton stöds nu när du använder foreachBatch för att skriva till en datamottagare.
Standardiserade anslutningsalternativ för frågefederation
Nu kan du använda en enhetlig uppsättning alternativ (värd, port, databas, användare, lösenord)för att ansluta till datakällor som stöds i Frågefederation.
Port är valfritt och använder standardportnumret för varje datakälla, om det inte anges.
Utökat SQL-funktionsbibliotek för matrishantering
Nu kan du ta bort alla NULL-element från en matris med hjälp av array_compact. Om du vill lägga till element i en matris använder du array_append.
Ny maskfunktion för att anonymisera strängar
Anropa funktionen mask för att anonymisera känsliga strängvärden.
Vanliga felvillkor returnerar nu SQLSTATEs
De flesta feltillstånd som Databricks Runtime nu innehåller dokumenterade SQLSTATE- värden som kan användas för att testa fel på ett sql-standardkompatibelt sätt.
Anropa generatorfunktioner i FROM-satsen
Nu kan du anropa tabellvärdesgeneratorfunktioner, till exempel explode, i den vanliga FROM-klausulen i en fråga. Detta justerar generatorfunktionens anrop med andra inbyggda och användardefinierade tabellfunktioner.
Stöd för protokollbuffertar är allmänt tillgängligt
Du kan använda from_protobuf funktionerna och to_protobuf för att utbyta data mellan binära och struct-typer. Se Läsa och skriva protokollbuffertar.
Gå till definition för notebook-variabler och funktioner
I notebook-filer kan du snabbt gå till definitionen av en variabel, funktion eller koden bakom en %run instruktion genom att högerklicka på variabeln eller funktionsnamnet.
Snabbkorrigering för notebook-filer för automatisk import av bibliotek
Databricks Notebooks erbjuder nu en snabbkorrigeringsfunktion för automatisk import av bibliotek. Om du glömmer att importera ett bibliotek som Pandas hovrar du över den understrukna syntaxvarningen och klickar sedan på Snabbkorrigering. Den här funktionen kräver att Databricks Assistant är aktiverat på din arbetsyta.
Felkorrigeringar
- Förbättrad konsekvens för Delta-incheckningsbeteende för tomma transaktioner relaterade till
updatekommandona ,deleteochmerge. PåWriteSerializableisoleringsnivå skapar kommandon som inte resulterar i några ändringar nu en tom incheckning. På isoleringsnivåSerializableskapar sådana tomma transaktioner nu ingen incheckning.
Funktionalitetsförändringar
Beteendeändringar med den nya laterala kolumnaliasfunktionen
Den nya laterala kolumnaliasfunktionen introducerar beteendeändringar för följande fall under namnmatchning:
- Alias för lateral kolumn har nu företräde framför korrelerade referenser med samma namn. För den här frågan
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)löstes till exempelc1i den inrec1 AS c2till den korrelerade referensent.c1, men ändras nu till lateral kolumnalias1 AS c1. Frågan returnerarNULLnu . - Alias för lateral kolumn har nu företräde framför funktionsparametrar med samma namn. För funktionen
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, xlöstes till exempelxi funktionstexten till funktionsparametern x, men ändras till lateralt kolumnaliasx + 1i funktionstexten. FråganSELECT * FROM func(1)returnerar2, 2nu . - Om du vill inaktivera aliasfunktionen för laterala kolumner anger du
spark.sql.lateralColumnAlias.enableImplicitResolutiontillfalse. Mer information finns i Namnmatchning.
Biblioteksuppgraderingar
- Uppgraderade Python-bibliotek:
- filelock från 3.8.2 till 3.9.0
- joblib från 1.1.0 till 1.1.1
- platformdirs från 2.6.0 till 2.6.2
- whatthepatch från 1.0.3 till 1.0.4
- Uppgraderade R-bibliotek:
- klass från 7.3-20 till 7.3-21
- codetools från 0.2-18 till 0.2-19
- MASS från 7,3-58 till 7,3-58,2
- nlme från 3.1-160 till 3.1-162
- Rserve från 1.8-11 till 1.8-12
- SparkR från 3.3.1 till 3.3.2
Beteendeändringar
- Användarna måste nu ha
SELECTochMODIFYbehörigheter för alla filer när de skapar ett schema med en definierad plats.
Apache Spark
Databricks Runtime 12.2 innehåller Apache Spark 3.3.2. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 12.1 (EoS) samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Dateset-åtgärder bör inte lösa den analyserade logiska planen igen
- [SPARK-41848] Återställ "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Åtgärda uppgiften överplanerad med TaskResourceProfile"
- [SPARK-42162] [SC-122711][es-556261] Introducera MultiCommutativeOp-uttryck som en minnesoptimering för kanonisering av stora träd med kommutativa uttryck
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Åtgärda rekursiv djupinställning för Protobuf-funktioner
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementera DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Byt namn på _catalog_to_pandas till _execute_and_fetch i Catalog
- [SPARK-41490] [SC-121774][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementera Catalog.cacheTable, isCached och uncache
- [SPARK-42191] [SC-121990][sql] Stöd för udf 'luhn_check'
- [SPARK-42253] [SC-121976][python] Lägg till test för att identifiera duplicerad felklass
- [SPARK-42268] [SC-122251][connect][PYTHON] Lägg till UserDefinedType i protos
-
[SPARK-42231] [SC-121841][sql] Omvandla
MISSING_STATIC_PARTITION_COLUMNtillinternalError - [SPARK-42136] [SC-122554] Refaktorutdatapartitioneringsberäkning för BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrera
_LEGACY_ERROR_TEMP_1003iFIELD_NOT_FOUND - [SPARK-42192] [12.x][sc-121820][PYTHON] Migrera TypeError från pyspark/sql/dataframe.py till PySparkTypeError
- [SPARK-35240] Revert "[SC-118242][ss] Use CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1176 (och 1177)
-
[SPARK-42232] [SC-122267][sql] Byt namn på felklass:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION - [SPARK-42346] [SC-122480][sql] Skriv om distinkta aggregeringar efter sammanslagning av underfrågor
-
[SPARK-42306] [SC-122539][sql] Integrera
_LEGACY_ERROR_TEMP_1317iUNRESOLVED_COLUMN.WITH_SUGGESTION -
[SPARK-42234] [SC-122354][sql] Byt namn på felklass:
UNSUPPORTED_FEATURE.REPEATED_PIVOT -
[SPARK-42343] [SC-122437][core] Ignorera
IOExceptionihandleBlockRemovalFailureom SparkContext stoppas - [SPARK-41295] [SC-122442][spark-41296][SQL] Byt namn på felklasserna
- [SPARK-42320] [SC-122478][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][connect] SparkConnectClient stöder nu retryPolicies
- [SPARK-38728] [SC-116723][sql] Testa felklassen: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Fristående exempel i PySpark
- [SPARK-39347] [SC-122457][ss] Felkorrigering för tidsfönsterberäkning när händelsetiden < 0
-
[SPARK-42336] [SC-122458][core] Använd
getOrElse()i stället förcontains()i ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF i Spark Connect
- [SPARK-42217] [SC-122263][sql] Stöder implicit lateralt kolumnalias i frågor med Window
- [SPARK-35240] [SC-118242][ss] Använd CheckpointFileManager för kontrollpunktsfilmanipulering
- [SPARK-42294] [SC-122337][sql] Inkludera kolumnstandardvärden i DESCRIBE-utdata för V2-tabeller
- [SPARK-41979] Återställ "Återställ "[12.x][sc-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser.""
- [SPARK-42286] [SC-122336][sql] Återställning till tidigare kodväg för kodgenerering för komplexa uttryck med CAST
- [SPARK-42275] [SC-122249][connect][PYTHON] Undvik att använda inbyggd lista, dikta vid statisk typning
- [SPARK-41985] [SC-122172][sql] Centralisera fler regler för kolumnmatchning
- [SPARK-42126] [SC-122330][python][CONNECT] Acceptera returtyp i DDL-strängar för Python Scalar UDFs i Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Återanvänder JVM-initiering och separata konfigurationsgrupper som ska anges i fjärrlokalt läge
- [SPARK-41575] [SC-120118][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Återställ "[SC-122172][sql] Centralisera fler kolumnmatchningsregler"
- [SPARK-42123] [SC-122234][sc-121453][SQL] Inkludera kolumnstandardvärden i DESCRIBE och SHOW CREATE TABLE utdata
- [SPARK-41985] [SC-122172][sql] Centralisera fler regler för kolumnmatchning
- [SPARK-42284] [SC-122233][connect] Kontrollera att anslutningsserversammansättningen har skapats innan du kör klienttester – SBT
-
[SPARK-42239] [SC-121790][sql] Integrera
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY -
[SPARK-42278] [SC-122170][sql] DS V2-pushdown stöder stöd för JDBC-dialekter som kompileras
SortOrdersjälva - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics bör ta hand om Python UDAF
- [SPARK-41979] Återställ "[12.x][sc-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser."
- [SPARK-42224] [12.x][sc-121708][CONNECT] Migrera TypeError till felramverket för Spark Connect-funktioner
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migrera Spark Connect-felen till PySpark-felramverket.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Lägg till inbyggda tabellvärdesfunktioner för inbäddad och inbäddad_yttre
- [SPARK-41489] [SC-121713][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Introducera PySparkValueError och PySparkTypeError
- [SPARK-42081] [SC-121723][sql] Förbättra valideringen av planändring
- [SPARK-42225] [12.x][sc-121714][CONNECT] Lägg till SparkConnectIllegalArgumentException för att hantera Spark Connect-fel exakt.
-
[SPARK-42044] [12.x][sc-121280][SQL] Åtgärda felaktiga felmeddelanden för
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY - [SPARK-42194] [12.x][sc-121712][PS] Tillåt kolumnparametern när du skapar DataFrame med serier.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrera fel som utlöses av JVM till PySparkException.
- [SPARK-42133] [12.x][sc-121250] Lägg till grundläggande Dataset API-metoder i SparkConnect Scala-klienten
- [SPARK-41979] [12.x][sc-121190][SQL] Lägg till saknade punkter i felmeddelanden inom felklasser.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF i Spark Connect
- [SPARK-42051] [SC-121994][sql] Codegen-stöd för HiveGenericUDF
- [SPARK-42257] [SC-121948][core] Ta bort oanvänd variabel extern sortering
- [SPARK-41735] [SC-121771][sql] Använd MINIMAL i stället för STANDARD för SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Förfina
NULLABLE_ARRAY_OR_MAP_ELEMENT -
[SPARK-42233] [SC-121775][sql] Förbättra felmeddelandet för
PIVOT_AFTER_GROUP_BY -
[SPARK-42229] [SC-121856][core] Migrera
SparkCoreErrorstill felklasser - [SPARK-42163] [SC-121839][sql] Korrigera schemarensning för icke-vikbar matrisindex eller kartnyckel
- [SPARK-40711] [SC-119990][sql] Lägg till mått för spillstorlek för fönster
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Gör
createDataFramestödAtomicType -> StringTypetvång - [SPARK-42202] [SC-121837][connect][Test] Förbättra stopplogik för E2E-testservern
- [SPARK-41167] [SC-117425][sql] Förbättra multiliknande prestanda genom att skapa ett balanserat uttrycksträdspredikat
- [SPARK-41931] [SC-121618][sql] Bättre felmeddelande för ofullständig komplex typdefinition
- [SPARK-36124] [SC-121339][sc-110446][SQL] Stöd för underfrågor med korrelation via UNION
- [SPARK-42090] [SC-121290][3.3] Introducera antal sasl-återförsök i RetryingBlockTransferor
-
[SPARK-42157] [SC-121264][core]
spark.scheduler.mode=FAIRbör tillhandahålla FAIR-schemaläggare - [SPARK-41572] [SC-120772][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][sql] Byt namn på & förbättra felmeddelandet för
NULL_COMPARISON_RESULT -
[SPARK-41976] [SC-121024][sql] Förbättra felmeddelandet för
INDEX_NOT_FOUND - [SPARK-41994] [SC-121210][sc-120573] Tilldela SQLSTATE(1/2)
- [SPARK-41415] [SC-121117][3.3] SASL-begärandeförsök
- [SPARK-38591] [SC-121018][sql] Lägg till flatMapSortedGroups och cogroupSorted
-
[SPARK-41975] [SC-120767][sql] Förbättra felmeddelandet för
INDEX_ALREADY_EXISTS - [SPARK-42056] [SC-121158][sql][PROTOBUF] Lägg till alternativ som saknas för Protobuf-funktioner
-
[SPARK-41984] [SC-120769][sql] Byt namn på & förbättra felmeddelandet för
RESET_PERMISSION_TO_ORIGINAL - [SPARK-41948] [SC-121196][sql] Åtgärda NPE för felklasser: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Åtgärda felaktigt kolumnnamn i
withFielddokumentet -
[SPARK-41283] [SC-121175][connect][PYTHON] Lägg till
array_appendtill Connect - [SPARK-41960] [SC-120773][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][sql] Fix getPartitionFiltersAndDataFilters() för att hantera filter utan refererade attribut
-
[SPARK-42096] [SC-121012][connect] Viss kodrensning för
connectmodul -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Åtgärda
count(*)ochcount(col(*)) - [SPARK-42045] [SC-120958][sc-120450][SQL] ANSI SQL-läge: Round/Bround bör returnera ett fel vid heltalsöverflöd
- [SPARK-42043] [SC-120968][anslutning] Scala-klientresultat med E2E-tester
- [SPARK-41884] [SC-121022][connect] Support naiv tupl som en inbäddad rad
-
[SPARK-42112] [SC-121011][sql][SS] Lägg till null-kontroll innan
ContinuousWriteRDD#computefunktion stängsdataWriter - [SPARK-42077] [SC-120553][connect][PYTHON] Literal bör utlösa TypeError för DataType som inte stöds
-
[SPARK-42108] [SC-120898][sql] Gör Analyzer transformera
Count(*)tillCount(1) -
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Stöd för parameteriserad SQL med
sql() - [SPARK-40599] [SC-120930][sql] Justera multiTransform-regeltypen så att alternativ kan vara av vilken typ som helst av Seq
-
[SPARK-41574] [SC-120771][sql] Uppdatera
_LEGACY_ERROR_TEMP_2009somINTERNAL_ERROR. - [SPARK-41579] [SC-120770][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][sql] Omvandla
INCORRECT_END_OFFSETtillINTERNAL_ERROR - [SPARK-41530] [SC-120916][sc-118513][CORE] Byt namn på MedianHeap till PercentileMap och stöd percentil
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Fixa strängrepresentation för Column-klass
- [SPARK-42084] [SC-120775][sql] Undvik att läcka begränsningen endast för kvalificerad åtkomst
- [SPARK-41973] [SC-120765][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][sql] SPJ: Ta bort alternativ i KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][connect][PYTHON] Byt namn på proto-meddelanden för
toDFochwithColumnsRenamed - [SPARK-42089] [SC-120605][connect][PYTHON] Åtgärda problem med variabelnamn i kapslade lambda-funktioner
- [SPARK-41982] [SC-120604][sql] Partitioner av typen sträng bör inte behandlas som numeriska typer
- [SPARK-40599] [SC-120620][sql] Lägg till multiTransform-metoder i TreeNode för att generera alternativ
-
[SPARK-42085] [SC-120556][connect][PYTHON] Gör så att
from_arrow_schemahar stöd för kapslade typer - [SPARK-42057] [SC-120507][sql][PROTOBUF] Åtgärda hur undantaget hanteras i felrapportering.
-
[SPARK-41586] [12.x][alla tester][SC-120544][python] Introducera
pyspark.errors- och felklasser för PySpark. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literalbör ha stöd för 1-dim ndarray -
[SPARK-42021] [SC-120584][connect][PYTHON] Ge
createDataFramestödarray.array - [SPARK-41896] [SC-120506][sql] Filtrering efter radindex returnerar tomma resultat
- [SPARK-41162] [SC-119742][sql] Fix anti- och semi-join för självkoppling med aggregeringar
- [SPARK-41961] [SC-120501][sql] Stöd för tabellvärdesfunktioner med LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Gruppera kapslade körningar under rotkörningen
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal bör stödja Numpy-datatyper
- [SPARK-42028] [SC-120344][connect][PYTHON] Trunkera tidsstämplar till nanosekunder
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementera DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Använd
FieldReference.columni stället förapplyi V1 till V2 filterkonvertering - [SPARK-39217] [SC-120446][sql] Gör att DPP stöder beskärningssidan med Union
-
[SPARK-42076] [SC-120551][connect][PYTHON] Konvertering av faktordata
arrow -> rowsut tillconversion.py -
[SPARK-42074] [SC-120540][sql] Aktivera
KryoSerializeriTPCDSQueryBenchmarkför att framtvinga SQL-klassregistrering - [SPARK-42012] [SC-120517][connect][PYTHON] Implementera DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Åtgärda
DataFrame.unionByName, lägg till allow_missing_columns -
[SPARK-38651] [SC-120514] [SQL] Addera
spark.sql.legacy.allowEmptySchemaWrite -
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsertbör acceptera ExpressionProxy som barn - [SPARK-41232] [SC-120073][sql][PYTHON] Lägga till funktionen array_append
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader bör stödja en lista över sökvägar
-
[SPARK-42071] [SC-120533][core] Registrera
scala.math.Ordering$Reversetill KyroSerializer - [SPARK-41986] [SC-120429][sql] Introducera shuffle på SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Aktivera tester relaterade till den kapslade kolumnen
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReaderbör ha stöd för StructType-schema -
[SPARK-42031] [SC-120389][core][SQL] Rensa
removemetoder som inte behöver åsidosättas -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Gör
createDataFrame(rows/lists/tuples/dicts)stöd för kapslade typer - [SPARK-41437] [SC-117601][sql][ALLA TESTER] Optimera inte indatafrågan två gånger för tillbakaskrivning av v1
-
[SPARK-41840] [SC-119719][connect][PYTHON] Lägg till det saknade aliaset
groupby - [SPARK-41846] [SC-119717][connect][PYTHON] Aktivera dokumenttest för fönsterfunktioner
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materialiserar AQE-planen innan du kommer åt outputOrdering
- [SPARK-41805] [SC-119992][sql] Återanvända uttryck i WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range för att ta flyttal som argument
-
[SPARK-42029] [SC-120336][connect] Lägg till Guava Shading-regler i
connect-commonför att undvika startfel - [SPARK-41989] [SC-120334][python] Undvik att bryta loggningskonfigurationen från pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Minska duplicerad kod i ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Åtgärda grupp efter all felrapportering
- [SPARK-41047] [SC-120291][sql] Förbättra dokumentation för avrundning
- [SPARK-41822] [SC-120122][connect] Konfigurera gRPC-anslutning för Scala/JVM-klienten
-
[SPARK-41879] [SC-120264][connect][PYTHON] Gör
DataFrame.collectstöd för kapslade typer -
[SPARK-41887] [SC-120268][connect][PYTHON] Gör
DataFrame.hintacceptera en lista med angiven parameter - [SPARK-41964] [SC-120210][connect][PYTHON] Lägg till listan över I/O-funktioner som inte stöds
- [SPARK-41595] [SC-120097][sql] Stöd för generatorfunktionen explode/explode_outer i FROM-klausulen
-
[SPARK-41957] [SC-120121][connect][PYTHON] Aktivera doctest för
DataFrame.hint -
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersectdoctest-utdata har olika ordning - [SPARK-41442] [SC-117795][sql][ALLA TESTER] Uppdatera endast SQLMetric-värdet om sammanslagning med giltig metrik
- [SPARK-41944] [SC-120046][connect] Skicka konfigurationer när lokalt fjärrläge är på
-
[SPARK-41708] [SC-119838][sql] Hämta v1write-information till
WriteFiles -
[SPARK-41780] [SC-120000][sql] Bör kasta INVALID_PARAMETER_VALUE.PATTERN när parametern
regexpär ogiltig - [SPARK-41889] [SC-119975][sql] Koppla rotorsak till invalidPatternError & omstrukturera fel-klasser INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][sql] Gör AvroScanBuilder och JsonScanBuilder fallklasser
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: connect-klienten förlorade kolumndata med pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Agnostiska kodare
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementera RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Uppdatera
_LEGACY_ERROR_TEMP_1230somINTERNAL_ERROR -
[SPARK-41928] [SC-119972][connect][PYTHON] Lägg till listan som inte stöds för
functions - [SPARK-41933] [SC-119980][connect] Ange lokalt läge som startar servern automatiskt
- [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame" bör respektera användarens DDL-schema
-
[SPARK-41936] [SC-119978][connect][PYTHON] Gör
withMetadataåteranvändawithColumnsproto - [SPARK-41898] [SC-119931][connect][PYTHON] Window.rowsBetween, Window.rangeBetween parametertypkontroll jämställdhet med pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Lägg till listan som inte stöds för
catalogfunktioner -
[SPARK-41924] [SC-119946][connect][PYTHON] Gör StructType till stöd för metadata och implementera
DataFrame.withMetadata -
[SPARK-41934] [SC-119967][connect][PYTHON] Lägg till funktionslistan som inte stöds för
session -
[SPARK-41875] [SC-119969][connect][PYTHON] Lägg till testfall för
Dataset.to() - [SPARK-41824] [SC-119970][connect][PYTHON] Ingore dokumentet för att förklara anslutningen
-
[SPARK-41880] [SC-119959][connect][PYTHON] Gör så att funktionen
from_jsonaccepterar icke-literal schema -
[SPARK-41927] [SC-119952][connect][PYTHON] Lägg till listan som inte stöds för
GroupedData -
[SPARK-41929] [SC-119949][connect][PYTHON] Lägg till funktion
array_compact -
[SPARK-41827] [SC-119841][connect][PYTHON] Gör att
GroupBykan acceptera en kolumnlista -
[SPARK-41925] [SC-119905][sql] Aktivera
spark.sql.orc.enableNestedColumnVectorizedReadersom standard -
[SPARK-41831] [SC-119853][connect][PYTHON] Gör
DataFrame.selectacceptera kolumnlistan -
[SPARK-41455] [SC-119858][connect][PYTHON] Gör
DataFrame.collectta bort tidszonsinformationen -
[SPARK-41923] [SC-119861][connect][PYTHON] Lägg till
DataFrame.writeToi listan som inte stöds - [SPARK-41912] [SC-119837][sql] Subquery bör inte verifiera CTE
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Gör
createDataFramestöd för tom dataram - [SPARK-41905] [SC-119848][connect] Stöd för namn som strängar i delmängder
- [SPARK-41869] [SC-119845][connect] Avvisa enskild sträng i dropDuplicates
-
[SPARK-41830] [SC-119840][connect][PYTHON] Gör
DataFrame.sampleacceptera samma parametrar som PySpark - [SPARK-41849] [SC-119835][connect] Implementera DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Gör att v2 ScanBuilders' bygg() returnerar en typad genomsökning
-
[SPARK-41825] [SC-119710][connect][PYTHON] Aktivera dokumenttest relaterade till
DataFrame.show -
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Gör
createDataFramehantera None/NaN korrekt -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Se till att
DataFrame.collecthanterar None/NaN/Array/Binary korrekt - [SPARK-39318] [SC-119713][sql] Ta bort tpch-plan-stabilitet WithStats gyllene filer
- [SPARK-41791] [SC-119745] Lägg till nya kolumntyper för filkällans metadata
- [SPARK-41790] [SC-119729][sql] Ställ in TRANSFORM-läsarens och skrivarens format korrekt
-
[SPARK-41829] [SC-119725][connect][PYTHON] Lägg till den saknade ordningsparametern i
SortochsortWithinPartitions - [SPARK-41576] [SC-119718][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][connect][PYTHON] Åtgärda dokumenttest för DataFrame.describe
- [SPARK-41871] [SC-119714][connect] DataFrame hint parameter kan vara str, float eller int
- [SPARK-41720] [SC-119076][sql] Byt namn på UnresolvedFunc till UnresolvedFunctionName
- [SPARK-41573] [SC-119567][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][sql] Åtgärda korrekthetsfel relaterade till standardvärden i Orc-läsare
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Återanvänd
INVALID_TYPED_LITERALi stället för_LEGACY_ERROR_TEMP_0022
Underhållsuppdateringar
Se Underhållsuppdateringar för Databricks Runtime 12.2.
Systemmiljö
-
Operativsystem: Ubuntu 20.04.5 LTS
- Obs! Det här är Ubuntu-versionen som används av Databricks Runtime-containrar. Databricks Runtime-containrarna körs på molnleverantörens virtuella datorer, som kan använda en annan Ubuntu-version eller Linux-distribution.
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.21
- R: 4.2.2
- Delta lake: 2.2.0
Installerade Python-bibliotek
| Bibliotek | Utgåva | Bibliotek | Utgåva | Bibliotek | Utgåva |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | argon2-cffi-bindningar | 21.2.0 | asttokens | 2.0.5 |
| egenskaper | 21.4.0 | återanrop | 0.2.0 | backports.entry-points-väljbar | 1.2.0 |
| beautifulsoup4 | 4.11.1 | svart | 22.3.0 | blekmedel | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | certifikat/certifiering | 2021.10.8 |
| cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| klicka | 8.0.4 | kryptografi | 3.4.8 | cyklist | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | felsökning | 1.5.1 |
| dekoratör | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
| Omvandling av docstring till markdown | 0,11 | Ingångspunkter | 0,4 | Verkställande | 0.8.3 |
| översikt över aspekter | 1.0.0 | fastjsonschema | 2.16.2 | fillåsning | 3.9.0 |
| fontverktyg | 4.25.0 | IDNA | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-klient | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver (ett verktyg/programvara) | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | felstämning | 0.8.4 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| notebook-fil | 6.4.8 | numpy | 1.21.5 | emballage | 21,3 |
| Pandas | 1.4.2 | pandocfilter | 1.5.0 | parso | 0.8.3 |
| pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect (ett Python-bibliotek för styrning av fjärrterminaler) | 4.8.0 |
| pickleshare | 0.7.5 | Kudde | 9.0.1 | Pip (pakethanterare för Python) | 21.2.4 |
| platformdirs | 2.6.2 | plotly | 5.6.0 | pluggaktig | 1.0.0 |
| prometheus-client | 0.13.1 | prompt-verktygslåda | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
| pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc | 4.0.32 | pyparsing (ett Python-bibliotek för att analysera text) | 3.0.4 | pyright | 1.1.283 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
| begäranden | 2.27.1 | requests-unixsocket | 0.2.0 | rep | 0.22.0 |
| s3transfer | 0.5.0 | scikit-learn (en maskininlärningsbibliotek) | 1.0.2 | scipy | 1.7.3 |
| född vid havet | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
| sex | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5,10 |
| stapeldatastruktur | 0.2.0 | statsmodels (ett verktyg för statistisk modellering) | 0.13.2 | orubblighet | 8.0.1 |
| avslutad | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | Tomli | 1.2.2 | tromb | 6.1 |
| Traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
| obevakade uppgraderingar | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | webbkodningar | 0.5.1 | whatthepatch | 1.0.4 |
| hjul | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Installerade R-bibliotek
R-bibliotek installeras från Microsoft CRAN-ögonblicksbilden 2022-11-11. Ögonblicksbilden är inte längre tillgänglig.
| Bibliotek | Utgåva | Bibliotek | Utgåva | Bibliotek | Utgåva |
|---|---|---|---|---|---|
| pil | 10.0.0 | askpass | 1,1 | säkerställ att | 0.2.1 |
| backportar | 1.4.1 | bas | 4.2.2 | base64enc | 0.1-3 |
| lite grann | 4.0.4 | bit64 | 4.0.5 | klump | 1.2.3 |
| start | 1.3-28 | brygga | 1.0-8 | Brio | 1.1.3 |
| kvast | 1.0.1 | bslib | 0.4.1 | kaschmir | 1.0.6 |
| anropare | 3.7.3 | textmarkör | 6.0-93 | cellranger | 1.1.0 |
| Chron | 2.3-58 | klass | 7.3-21 | CLI | 3.4.1 |
| klipparen | 0.8.0 | klocka | 0.6.1 | kluster | 2.1.4 |
| codetools | 0,2-19 | färgområde | 2.0-3 | commonmark | 1.8.1 |
| kompilator | 4.2.2 | konfig | 0.3.1 | cpp11 | 0.4.3 |
| krita | 1.5.2 | Autentiseringsuppgifter | 1.3.2 | hårlock | 4.3.3 |
| datatabell | 1.14.4 | datauppsättningar | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | smälta | 0.6.30 | nedbelyst | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| ellips | 0.3.2 | evaluate (utvärdera) | 0,18 | fans | 1.0.3 |
| färger | 2.1.1 | snabbkarta | 1.1.0 | fontawesome | 0.4.0 |
| forcats | 0.5.2 | foreach (en loop som itererar över varje element i en samling) | 1.5.2 | främmande | 0.8-82 |
| smida | 0.2.0 | Fs | 1.5.2 | framtid | 1.29.0 |
| framtid.applicera | 1.10.0 | gurgla | 1.2.1 | Generika | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
| lim | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | grafik | 4.2.2 | grDevices | 4.2.2 |
| gitter | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| g-tabell | 0.3.1 | skyddshjälm | 1.2.0 | hamn | 2.5.1 |
| högre | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| Id | 1.0.1 | -ini | 0.3.1 | IPRED-direktivet | 0.9-13 |
| isoband | 0.2.6 | Iteratorer | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2.23-20 | stickning | 1,40 |
| Märkning | 0.4.2 | senare | 1.3.0 | Galler | 0.20-45 |
| lava | 1.7.0 | livscykel | 1.0.3 | lyssna | 0.8.0 |
| lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
| MASSA | 7.3-58.2 | Matris | 1.5-1 | pmise | 2.0.1 |
| metoder | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
| mini-användargränssnitt | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallell | 4.2.2 |
| parallellt | 1.32.1 | pelare | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | plyr | 1.8.7 | berömma | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| Prodlim | 2019.11.13 | profvis | 0.3.7 | Förlopp | 1.2.2 |
| progressr | 0.11.0 | Löften | 1.2.0.1 | Proto | 1.0.0 |
| proxyserver | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | läs excel | 1.4.1 | recept | 1.0.3 |
| Returmatch | 1.0.1 | omkamp2 | 2.1.2 | Fjärrkontroller | 2.4.2 |
| reproducerbart exempel | 2.0.2 | omforma2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.18 | rstudioapi | 0,14 | rversioner | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.2 | våg | 1.2.1 |
| väljare | 0.4-2 | Sessioninformation | 1.2.2 | form | 1.4.6 |
| skinande | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
| SparkR | 3.3.2 | rumslig | 7.3-11 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
| statistik4 | 4.2.2 | sträng | 1.7.8 | stringr | 1.4.1 |
| överlevnad | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcl/tk-programmeringsspråk | 4.2.2 | Testthat | 3.1.5 | textformgivning | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.2.1 | avmarkera | 1.2.0 |
| tidyverse | 1.3.2 | tidsomställning | 0.1.1 | datumTid | 4021.106 |
| tinytex | 0.42 | verktyg | 4.2.2 | tzdb | 0.3.0 |
| URL-kontrollant | 1.0.1 | använd detta | 2.1.6 | utf8 | 1.2.2 |
| verktyg | 4.2.2 | Universellt unik identifierare (UUID) | 1.1-0 | vctrs | 0.5.0 |
| viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
| morrhår | 0,4 | vissna | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.6 | Zip | 2.2.2 |
Installerade Java- och Scala-bibliotek (Scala 2.12-klusterversion)
| Grupp-ID | Artefakt-ID | Utgåva |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis-klient | 1.12.0 |
| com.amazonaws | AWS Java SDK-autoscaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | AWS Java SDK för CodeDeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | Konfiguration för aws-java-sdk | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs (ingen översättning behövs, eftersom det är ett tekniskt namn) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (en mjukvarusats som används för att interagera med Amazon Glacier) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue (programvaruutvecklingspaket från Amazon Web Services) | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport (ett Java SDK för AWS import/export) | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-maskininlärning | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks (ett mjukvarubibliotek för AWS OpsWorks) | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | AWS Java SDK för Redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | AWS Java SDK för SES | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | aws-java-sdk-stöd | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-bibliotek | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | ström | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-skuggad | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | klasskamrat | 1.3.4 |
| com.fasterxml.jackson.core | jackson-anteckningar | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | Jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.koffein | koffein | 2.3.4 |
| com.github.fommil | jniloader | 1,1 |
| com.github.fommil.netlib | kärna | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1,1 |
| com.github.fommil.netlib | native_ref-java-inhemska | 1,1 |
| com.github.fommil.netlib | inhemskt_system-java | 1,1 |
| com.github.fommil.netlib | nativesystem-java-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | Tingeling | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guava (en tropisk frukt) | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profilerare | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.Utgåva |
| com.lihaoyi | källkod_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (komprimera-lzf) | 1,1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.linser | linser_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| gemensamma-samlingar | gemensamma-samlingar | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| filuppladdning på commons | filuppladdning på commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2,6 |
| commons-logging (en mjukvarubibliotek) | commons-logging (en mjukvarubibliotek) | 1.1.3 |
| allmänna poolen | allmänna poolen | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | luftkompressor | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.3 |
| io.dropwizard.metrics | Kärnenhet för mätvärden | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | mätvärden-hälsokontroller | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrik-jmx | 4.1.1 |
| io.dropwizard.metrics | metrik-json | 4.1.1 |
| io.dropwizard.metrics | Metrics-JVM | 4.1.1 |
| io.dropwizard.metrics | mätdata-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | netty-buffert | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common (only if it is a product name or technical term without a Swedish equivalent) | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | netty-resolver | 4.1.74.Final |
| io.netty | netty-tcnative-klasser | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-inbyggd-unix-allmän | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | enkelklient_gemensam | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | samlare | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivering | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1,1 |
| javax.transaction | transaktions-API | 1,1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| Jline | Jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | ättikslag | 1,2 |
| net.sf.jpam | jpam | 1,1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_kombinerad_alla | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | Ant | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | pilformat | 7.0.0 |
| org.apache.arrow | arrow-minneskärna | 7.0.0 |
| org.apache.arrow | arrow-memory-netty | 7.0.0 |
| org.apache.arrow | pilvektor | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | kuratorsramverk | 2.13.0 |
| org.apache.curator | curator-recept | 2.13.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-klient-api | 3.3.4-databricks |
| org.apache.hadoop | hadoop-klient-körtid | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-klient | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-tillägg | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-allmänn | 2.3.9 |
| org.apache.hive.shims | Hive-shims-schemaläggare | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | murgröna | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-shims (en typ av programmeringskomponent) | 1.7.6 |
| org.apache.parquet | parkettkolumn | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-kodning | 1.12.3-databricks-0002 |
| org.apache.parquet | parkettformatstrukturer | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | åhörarkommentarer | 0.13.0 |
| org.apache.zookeeper | djurparkskötare | 3.6.2 |
| org.apache.zookeeper | Zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | allmän kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-fortsättning | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | brygga-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | brygga plus | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-säkerhet | 9.4.46.v20220331 |
| org.eclipse.jetty | brygga-server | 9.4.46.v20220331 |
| org.eclipse.jetty | brygga-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | brygga-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-webapplikation | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | webbsockets-server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokalisator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resurslokaliserare | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-ompaketerad | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core (en Java-bibliotek för serverutveckling) | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | tröja-vanlig | 2.36 |
| org.glassfish.jersey.core | Jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | vilolägesverifierare | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anteckningar | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client (MariaDB Java-klient) | 2.7.4 |
| org.mlflow | mlflow-spark | 2.1.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Shims | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.28.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | testgränssnitt | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | oanvänd | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1,9 |
| org.typnivå | algebra_2.12 | 2.0.1 |
| org.typnivå | cats-kernel_2.12 (paketnamn) | 2.1.1 |
| org.typnivå | macro-compat_2.12 | 1.1.1 |
| org.typnivå | spire-macros_2.12 | 0.17.0 |
| org.typnivå | spire-platform_2.12 | 0.17.0 |
| org.typnivå | spire-util_2.12 | 0.17.0 |
| org.typnivå | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| Software.Amazon.CrypTools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| programvara.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |