Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
gäller för:
Databricks SQL
Databricks Runtime 12.2 och senare
Feltillstånd är beskrivande och avläsbara textsträngar som är unika för det fel de beskriver.
Du kan använda felvillkor för att programmatiskt hantera fel i ditt program utan att behöva parsa felmeddelandet.
Det här är en lista över vanliga namngivna felvillkor som returneras av Azure Databricks.
Databricks Runtime och Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Det gick inte att köra <statementType> kommandot eftersom DEFAULT värden inte stöds när nya kolumner läggs till i en tidigare befintlig måldatakälla med tabellprovidern: "<dataSource>".
AGGREGATFUNKTION_I_NESTADE_REFERENSER_INTE_SUPPORTED
Upptäckta aggregeringsfunktioner i yttre omfångsreferenser <expression> som inte stöds.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Icke-deterministiska uttryck <sqlExpr> bör inte visas i argumenten för en aggregerad funktion.
AGGREGATE_OUT_OF_MEMORY
Det finns inte tillräckligt med minne för aggregering
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Det gick inte att parsa modellutdata vid gjutning till angiven returnType: "<dataType>", svaret JSON var: "<responseString>". Uppdatera returnType så att det matchar innehållet i den typ som representeras av svarets JSON och försök sedan igen. Undantag: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Den faktiska modellutdatan har mer än en kolumn "<responseString>". Den angivna returtypen["<dataType>"] har dock bara en kolumn. Uppdatera returnType så att den innehåller samma antal kolumner som modellutdata och försök sedan igen.
AI_FUNCTION_HTTP_REQUEST_ERROR
Ett fel uppstod vid genomförandet av en HTTP-begäran för funktionen <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Ogiltigt HTTP-svar för funktionen <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Det maximala antalet ord måste vara ett icke-negativt heltal, men fick <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
De angivna modellparametrarna (<modelParameters>) är ogiltiga i AI_QUERY funktionen för serverslutpunkten "<endpointName>".
Mer information finns i AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI-funktion: "<functionName>" kräver giltig <format> sträng för responseFormat parameter, men hittade följande svarsformat: "<invalidResponseFormat>". Undantag: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Ett fel uppstod vid parsning av JSON-svaret för funktionen <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Det gick inte att parsa schemat för serverdelsslutpunkten "<endpointName>": <errorMessage>, svaret JSON var: "<responseJson>".
Ange returnType-parametern manuellt i funktionen AI_QUERY för att åsidosätta schemahantering.
AI_FUNCTION_UNSUPPORTED_ERROR
Funktionen <funcName> stöds inte i den aktuella miljön. Den är endast tillgänglig i Databricks SQL Pro och Serverless.
AI_FUNCTION_UNSUPPORTED_REQUEST
Det gick inte att utvärdera SQL-funktionen "<functionName>" eftersom det angivna argumentet <invalidValue> har "<invalidDataType>", men endast följande typer stöds: <supportedDataTypes>. Uppdatera funktionsanropet för att ange ett argument av strängtyp och försök igen.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Svarsformatet stöds inte.
Mer information finns i AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI-funktion: "<functionName>" stöder inte följande typ som returtyp: "<typeName>". Returtypen måste vara en giltig SQL-typ som ska tolkas av Catalyst och som stöds av AI-funktionen. Aktuella typer som stöds omfattar: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Angivet värde "<argValue>" stöds inte av argumentet "<argName>". Värden som stöds är: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Det förväntades att uppgiftstypen för serverdelens slutpunkt skulle vara "Chat" för att stödja strukturerad utdata, men "<taskType>" hittades för slutpunkten "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Angivet "<sqlExpr>" stöds inte av argumentet returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Motstridiga parametrar har identifierats för vector_search SQL-funktion: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search SQL-funktion med inbäddad kolumntyp <embeddingColumnType> stöds inte.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search SQL-funktionen saknar frågeindataparameter, vänligen ange minst en från: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Parametern query till vector_search SQL-funktion stöds inte för hybrid vektorsökning. Använd query_text i stället.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Frågetext hittades inte i funktionen vector_search SQL för hybrid vektorsökning. Ange query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search SQL-funktion med indextyp <indexType> stöds inte.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector måste anges för index <indexName> eftersom den inte är associerad med en inbäddningsmodellslutpunkt.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Det gick inte att materialisera SQL-funktionsförfrågan vector_search från spark-typen <dataType> till scala-native-objekt vid kodning av begäran, med felet: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search SQL-funktion med frågetyp <unexpectedQueryType> stöds inte. Ange en från: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search SQL-funktion med num_results större än <maxLimit> stöds inte. Den angivna gränsen var <requestedLimit>. Försök igen med num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
Parametern ai_top_drivers<param> måste vara mellan <lo> och <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers stöder inte aggregeringen <aggName> . Välj något av följande aggregeringar som stöds: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers stöder inte numeriska, mappade eller struct-dimensionskolumner. Kolumnen <colName> har typen <dataType>. Ta bort den här dimensionen eller omvandla den till en typ som stöds.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers kräver att etikettkolumntypen är boolesk. Kolumnen <colName> har typen <dataType>. Ändra etikettkolumnen eller omvandla den till en typ som stöds.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers kräver att måttkolumntypen är numerisk. Kolumnen <colName> har typen <dataType>. Ändra måttkolumnen eller omvandla den till en typ som stöds.
ALL_PARAMETERS_MUST_BE_NAMED
Om du använder namnparameteriserade frågor måste alla parametrar namnges. Parametrar som saknar namn: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Det går inte att använda alla kolumner för partitionskolumner.
ALTER_SCHEDULE_DOES_NOT_EXIST
Det går inte att ändra <scheduleType> i en tabell utan ett befintligt schema eller en utlösare. Lägg till ett schema eller en utlösare i tabellen innan du försöker ändra det.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> kolumnen <columnName> anger beskrivningen "<optionName>" mer än en gång, vilket är ogiltigt.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Namn <name> är tvetydigt i kapslad CTE.
Vänligen ange <config> till "CORRECTED" så att namnet som definieras i den inre CTE:n har företräde. Om det anges till "LEGACY" prioriteras de yttre CTE-definitionerna.
Se 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
Kolumn eller fält <name> är tvetydigt och har <n> matchningar.
AMBIGUOUS_COLUMN_REFERENCE
Kolumn <name> är tvetydig. Det beror på att du har anslutit flera DataFrame tillsammans, och vissa av dessa DataFrames är desamma.
Den här kolumnen pekar på en av dataramarna, men Spark kan inte ta reda på vilken.
Ange ett alias för DataFrames med olika namn via DataFrame.alias innan du ansluter dem.
och ange kolumnen med hjälp av kvalificerat namn, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))till exempel .
AMBIGUOUS_CONSTRAINT
Tvetydig referens till begränsning <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Alias för lateral kolumn <name> är tvetydigt och har <n> matchningar.
AMBIGUOUS_REFERENCE
Referens <name> är tvetydig, kan vara: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Tvetydig referens till fältet <field>. Det visas <count> gånger i schemat.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS stöds inte.
ANSI_CONFIG_CANNOT_BE_DISABLED
ANSI SQL-konfigurationen <config> kan inte inaktiveras i den här produkten.
APPEND_ONCE_FROM_BATCH_QUERY
Om du skapar en strömmande tabell från en batchfråga förhindras inkrementell inläsning av nya data från källan. Felaktig tabell: '<table>'.
Använd stream()-operatorn. Exempel på användning:
CREATE STREAMING TABLE <target table name> ... AS SELECT ... FROM stream(<source table name>) ...
AQE_THREAD_INTERRUPTED
AQE-tråden avbryts, troligen på grund av att användaren har avbrutit frågor.
ARGUMENT_NOT_CONSTANT
Funktionen <functionName> innehåller en parameter <parameterName> vid position <pos> som kräver ett konstant argument. Beräkna argumentet <sqlExpr> separat och skicka resultatet som en konstant.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Om det behövs anger du <config> "false" för att kringgå det här felet.
Mer information finns i ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Ogiltigt schema från <operation>: förväntade <outputTypes>, fick <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
Artefakten <normalizedRemoteRelativePath> finns redan. Välj ett annat namn för den nya artefakten eftersom den inte kan skrivas över.
ASSIGNMENT_ARITY_MISMATCH
Antalet kolumner eller variabler som tilldelats eller aliasats: <numTarget> matchar inte antalet källuttryck: <numExpr>.
AS_OF_JOIN
Ogiltig as-of koppling.
Mer information finns i AS_OF_JOIN
AVRO_CANNOT_WRITE_NULL_FIELD
Det går inte att skriva ett null-värde för fält <name> som har definierats som en icke-null Avro-datatyp <dataType>.
Om du vill tillåta null-värde för det här fältet anger du dess avro-schema som en unionstyp med "null" med hjälp av avroSchema alternativet .
AVRO_DEFAULT_VALUES_UNSUPPORTED
Användning av standardvärden stöds inte närrescuedDataColumn är aktiverat. Du kanske kan ta bort den här kontrollen genom att ange spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue till false, men standardvärdena gäller inte och null-värden används fortfarande.
AVRO_INCOMPATIBLE_READ_TYPE
Det går inte att konvertera Avro <avroPath> till SQL <sqlPath> eftersom den ursprungliga kodade datatypen är <avroType>, men du försöker läsa fältet som <sqlType>, vilket skulle leda till ett felaktigt svar.
Om du vill tillåta läsning av det här fältet aktiverar du SQL-konfigurationen: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Det går inte att <functionName> anropa SQL-funktionen eftersom Avro-datakällan inte har lästs in.
Starta om jobbet eller sessionen med spark-avro-paketet inläst, till exempel genom att använda argumentet --packages på kommandoraden och försök sedan köra frågan eller kommandot igen.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Användning av positionsfältmatchning stöds inte när antingen rescuedDataColumn eller failOnUnknownFields är aktiverat. Ta bort de här alternativen för att fortsätta.
BATCH_METADATA_NOT_FOUND
Det går inte att hitta batch-<batchMetadataFile>.
BIGQUERY_DATA_SOURCE_ALTERNATIV_VALIDERING_SOM_MISSLYCKADES
Valideringen av alternativ(en) för BigQuery-datakällan misslyckades.
Mer information finns i BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Autentiseringsuppgifter för BigQuery-anslutning måste anges med parametern "GoogleServiceAccountKeyJson" eller alla "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey"
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> orsakade överflöd. Använd <functionName> för att ignorera spillproblem och returnera NULL.
BUILT_IN_CATALOG
<operation> stöder inte inbyggda kataloger.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Metoden <methodName> kan inte anropas för strömmande datauppsättning/dataram.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN kan inte ändra sortering av typ/undertyper av bucketkolumner, men hittade bucketkolumnen <columnName> i tabellen <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN stöds inte för partitionskolumner, men hittade partitionskolumnen <columnName> i tabellen <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Vattenstämpeln måste definieras för att omallokera händelsetidskolumnen. Det gick inte att hitta vattenstämpeldefinitionen i strömningsfrågan.
CANNOT_CAST_DATATYPE
Det går inte att casta <sourceType> till <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Det går inte att konvertera Protobuf-<protobufColumn> till SQL <sqlColumn> eftersom schemat är inkompatibelt (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Det går inte att konvertera <protobufType> av Protobuf till SQL-typ <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Det går inte att konvertera SQL <sqlColumn> till Protobuf <protobufColumn> eftersom schemat är inkompatibelt (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Det går inte att konvertera SQL <sqlColumn> till Protobuf <protobufColumn> eftersom <data> inte är en av de definierade värdena för enumtyp: <enumString>.
CANNOT_COPY_STATE
Det går inte att kopiera katalogtillstånd som aktuell databas och tillfälliga vyer från Unity Catalog till en äldre katalog.
CANNOT_CREATE_DATA_SOURCE_TABLE
Det gick inte att skapa datakällans tabell <tableName>:
Mer information finns i CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Den angivna URL:en kan inte avkodas: <url>. Kontrollera att URL:en är korrekt formaterad och försök igen.
CANNOT_DELETE_SYSTEM_OWNED
Det går inte att ta bort <resourceType> eftersom det ägs av systemet.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Det går inte att ta bort begränsningen med namnet <constraintName> som delas med en CHECK-begränsning
PRIMARY KEY eller FOREIGN KEY begränsning. Du kan släppa PRIMARY KEY eller
FOREIGN KEY villkor för frågor:
ALTER TABLE ..
DROP PRIMARY KEY eller
ALTER TABLE ..
DROP FOREIGN KEY ..
KAN_INTE_TA_BORT_BAS_TABELL_REFERERAD_AV_GRUND_KLON
Det går inte att ta bort tabellen <baseTable> eftersom den refereras av en eller flera grunda kloner: <cloneList>.
DROP alla grunda kloner innan du raderar bastabellen. Om detta inte är möjligt bör du överväga att använda "DROP TABLE ... FORCE" för att släppa tabellen med kraft.
WARNING: Detta bryter omedelbart alla befintliga grunda klonreferenser och gör dem oanvändbara.
CANNOT_ESTABLISH_CONNECTION
Det går inte att upprätta en anslutning till fjärrdatabasen <jdbcDialectName>. Kontrollera anslutningsinformation och autentiseringsuppgifter, till exempel alternativ för värd, port, användare, lösenord och databas. ** Om du tror att informationen är korrekt kontrollerar du konfigurationen av arbetsytans nätverk och ser till att den inte har utgående begränsningar för värden. Kontrollera också att värddatorn inte blockerar inkommande anslutningar från nätverket där Spark-klustrarna för arbetsytan är distribuerade. ** Detaljerat felmeddelande: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Det går inte att upprätta en anslutning till fjärrdatabasen <jdbcDialectName>. Kontrollera anslutningsinformation och autentiseringsuppgifter, till exempel alternativ för värd, port, användare, lösenord och databas. ** Om du tror att informationen är korrekt kan du tillåta inkommande trafik från Internet till din värd, eftersom du använder serverlös beräkning. Om dina nätverksprinciper inte tillåter inkommande Internettrafik kan du använda icke-serverlös beräkning, eller så kan du kontakta din Databricks-representant för att lära dig mer om serverlöst privat nätverk. ** Detaljerat felmeddelande: <causeErrorMessage>.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Datamängdstransformeringar och åtgärder kan bara anropas av drivrutinen, inte inuti andra datauppsättningstransformeringar. Till exempel är dataset1.map(x => dataset2.values.count() * x) ogiltig eftersom åtgärden för omvandling av värden och antal inte kan utföras i datauppsättningen1.map-transformering. Mer information finns i SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Fel vid inläsning av strömningskontrollpunktsfilhanteraren för path=<path>.
För mer information se CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Det går inte att läsa in klass <className> när du registrerar funktionen <functionName>. Kontrollera att den finns på klassvägen.
CANNOT_LOAD_PROTOBUF_CLASS
Det gick inte att läsa in Protobuf-klassen med namnet <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Ett fel uppstod under inläsningstillståndet.
Mer information finns i CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Det gick inte att sammanfoga inkompatibla datatyper <left> och <right>. Kontrollera datatyperna för de kolumner som sammanfogas och se till att de är kompatibla. Om det behövs bör du överväga att casta kolumnerna till kompatibla datatyper innan du försöker slå samman.
CANNOT_MERGE_SCHEMAS
Det gick inte att slå samman scheman:
Ursprungligt schema:
<left>
Schema som inte kan sammanfogas med det ursprungliga schemat:
<right>.
CANNOT_MODIFY_CONFIG
Det går inte att ändra värdet för Spark-konfigurationen: <key>.
Se även 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_PARSE_DECIMAL
Det går inte att parsa decimaltecken. Kontrollera att indata är ett giltigt tal med valfria decimaltecken eller kommaavgränsare.
CANNOT_PARSE_INTERVAL
Det går inte att parsa <intervalString>. Kontrollera att det angivna värdet är i ett giltigt format för att definiera ett intervall. Du kan referera till dokumentationen för rätt format. Om problemet kvarstår kontrollerar du att indatavärdet inte är null eller tomt och försök igen.
CANNOT_PARSE_JSON_FIELD
Det går inte att parsa fältnamnet <fieldName> och värdet <fieldValue> av JSON-tokentypen <jsonType> som mål för Spark-datatypen <dataType>.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fel vid parsning av beskrivande byte i Protobuf FileDescriptorSet.
CANNOT_PARSE_TIME
Indatasträngen <input> kan inte parsas till ett TIME-värde eftersom den inte matchar datetime-formatet <format>.
CANNOT_PARSE_TIMESTAMP
<message>. Använd <func> för att tolerera ogiltig indatasträng och returnera NULL i stället.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Det går inte att fråga MV/ST under initieringen.
Mer information finns i CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Det går inte att läsa filen på sökvägen <path> eftersom den har arkiverats. Justera dina frågefilter för att undanta arkiverade filer.
CANNOT_READ_FILE
Det går inte att läsa <format> fil på sökvägen: <path>.
Mer information finns i CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Det går inte att läsa känslig nyckel<key> från en säker provider.
CANNOT_RECOGNIZE_HIVE_TYPE
Det går inte att identifiera hive-typsträng: <fieldType>, kolumn: <fieldName>. Den angivna datatypen för fältet kan inte identifieras av Spark SQL. Kontrollera datatypen för det angivna fältet och kontrollera att det är en giltig Spark SQL-datatyp. I Spark SQL-dokumentationen finns en lista över giltiga datatyper och deras format. Om datatypen är korrekt kontrollerar du att du använder en version av Spark SQL som stöds.
CANNOT_REFERENCE_UC_IN_HMS
Det går inte att referera till en Unity-katalog <objType> i Hive Metastore-objekt.
CANNOT_REMOVE_RESERVED_PROPERTY
Det går inte att ta bort reserverad egenskap: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Det är inte tillåtet att byta namn på en <type> mellan kataloger.
CANNOT_RENAME_ACROSS_SCHEMA
Det är inte tillåtet att byta namn på en <type> mellan scheman.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Det går inte att lösa dataram-kolumnen <name>. Det beror förmodligen på olagliga referenser som df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
Kan inte lösa <targetString>.* för de angivna indatakolumnerna <columns>. Kontrollera att den angivna tabellen eller structen finns och är tillgänglig i indatakolumnerna.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Det gick inte att ange behörigheter för den skapade sökvägen <path> tillbaka till <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Det går inte att göra en ytlig kopiering av tabeller mellan Unity Catalog och Hive Metastore.
CANNOT_SHALLOW_CLONE_NESTED
Det går inte att ytligt klona en tabell <table> som redan är en ytlig klon.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Grund klon stöds endast för tabelltypen MANAGED. Tabellen <table> är inte MANAGED tabell.
CANNOT_UPDATE_FIELD
Det går inte att uppdatera <table> fält <fieldName> typ:
För mer information, se KAN_INTE_UPPDATERA_FÄLT
CANNOT_UPDATE_PARTITION_COLUMNS
Deklarerad partitionering <requestedPartitionColumns> står i konflikt med befintlig tabellpartitionering <existingPartitionColumns>.
Ta bort tabellen eller ändra den deklarerade partitioneringen så att den matchar dess partitioner.
CANNOT_UP_CAST_DATATYPE
Det går inte att omvandla <expression> från <sourceType> till <targetType>.
<details>
CANNOT_USE_KRYO
Kan inte läsa in Kryo-serialiseringscodec. Kryo-serialisering kan inte användas i Spark Connect-klienten. Använd Java-serialisering, ange en anpassad Codec eller använd Spark Classic i stället.
KAN_INTE_ANVÄNDA_RESERVERAT_STREAMINGLEVERANTÖRSNAMN
Det går inte att använda providernamnet för reserverad direktuppspelning: <providerName>.
CANNOT_VALIDATE_CONNECTION
Verifiering av <jdbcDialectName> anslutning stöds inte. Kontakta Databricks-supporten för alternativa lösningar eller ange "spark.databricks.testConnectionBeforeCreation" till "false" för att hoppa över anslutningstestning innan du skapar ett anslutningsobjekt.
CANNOT_WRITE_STATE_STORE
Det gick inte att skriva tillståndsarkivfiler för providern <providerClass>.
Mer information finns i CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Värdet <expression> av typen <sourceType> kan inte omvandlas till <targetType> eftersom det är felaktigt. Korrigera värdet enligt syntaxen eller ändra dess måltyp. Använd try_cast för att tolerera felaktiga indata och returnera NULL i stället.
Mer information finns i CAST_INVALID_INPUT
CAST_OVERFLOW
Värdet <value> av typen <sourceType> kan inte omvandlas till <targetType> på grund av ett spill. Använd try_cast för att tolerera spill och returnera NULL i stället.
CAST_OVERFLOW_IN_TABLE_INSERT
Det går inte att tilldela ett värde av typen <sourceType> till kolumnen eller variabeln av typen <targetType><columnName> på grund av ett överflöde. Använd try_cast på indatavärdet för att tolerera spill och returnera NULL i stället.
CATALOG_NOT_FOUND
Katalogen <catalogName> hittades inte. Överväg att ange SQL-konfigurationen <config> till ett katalog-plugin-program.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Det är inte tillåtet att skapa Delta-tabeller med <feature> tabellfunktionen. Kontakta Databricks-supporten.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Kontrollpunktsblocket <rddBlockId> hittades inte!
Antingen är den exekutor som ursprungligen skapat kontrollpunkten för denna partition inte längre aktiv, eller så är den ursprungliga RDD:n ej persisterad.
Om det här problemet kvarstår kan du överväga att använda rdd.checkpoint() i stället, vilket är långsammare än lokal kontrollpunkt men mer feltolerant.
ÖVERSKRIDNING_AV_KONTROLLBEGRÄNSNING
CHECK villkor <constraintName> <expression> överträds av rad med värden:
<values>
CIRCULAR_CLASS_REFERENCE
Det går inte att ha cirkelreferenser i klassen, finns cirkelreferens för klassen <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> måste åsidosätta antingen <method1> eller <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects stöder inte klassen <cls> som resulterande samling.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Kommandon för rent rum stöds inte
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ogiltigt namn för att referera till en <type> i ett rent rum. Använd ett <type>'s-namn i det rena rummet efter formatet [katalog].[ schema]. [<type>].
Om du är osäker på vilket namn du ska använda kan du köra [SHOW ALL IN CLEANROOM clean_room]" och använda värdet i kolumnen "name".
CLONING_WITH_HISTORY_INVALID_OPTION
Kloning med historik anges med ett ogiltigt alternativ: <invalidOption>.
Giltig syntax: CREATE (ELLER REPLACE) TABLE ... DEEP CLONE ... WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Kloning med historik stöds inte.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Ett filmeddelande togs emot för filen: <filePath> men den finns inte längre. Kontrollera att filerna inte tas bort innan de bearbetas. Om du vill fortsätta dataströmmen kan du ställa in Spark SQL-konfigurationen <config> till true.
CLOUD_PROVIDER_ERROR
Molnleverantörsfel: <message>
CLUSTERING_COLUMNS_MISMATCH
Angiven klustring matchar inte den som finns i den befintliga tabellen <tableName>.
Angivna klustringskolumner: [<specifiedClusteringString>].
Befintliga klustringskolumner: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' stöder inte klustring.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Kontakta din Databricks-representant för att aktivera funktionen "cluster-by-auto".
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Vänligen aktivera clusteringTable.enableClusteringTableFeature för att kunna använda CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO kräver att förutsägande optimering aktiveras.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO stöds endast i UC Managed-tabeller.
CODEC_NOT_AVAILABLE
Codec-<codecName> är inte tillgänglig.
Mer information finns i CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Det går inte att hitta ett kort namn för codec-<codecName>.
COLLATION_INVALID_NAME
Värdet <collationName> representerar inte ett korrekt sorteringsnamn. Föreslagna giltiga sorteringsnamn: [<proposals>].
COLLATION_INVALID_PROVIDER
Värdet <provider> representerar inte en korrekt sorteringsprovider. Leverantörer som stöds är: [<supportedProviders>].
COLLATION_MISMATCH
Det gick inte att avgöra vilken sortering som ska användas för strängfunktioner och operatorer.
Mer information finns i COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Det går inte att skapa matris med <numberOfElements> element som överskrider matrisstorleksgränsen <maxRoundedArrayLength>,
Mer information finns i COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Alias för kolumn tillåts inte i <op>.
COLUMN_ALREADY_EXISTS
Kolumnen <columnName> finns redan. Välj ett annat namn eller byt namn på den befintliga kolumnen.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Vissa värden i fältet <pos> är inte kompatibla med kolumnmatristypen. Förväntad typ <type>.
COLUMN_MASKS_ABAC_MISMATCH
Det gick inte att matcha kolumnmasker på <tableName> eftersom det uppstod ett matchningsfel mellan kolumnmasker som ärvts från principer och uttryckligen definierade kolumnmasker. Om du vill fortsätta inaktiverar du Attributbaserad åtkomstkontroll (ABAC) och kontaktar Databricks-supporten.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Det går inte att skapa CHECK-begränsning för tabell <tableName> med principer för kolumnmask.
COLUMN_MASKS_DUPLIKAT_ANVÄNDER_KOLUMN_NAMN
En <statementType>-instruktion försökte tilldela en kolumnmaskprincip till en kolumn som innehöll två eller flera andra refererade kolumner i USING COLUMNS-listan med samma namn <columnName>, vilket är ogiltigt.
COLUMN_MASKS_FUNKTION_EJ_STÖD
Kolumnmaskprinciper för <tableName> stöds inte:
Mer information finns i COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INKOMPATIBEL_SCHEMABYTE
Det går inte att <statementType> <columnName> från tabellen <tableName> eftersom den refereras i en kolumnmaskpolicy för kolumnen <maskedColumn>. Tabellägaren måste ta bort eller ändra den här policyn innan de fortsätter.
COLUMN_MASKS_SAMMANSLAGNING_OSTÖDD_KÄLLA
MERGE INTO åtgärder stöder inte kolumnmaskprinciper i källtabellen <tableName>.
COLUMN_MASKS_SAMMANFOGNING_OSTÖDD_MÅL
MERGE INTO operationer stöder inte skrivning till tabell <tableName> med kolumnmaskstyrning.
COLUMN_MASKS_FLERA_DELADE_MÅLKOLUMN_NAMN
Den här instruktionen försökte tilldela en kolumnmaskprincip till en kolumn <columnName> med flera namndelar, vilket är ogiltigt.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Detta uttalande försökte tilldela en kolumnmaskeringspolicy till en kolumn och listan USING COLUMNS innehöll namnet <columnName> som innehåller flera delar, vilket är ogiltigt.
COLUMN_MASKS_NOT_ENABLED
Stöd för att definiera kolumnmasker är inte aktiverat
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Kolumnmaskprinciper stöds endast i Unity Catalog.
_SHOW_PARTITIONS_OSTÖD
SHOW PARTITIONS kommando stöds inte för<format> tabeller med kolumnmasker.
COLUMN_MASKS_TABELLKLONKÄLLAN_INTE_STÖDD
Att klona <mode> från tabell <tableName> med policyer för kolumnmaskering stöds inte.
COLUMN_MASKS_TABELL_KLONMÅL_INTE_STÖDS
<mode> klona till tabell <tableName> med kolumnmaskprinciper stöds inte.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Det går inte att använda en konstant som en parameter i en kolumnmaskprincip. Uppdatera SQL-kommandot för att ta bort konstanten från kolumnmaskdefinitionen och försök sedan igen.
COLUMN_MASKS_OGILTIG_DATA_TYP
Funktionen <functionName> som används som en kolumnmaskprincip innehåller parametern med datatypen som <dataType>inte stöds .
COLUMN_MASKS_EJ_STÖDD_LEVERANTÖR
Det gick inte att köra <statementType> kommandot eftersom tilldelning av kolumnmaskprinciper inte stöds för måldatakällan med tabellprovidern: "<provider>".
COLUMN_MASKS_ANVÄNDER_KOLNAMN_SOM_ÄR_SAMMA_SOM_MÅLKOLUMN
Kolumnen <columnName> hade samma namn som målkolumnen, vilket är ogiltigt. Ta bort kolumnen från USING COLUMNS-listan och försök igen.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> kolumn <colName> är inte definierad i tabell <tableName>, de definierade tabellkolumnerna är: <tableCols>.
COLUMN_NOT_FOUND
Det går inte att hitta kolumnen <colName>. Kontrollera stavning och korrekthet för kolumnnamnet enligt SQL-konfigurationen <caseSensitiveConfig>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Kolumnordning utanför gränserna. Antalet kolumner i tabellen är <attributesLength>, men kolumnordningen är <ordinal>.
Attribut är följande: <attributes>.
KOMMANDO_INTE_AKTIVERAT
<command> kommandot är inte aktiverat.
COMMA_PRECEDING_CONSTRAINT_ERROR
Oväntat ',' före definitionen av begränsning(ar). Se till att villkorssatsen inte börjar med kommatecken när kolumner (och förväntningar) inte har definierats.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Kommandot COMMENT ON CONNECTION har inte implementerats än
COMPARATOR_RETURNS_NULL
Jämförelsen har returnerat en NULL för en jämförelse mellan <firstValue> och <secondValue>.
Det bör returnera ett positivt heltal för "större än", 0 för "lika" och ett negativt heltal för "mindre än".
Om du vill återgå till inaktuellt beteende där NULL behandlas som 0 (lika) måste du ange "spark.sql.legacy.allowNullComparisonResultInArraySort" till "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Det går inte att bearbeta indatatyper för uttrycket: <expression>.
Mer information finns i COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
En annan instans av den här frågan [id: <queryId>] startades just av en samtidig session [befintligt runId: <existingQueryRunId> nytt runId: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Det minsta antalet lediga platser som krävs i klustret är <numTasks>, men klustret har bara <numSlots> lediga platser. Frågan stoppas eller misslyckas. Öka klusterstorleken för att fortsätta.
CONCURRENT_STREAM_LOG_UPDATE
Samtidig uppdatering av loggen. Flera direktuppspelningsjobb har identifierats för <batchId>.
Kontrollera att endast ett direktuppspelningsjobb körs på en specifik kontrollpunktsplats i taget.
CONFIG_NOT_AVAILABLE
Konfiguration <config> är inte tillgänglig.
CONFLICTING_CLUSTER_CONFIGURATION
Följande konfigurationer står i konflikt med spark.databricks.streaming.realTimeMode.enabled: <confNames>. Ta bort de här konfigurationerna från klusterkonfigurationen och starta om Spark-klustret.
CONFLICTING_DIRECTORY_STRUCTURES
Katalogstrukturer i konflikt har identifierats.
Misstänkta sökvägar:
<discoveredBasePaths>
Om de angivna sökvägarna är partitionskataloger anger du "basePath" i alternativen för datakällan för att ange tabellens rotkatalog.
Om det finns flera rotkataloger, ladda in dem separat och slå sedan ihop dem.
CONFLICTING_PARTITION_COLUMN_NAMES
Motstridiga partitionskolumnnamn har identifierats:
<distinctPartColLists>
För partitionerade tabellkataloger bör datafiler endast finnas i lövkataloger.
Och kataloger på samma nivå bör ha samma partitionskolumnnamn.
Kontrollera följande kataloger för oväntade filer eller inkonsekventa kolumnnamn för partitioner:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
Partitionskolumnnamnet '<partitionColumnName>' kommer i konflikt med det reserverade kolumnnamnet.
Schemat <tableName> för är Hive-inkompatibelt, Spark genererar automatiskt en reserverad kolumn för<partitionColumnName> att lagra tabellen på ett visst sätt.
Använd ett annat namn för partitionskolumnen.
CONFLICTING_PROVIDER
Den angivna providern <provider> är inkonsekvent med den befintliga katalogprovidern <expectedProvider>. Använd "USING <expectedProvider>" och försök igen.
CONFLICTING_SQL_CONFIGURATION
Följande konfigurationer står i konflikt med spark.databricks.streaming.realTimeMode.enabled: <confNames>. Ta bort dessa konfigurationer från SparkSession-konfigurationen.
CONNECT
Allmänt Spark Connect-fel.
Mer information finns i CONNECT-
CONNECTION_ALREADY_EXISTS
Det går inte att skapa anslutning <connectionName> eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt den befintliga anslutningen eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga anslutningar.
CONNECTION_NAME_CANNOT_BE_EMPTY
Det går inte att köra det här kommandot eftersom anslutningsnamnet inte får vara tomt.
CONNECTION_NOT_FOUND
Det går inte att köra det här kommandot eftersom anslutningsnamnet <connectionName> inte hittades.
CONNECTION_OPTION_NOT_SUPPORTED
Anslutningar av typen "<connectionType>" stöder inte följande alternativ: <optionsNotSupported>. Alternativ som stöds: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Det går inte att skapa en anslutning av typen .<connectionType> Anslutningstyper som stöds: <allowedTypes>.
ANSLUTNINGSTYP_INGEN_SUPPORT_FÖR_OPTIONS_INJEKTION
Anslutning med namn <connectionName> och typ <connectionType> stöds inte i dataramsalternativ.
ANSLUTNINGSTYP_INTE_STÖDD_FÖR_FJÄRRFRÅGEFUNKTION
Anslutning med namnet '<connectionName>' av typen '<connectionType>' stöds inte för fjärrkörning av frågefunktioner.
CONNECT_SESSION_MIGRATION
Allmänt sessionsmigreringsfel (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Mer information finns i CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tabellbegränsningar stöds endast i Unity Catalog.
CONSTRAINT_ALREADY_EXISTS
Villkoret finns<constraintName> redan. Ta först bort den befintliga begränsningen.
Befintlig begränsning:
<oldConstraint>
CONSTRAINT_DOES_NOT_EXIST
Det går inte att ta bort obefintlig begränsning <constraintName> från tabellen <tableName>.
CONVERSION_INVALID_INPUT
Värdet <str> (<fmt>) kan inte konverteras till <targetType> eftersom det är felaktigt. Korrigera värdet enligt syntaxen eller ändra dess format. Använd <suggestion> för att tolerera felaktiga indata och returnera NULL i stället.
COPY_INTO_COLUMN_ARITY_MISMATCH
Det går inte att skriva till <tableName>, orsaken är
Mer information finns i COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ogiltigt schema <scheme>.
COPY INTO källautentiseringsuppgifter stöder för närvarande endast s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO källinloggningsuppgifter måste ange <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Dubbletter av filer begicks i en samtidig COPY INTO operation. Försök igen senare.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Ogiltigt schema <scheme>.
COPY INTO källkryptering stöder för närvarande endast s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO kryptering stöder endast ADLS Gen2 eller abfss:// filschema
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTOkällkryptering måste ange '<key>'.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Ogiltigt krypteringsalternativ <requiredKey>.
COPY INTO källkryptering måste ange '<requiredKey>' = '<keyValue>'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Funktionen COPY INTO '<feature>' är inte kompatibel med '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO annat än att lägga till data tillåts inte köras samtidigt med andra transaktioner. Försök igen senare.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO misslyckades med att läsa in sitt tillstånd, och det maximala antalet försök överskreds.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Ett schemamatchningsfel identifierades vid kopiering till Delta-tabellen (Tabell: <table>).
Detta kan tyda på ett problem med inkommande data, eller så kan deltatabellschemat utvecklas automatiskt enligt inkommande data genom att ställa in:
COPY_OPTIONS ('mergeSchema' = 'sant')
Schemaskillnad:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Formatet för källfilerna måste vara en av CSV, JSON, AVRO, ORC, PARQUET, TEXT eller BINARYFILE. Att använda COPY INTO i Delta-tabeller som källa stöds inte eftersom duplicerade data kan matas in efter OPTIMIZE åtgärder. Den här kontrollen kan inaktiveras genom att köra SQL-kommandot set spark.databricks.delta.copyInto.formatCheck.enabled = false.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Källkatalogen innehöll inga parsbara filer av typen <format>. Kontrollera innehållet i '<source>'.
Felet kan tystas genom att ställa in "<config>" på "false".
COPY_INTO_STATE_INTERNAL_ERROR
Ett internt fel uppstod vid bearbetning av COPY INTO tillstånd.
Mer information finns i COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Det gick inte att parsa kommandot COPY INTO.
För mer information, se COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Funktionen 'COPY INTO' stöds inte av <feature>.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Det går inte att avlasta data i formatet '<formatType>'. Format som stöds för <connectionType> är: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Det går inte att konvertera katalogfunktionen till<identifier> en SQL-funktion på grund av skadad funktionsinformation i katalogen. Om funktionen inte är en SQL-funktion, kontrollerar du att klassnamnet '<className>' är laddningsbart.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Kommandot CREATE FOREIGN SCHEMA har inte implementerats än
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Kommandot CREATE FOREIGN TABLE har inte implementerats än
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE ELLER REFRESH MATERIALIZED VIEW stöds inte. Använd CREATE OR REPLACE MATERIALIZED VIEW i stället.
CREATE_OR_REFRESH_MV_ST_ASYNC
Det går inte att CREATE ELLER REFRESH materialiserade vyer eller strömmande tabeller med ASYNC angivet. Ta bort ASYNC från instruktionen CREATE ELLER REFRESH eller använd REFRESH ASYNC för att uppdatera befintliga materialiserade vyer eller strömmande tabeller asynkront.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Det går inte att skapa den permanenta vyn <name> utan att uttryckligen tilldela ett alias för uttrycket <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE kolumnen <columnName> anger beskrivningen "<optionName>" mer än en gång, vilket är ogiltigt.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Det är inte möjligt att skapa vyn <viewName>, orsaken är
Mer information finns i CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Ange autentiseringsuppgifter när du skapar eller uppdaterar externa platser.
CREDENTIAL_PURPOSE_MISMATCH
Autentiseringsuppgiften <credentialName> har ett syfte <actualPurpose> , men syftet som anges i kommandot är <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
CSV-alternativet enforceSchema kan inte anges när du använder rescuedDataColumn eller failOnUnknownFields, eftersom kolumner läss efter namn i stället för ordningstal.
CYCLIC_FUNCTION_REFERENCE
Cyklisk funktionsreferens har identifierats: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta är inte aktiverat i ditt konto.<hints>
DATAFLOW_GRAPH_NOT_FOUND
Det gick inte att hitta dataflödesdiagram med ID <graphId>
DATATYPE_CANNOT_ORDER
Typen <dataType> stöder inte ordnade åtgärder.
DATATYPE_MISMATCH
Det går inte att lösa <sqlExpr> på grund av felmatchning av datatyp:
Mer information finns i DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> kräver en längdparameter, till exempel <type>(10). Ange längden.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Det går inte att skriva härledning: motsvarande relation med policyer för CLM/RLS saknas.
DATA_SOURCE_ALREADY_EXISTS
Datakällan finns<provider> redan. Välj ett annat namn för den nya datakällan.
DATA_SOURCE_EXTERNAL_ERROR
Det uppstod ett fel när den sparades till en extern datakälla.
DATA_SOURCE_NOT_EXIST
Det går inte att hitta datakällan<provider>. Kontrollera att datakällan är registrerad.
DATA_SOURCE_NOT_FOUND
Det gick inte att hitta datakällan: <provider>. Kontrollera att providernamnet är korrekt och att paketet är korrekt registrerat och kompatibelt med din Spark-version.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Valideringen av alternativ/-er för datakällan <dataSource> misslyckades.
Mer information finns i DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Alternativet <option> får inte vara tomt och får inte innehålla ogiltiga tecken, frågesträngar eller parametrar.
DATA_SOURCE_OPTION_IS_REQUIRED
Alternativ <option> krävs.
DATAKÄLLAS_ALTERNATIV_VÄRDE_OGILTIG
Det angivna alternativet för datakälla<option> innehåller ogiltigt värde ('<value>').
Mer information finns i DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Schemat för datakällans tabell matchar inte det förväntade schemat. Om du använder API:et DataFrameReader.schema eller skapar en tabell bör du undvika att ange schemat.
Schema för datakälla: <dsSchema>
Förväntat schema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
JDBC-URL:en tillåts inte i alternativen för datakällor. Ange i stället alternativen "värd", "port" och "databas".
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
För mer information se DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Datum och tid-överflöde: <operation>.
DC_API_QUOTA_EXCEEDED
Du har överskridit API-kvoten för datakällan <sourceName>.
Mer information finns i DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Det gick inte att upprätta en anslutning till den <sourceName> källan. Felkod: <errorCode>.
Mer information finns i DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Fel inträffade i Dynamics API-anrop, errorCode: <errorCode>.
Mer information finns i DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Fel inträffade i Netsuite JDBC-anrop, errorCode: <errorCode>.
Mer information finns i DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: ingen tilldelad
En schemaändring har inträffat i tabell <tableName> för den <sourceName> källan.
Mer information finns i DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Fel inträffade i ServiceNow API-anrop, errorCode: <errorCode>.
Mer information finns i DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Inmatning för objekt <objName> är ofullständig eftersom Salesforce API-frågejobbet tog för lång tid, misslyckades eller avbröts manuellt.
Om du vill försöka igen kan du antingen köra hela pipelinen igen eller uppdatera den här specifika måltabellen. Om felet kvarstår kan du skicka ett ärende. Jobb-ID: <jobId>. Jobbstatus: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Fel inträffade i Sharepoint API-anrop, errorCode: <errorCode>.
Mer information finns i DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ett fel uppstod i <sourceName> API-anropet. Typ av käll-API: <apiType>. Felkod: <errorCode>.
Detta kan ibland inträffa när du har nått en <sourceName> API-gräns. Om du inte har överskridit API-gränsen kan du prova att köra anslutningsappen igen. Om problemet kvarstår kan du skicka ett ärende.
DC_UNSUPPORTED_ERROR
Fel som inte stöds inträffade i datakällan <sourceName>.
Mer information finns i DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Fel inträffade i Workday RAAS API-anrop, errorCode: <errorCode>.
Mer information finns i DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Decimalprecision <precision> överskrider den maximala precisionen <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
Standarddatabasen <defaultDatabase> inte finns, skapa den först eller ändra standarddatabasen till <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
Det är möjligt att de underliggande filerna har uppdaterats. Du kan uttryckligen ogiltigförklara cachen i Spark genom att köra kommandot tableNameREFRESH TABLE i SQL eller genom att återskapa datauppsättningen/dataramen. Om diskcachen är inaktuell eller om de underliggande filerna har tagits bort kan du ogiltigförklara diskcachen manuellt genom att starta om klustret.
DEFAULT_PLACEMENT_INVALID
Ett DEFAULT nyckelord i en MERGE, INSERT, UPDATEeller SET VARIABLE kommando kunde inte tilldelas direkt till en målkolumn eftersom det var en del av ett uttryck.
Till exempel: UPDATE SET c1 = DEFAULT tillåts, men UPDATE T SET c1 = DEFAULT + 1 tillåts inte.
DEFAULT_UNSUPPORTED
Det gick inte att köra <statementType> kommandot eftersom DEFAULT värden inte stöds för måldatakällan med tabellprovidern: "<dataSource>".
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE ... AS JSON stöds endast när [EXTENDED|FORMATTED] anges.
Till exempel: DESCRIBE EXTENDED <tableName> AS JSON stöds men inte DESCRIBE <tableName> AS JSON.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Strömningsfrågan läste från en oväntad Delta-tabell (id = '<newTableId>').
Den brukade läsa från en annan Delta-tabell (id = '<oldTableId>') enligt kontrollpunkten.
Detta kan inträffa när du har ändrat koden så att den läss från en ny tabell eller om du har tagit bort och
återskapat en tabell. Återskapa din ändring eller ta bort kontrollpunkten för din streamingfråga.
för att starta om från början.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Distinkta fönsterfunktioner stöds inte: <windowExpr>.
DIVIDE_BY_ZERO
Division med noll. Använd try_divide för att tolerera att nämnaren är 0 och returnera NULL i stället. Om det behövs anger du <config> "false" för att kringgå det här felet.
Mer information finns i DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Förväntningar stöds endast i de deklarativa pipelines för Lakeflow.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEWs med en CLUSTER BY sats stöds endast i en DLTs-pipeline.
DLT_VIEW_LOCATION_NOT_SUPPORTED
materialiserade visningsplatser stöds endast i Deklarativa pipelines för Lakeflow.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Materialiserade vyscheman med en angiven typ stöds endast i Lakeflows deklarativa pipelines.
TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED
CONSTRAINT -satser i en vy stöds bara i Lakeflow deklarativa Pipelines.
DROP_SCHEDULE_DOES_NOT_EXIST
Det går inte att ta bort SCHEDULE från en tabell utan ett befintligt schema eller en triggermekanism.
DUPLICATED_CTE_NAMES
CTE-definitionen kan inte ha duplicerade namn: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Duplicerade fältnamn i Arrow Struct tillåts inte, fick <fieldNames>.
DUPLICATED_MAP_KEY
Dubblett av kartnyckel <key> hittades, var snälla och kontrollera indata.
Om du vill ta bort de duplicerade nycklarna kan du ange <mapKeyDedupPolicy> till "LAST_WIN" så att nyckeln som infogats äntligen har företräde.
DUPLICATED_METRICS_NAME
Måttnamnet är inte unikt: <metricName>. Samma namn kan inte användas för mått med olika resultat.
Flera instanser av mått med samma resultat och namn tillåts dock (till exempel självkopplingar).
DUPLICATE_ASSIGNMENTS
Kolumnerna eller variablerna <nameList> visas mer än en gång som tilldelningsmål.
DUPLICATE_CLAUSES
Dubbelklausuler hittades: <clauseName>. Ta bort en av dem.
DUPLICATE_CONDITION_IN_SCOPE
Dubblettvillkor påträffades <condition> inom området. Ta bort en av dem.
DUPLICATE_EXCEPTION_HANDLER
Flera dubbla hanterare hittades. Ta bort en av dem.
Mer information finns i avsnittet DUPLICATE_EXCEPTION_HANDLER.
DUPLICATE_FLOW_SQL_CONF
Hittade duplicerad SQL-konfiguration för datamängden "<datasetName>": "<key>" definieras av både "<flowName1>" och "<flowName2>".
DUPLICATE_KEY
Dubblettnycklar hittades <keyColumn>.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Anrop till rutin <routineName> är ogiltigt eftersom det innehåller flera argumenttilldelningar till samma parameternamn <parameterName>.
Mer information finns i DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Hittade dubblerade namn i parameterlistan för den användardefinierade funktionen <routineName>: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Hittade dubblettkolumner i RETURNS-satskolumnlistan för den användardefinierade rutinen <routineName>: <columns>.
DUPLIKAT_VARIABELNAMN_INUTI_DECLARE
Dubblettvariabeln <variableName> hittades i listan över deklarerade variabler. Ta bort en av dem.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Föregående nod har genererat en rad med eventTime=<emittedRowEventTime> som är äldre än current_watermark_value=<currentWatermark>
Detta kan leda till problem med korrekthet i tillståndsberoende operatorer nedströms i körningspipeline.
Korrigera operatorlogik för att generera rader efter aktuellt globalt vattenstämpelvärde.
EMPTY_JSON_FIELD_VALUE
Det gick inte att parsa en tom sträng för datatypen <dataType>.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Tom lokal fil i stagingmiljö <operation> förfrågan
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
Den <format> datakällan stöder inte skrivning av tomma eller kapslade tomma scheman. Kontrollera att dataschemat har minst en eller flera kolumner.
ENCODER_NOT_FOUND
Det går inte att hitta en kodare av typen <typeName> till en intern Spark SQL-representation.
Överväg att ändra indatatypen till en av de som stöds på '<docroot>/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
Slutetiketten <endLabel> kan inte finnas utan startetikett.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Vissa partitioner i Kafka-ämnen rapporterar tillgängliga offset som är mindre än slutoffset under körning av frågan med Trigger.AvailableNow. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
senaste förskjutningsvärde: <latestOffset>, slutvärde: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
För Kafka-datakälla med Trigger.AvailableNow bör slutförskjutningen ha lägre eller lika förskjutning per ämnespartition än förhämtad förskjutning. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
förinläst förskjutning: <prefetchedOffset>, avslutande förskjutning: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Fel vid läsning av avro-data – påträffade ett okänt fingeravtryck: <fingerprint>, inte säker på vilket schema som ska användas.
Detta kan inträffa om du har registrerat ytterligare scheman när du har startat spark-kontexten.
EVENT_LOG_EMPTY
Händelseloggen för <tableOrPipeline> har inget schema och innehåller inga händelser. Försök igen senare när händelser har genererats
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Det går inte att köra frågor mot händelseloggar från ett tilldelat kluster eller ett kluster med delad åtkomst utan isolering. Vänligen använd ett delat kluster eller ett Databricks SQL-datalager i stället.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
Funktionen EVENT_LOG Table-Valued stöds inte för pipelines som använder schematfältet eller som publicerar till det förvalda lagringsutrymmet.
Om du vill köra frågor mot händelseloggen publicerar du den i metaarkivet genom att ange fältet event_log i pipelineinställningarna.
Mer information finns i dokumentationen för Monitor Lakeflow deklarativa pipelines: https://docs.databricks.com/aws/en/delta-live-tables/observability.
EVENT_LOG_UNAVAILABLE
Det finns inga tillgängliga händelseloggar för <tableOrPipeline>. Försök igen senare när händelser har genererats
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Tabelltypen för <tableIdentifier> är <tableType>.
Förfrågningar på händelseloggar stöder endast materialiserade vyer, strömmande tabeller eller Lakeflow Deklarativa pipelines.
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Händelsetiden <eventName> har den ogiltiga typen <eventType>, men förväntades "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Överskrider längdbegränsningen för tecken/varchar-typ: <limit>.
EXCEL_DATA_SOURCE_NOT_ENABLED
Excel-datakällan är inte aktiverad i det här klustret.
EXCEL_FILE_ERROR
Det gick inte att bearbeta Excel-filen<filePath> .
Mer information finns i EXCEL_FILE_ERROR
EXCEL_OGILTIGT_ALTERNATIVVÄRDE_LÄSNING
Ogiltigt läsalternativvärde för Excel-datakälla.
Mer information finns i EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
Excel-datakällan stöder inte värdet '<value>' för skrivalternativet '<option>'.
Mer information finns i EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_OGILTIGT_SKIVSCHEMA
Excel-datakällan stöder inte schemat '<schema>' för skrivningar.
<hint>
EXCEL_PARSING_ERROR
Fel vid parsning av Excel-data.
Mer information finns i EXCEL_PARSING_ERROR
EXCEL_OGRIPPBAR_SKRIVALTERNATIV
Excel-datakällan stöder inte skrivalternativet .<option>
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT kolumn <columnName> löstes och förväntades vara StructType, men hittade typen <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
Kolumner i EXCEPT-listan måste vara distinkta och icke-överlappande, men fick (<columns>) istället.
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT kolumner [<exceptColumns>] är lösta, men matchar inte några av kolumnerna [<expandedColumns>] från stjärnexpansionen.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Det går inte att lösa kolumn-/fältnamnet <objectName> i EXCEPT-satsen. Menade du något av följande: [<objectList>]?
Obs! Vid en strukturutvidgning får kapslade kolumner i EXCEPT-satsen inte innehålla kvalificerare (tabellnamn, strukturföräldrars kolumnnamn osv.); försök ta bort kvalificerare om de används med kapslade kolumner.
EXECUTOR_BROADCAST_JOIN_OOM
Det finns inte tillräckligt med minne för att skapa sändningsrelationen <relationClassName>. Relationsstorlek = <relationSize>. Totalt minne som används av den här uppgiften = <taskMemoryUsage>. Mått för Executor Memory Manager: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId: <sparkPlanId>] För att inaktivera sändningar för den här frågeförfrågan, använd kommandot 'set spark.sql.autoBroadcastJoinThreshold=-1' eller använd en kopplingshint för att framtvinga shuffle-koppling.
EXECUTOR_BROADCAST_JOIN_STORE_OOM
Det finns inte tillräckligt med minne för att lagra sändningsrelationen <relationClassName>. Relationsstorlek = <relationSize>. StorageLevel = <storageLevel>. [sparkPlanId: <sparkPlanId>] För att inaktivera sändningar för den här frågeförfrågan, använd kommandot 'set spark.sql.autoBroadcastJoinThreshold=-1' eller använd en kopplingshint för att framtvinga shuffle-koppling.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
USING-satsen i det här EXECUTE IMMEDIATE-kommandot innehöll flera argument med samma alias (<aliases>), vilket är ogiltigt. Uppdatera kommandot för att ange unika alias och försök sedan igen.
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' förväntar sig en permanent tabell men <tableName> är en tillfällig tabell. Ange en permanent tabell i stället.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' förväntar sig en permanent vy men <viewName> är en temporär vy.
EXPECT_TABLE_NOT_VIEW
'<operation>' förväntar sig en tabell men <viewName> är en vy.
Mer information finns i EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Tabellen <tableName> stöder inte <operation>.
Mer information finns i EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Det gick inte att avkoda en rad till ett värde för uttrycken: <expressions>.
EXPRESSION_ENCODING_FAILED
Det gick inte att koda ett värde för uttrycken: <expressions> till en rad.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Kolumnuttrycket <expr> kan inte sorteras eftersom dess typ <exprType> inte är ordnad.
EXTERNAL_METASTORE_CLIENT_ERROR
Klientåtgärden misslyckades:
Mer information finns i EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Det gick inte att köra åtgärden i källtabellen <sourceTable> eftersom den grunda klonen <targetTable> fortfarande finns och dess status är ogiltig. Om du verkligen vill fortsätta med den här åtgärden, rensa då den grunda klonen genom att uttryckligen köra kommandot DROP.
EXTERNAL_TABLE_INVALID_SCHEME
Externa tabeller stöder inte schemat <scheme> .
FABRIC_REFRESH_INVALID_SCOPE
Det gick inte att köra 'REFRESH FOREIGN <scope> <name>'. Fel. Det går inte att uppdatera en Fabric <scope> direkt, vänligen använd 'REFRESH FOREIGN CATALOG <catalogName>' för att uppdatera Fabric-katalogen istället.
FAILED_EXECUTE_UDF
Användardefinierad funktion (<functionName>: (<signature>) =><result>) misslyckades på grund av: <reason>.
FAILED_FUNCTION_CALL
Det gick inte att förbereda funktionen <funcName> för anrop. Dubbelkolla funktionens argument.
FAILED_JDBC
JDBC-<url> misslyckades vid åtgärden:
Mer information finns i FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Det gick inte att parsa struct: <raw>.
FAILED_READ_FILE
Fel vid läsning av fil <path>.
Mer information finns i FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Det gick inte att registrera klasser med Kryo.
FAILED_RENAME_PATH
Det gick inte att byta namn på <sourcePath> till <targetPath> eftersom målet redan finns.
FAILED_RENAME_TEMP_FILE
Det gick inte att byta namn på temp-filen <srcPath> till <dstPath> eftersom FileSystem.rename returnerade false.
FAILED_ROW_TO_JSON
Det gick inte att konvertera radvärdet <value> för klassen <class> till sql-måltypen <sqlType> i JSON-format.
FAILED_TO_LOAD_ROUTINE
Det gick inte att läsa in rutinen <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
Uttalandet, inklusive potentiella SQL-funktioner och refererade vyer, var för komplex för att tolka.
För att minimera det här felet delar du in -instruktionen i flera, mindre komplexa segment.
FEATURE_NOT_ENABLED
Funktionen <featureName> är inte aktiverad. Överväg att ställa in konfigurationen <configKey> till <configValue> för att aktivera den här funktionen.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> stöds inte på klassiska SQL-lager. Om du vill använda den här funktionen använder du ett Pro- eller Serverlöst SQL-lager.
FEATURE_REQUIRES_UC
<feature> stöds inte utan Unity Catalog. Aktivera Unity Catalog om du vill använda den här funktionen.
FEATURE_UNAVAILABLE
<feature> stöds inte i din miljö. Om du vill använda den här funktionen kontaktar du Databricks-supporten.
FGAC_ON_DEDICATED_COMPUTE_FAILED
Detaljerad åtkomstkontroll (FGAC) för dedikerad beräkning misslyckades på grund av följande undantag: <message>
FIELD_ALREADY_EXISTS
Det går inte att lägga till <op> kolumn, eftersom <fieldNames> redan finns i <struct>.
FIELD_NOT_FOUND
Inget sådant structfält <fieldName> i <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Filen i mellanlagringssökvägen <path> finns redan men OVERWRITE har inte angetts
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Ett fel uppstod i den användaringivna funktionen i flatMapGroupsWithState. Orsak: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Det är inte tillåtet att göra förfrågningar mot datakälla <source> i serverlös beräkning. Endast <allowlist> datakällor stöds i serverlös beräkning.
FÖRBJUDEN_NYCKELORD_I_JDBC_FRÅGA
Frågealternativet <queryOption> får inte innehålla otillåtna nyckelord. Ta bort följande nyckelord från frågan: <keywords>
FORBIDDEN_OPERATION
Åtgärden <statement> tillåts inte på <objectType>: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ett fel uppstod i den användarlevererade funktionen i batch-sänkan foreach. Orsak: <reason>
FOREACH_USER_FUNCTION_ERROR
Ett fel uppstod i den användarspecificerade funktionen i foreach-sink. Orsak: <reason>
FOREIGN_KEY_MISMATCH
Utländska nyckelkolumner <parentColumns> matchar inte primärnyckelkolumner <childColumns>.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Det går inte att köra det här kommandot eftersom namnet på det externa <objectType> måste vara icke-tomt.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Tabellen är inte berättigad till uppgradering från UC Foreign till UC External. Reason:
För mer information, se FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json inläsning påträffade motstridiga schemauppdateringar vid: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json hittade columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) närvarande
i ett JSON-objekt och kan inte längre fortsätta. Konfigurera ett annat värde för
alternativet "columnNameOfCorruptRecord".
FROM_JSON_CORRUPT_SCHEMA
from_json slutsats kunde inte läsa schemat som lagras på: <location>
FROM_JSON_INFERENCE_FAILED
from_json kunde inte härleda schemat. Ange en i stället.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json slutsatsdragning stöds endast när du definierar strömmande tabeller
FROM_JSON_INVALID_CONFIGURATION
from_json konfigurationen är ogiltig:
Mer information finns i FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json kunde inte utvecklas från <old> till <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Funktionen <function> kräver namngivna parametrar. Parametrar som saknar namn: <exprs>. Uppdatera funktionsanropet för att lägga till namn för alla parametrar, <function>till exempel (param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
En kolumn kan inte ha både ett standardvärde och ett generationsuttryck, men kolumnen <colName> har standardvärdet: (<defaultValue>) och generationsuttrycket: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2- och lägre versioner stöder inte getTablesByType. Använd Hive 2.3 eller senare.
GET_WARMUP_TRACING_FAILED
Det gick inte att få spårning av värmning. Orsak: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funktionen get_warmup_tracing() tillåts inte.
GRAPHITE_SINK_INVALID_PROTOCOL
Ogiltigt Graphite-protokoll: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite-sänk kräver egenskapen "<property>".
GROUPING_COLUMN_MISMATCH
Det går inte att hitta kolumnen för gruppering (<grouping>) i grupperingskolumner <groupingColumns>.
GROUPING_ID_COLUMN_MISMATCH
Kolumner i grouping_id (<groupingIdColumn>) matchar inte grupperingskolumner (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
Grupperingsuppsättningar får inte vara större än <maxSize>.
GROUP_BY_AGGREGATE
Mängdfunktioner tillåts inte i GROUP BY, men hittade <sqlExpr>.
Mer information finns i GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> refererar till ett uttryck <aggExpr> som innehåller en mängdfunktion. Mängdfunktioner tillåts inte i GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY position <index> inte finns i urvalslistan (giltigt intervall är [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Uttrycket <sqlExpr> kan inte användas som ett grupperingsuttryck eftersom dess datatyp <dataType> inte är en ordnad datatyp.
HDFS_HTTP_ERROR
När du försökte läsa från HDFS misslyckades HTTP-begäran.
Mer information finns i HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
Alternativet hint stöds inte för <jdbcDialect> i JDBC-datakällan. Dialekter som stöds är MySQLDialect, OracleDialect och DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
Det gick inte att köra frågan eller kommandot eftersom konfigurationen "spark.databricks.hive.metastore.tablePlaceholderPath" angav en ogiltig platshållarsökväg för Hive Metastore-tabellen. Uppdatera den här konfigurationen med ett nytt värde för att ange en giltig sökväg och kör sedan frågan eller kommandot igen.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Frågan eller kommandot misslyckades eftersom platshållarsökvägen för Hive Metastore-tabellen inte har angetts, vilket krävs när schemaplatsen finns på DBFS och tabellplatsen är ett objekt/en fil. Ange spark.databricks.hive.metastore.tablePlaceholderPath till en sökväg som du har åtkomst till och kör sedan frågan eller kommandot igen.
HLL_INVALID_INPUT_SKETCH_BUFFER
Ogiltigt anrop till <function>; Endast giltiga HLL-skissbuffertar stöds som indata (till exempel de som skapas av funktionen hll_sketch_agg).
HLL_INVALID_LG_K
Ogiltigt anrop till <function>; värdet för lgConfigK måste vara mellan <min> och <max>, inklusive: <value>.
HLL_UNION_DIFFERENT_LG_K
Skisser har olika lgConfigK värden: <left> och <right>. Ange parametern allowDifferentLgConfigK till true för att anropa <function> med olika lgConfigK värden.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
Det gick inte att matcha den grunda klonsökvägen<path> till en tabell i Unity Catalog. Kontrollera att tabellen finns och är federerad till Unity Catalog.
HYBRID_ANALYZER_EXCEPTION
Ett fel uppstod vid försök att lösa en fråga eller ett kommando med både den äldre analysatorn med fast punkt och lösen med enstaka pass.
Mer information finns i HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> är inte en giltig identifierare eftersom den har fler än 2 namndelar.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Alternativet för duplicerad IDENTITY-kolumnsekvensgenerator är <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY kolumnsteg får inte vara 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType-<dataType> stöds inte för IDENTITY kolumner.
ILLEGAL_DAY_OF_WEEK
Ogiltiga indata för veckodag: <string>.
ILLEGAL_STATE_STORE_VALUE
Ogiltigt värde angivet till statlager
Mer information finns i ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
Det går inte att skapa anslutningen på grund av ett olämpligt URI-schema <uri> för anslutningsalternativet<option> .
Tillåtna scheman: <allowedSchemes>.
Lägg till ett schema om det inte finns i URI:n eller ange ett schema från de tillåtna värdena.
INCOMPARABLE_PIVOT_COLUMN
Ogiltig pivotkolumn <columnName>. Pivotkolumner måste vara jämförbara.
INKOMPATIBEL_BATCHVY_LÄSNING
Vyn <datasetIdentifier> är en batchvy och måste refereras med SparkSession#read. Den här kontrollen kan inaktiveras genom att ange Spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_COLUMN_TYPE
<operator> kan bara utföras på tabeller med kompatibla kolumntyper. Kolumnen <columnOrdinalNumber> i tabellen <tableOrdinalNumber> är <dataType1> typ som inte är kompatibel med <dataType2> i samma kolumn i den första tabellen.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Identifierade en inkompatibel DataSourceRegister. Ta bort det inkompatibla biblioteket från classpath eller uppgradera det. Fel: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Det går inte att skriva inkompatibla data för tabellen <tableName>:
Mer information finns i INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Kopplingstyperna <joinType1> och <joinType2> är inte kompatibla.
INKOMPATIBEL_STRÖMNINGSVY_LÄSÅTGÄRD
Vyn <datasetIdentifier> är en strömningsvy och måste refereras med SparkSession#readStream. Den här kontrollen kan inaktiveras genom att ange Spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
SQL-frågan för vyn <viewName> har en inkompatibel schemaändring och kolumn <colName> kan inte lösas. Förväntades <expectedNum> kolumner med namn <colName> men fick <actualCols>.
Försök att återskapa vyn genom att köra: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Ofullständig komplex typ:
Mer information finns i INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Du kan få ett annat resultat på grund av uppgraderingen till
Mer information finns i INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>kräver att <functionName> har minst <minArgs> och högst <maxArgs> argument.
INCORRECT_RAMP_UP_RATE
Maximal offset med <rowsPerSecond> rader per sekund är <maxSeconds>, men "rampUpTimeSeconds" är <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Det gick inte att avgöra vilken sortering som ska användas för strängoperationen. Använd COLLATE-satsen för att explicit ange sorteringen.
INDETERMINATE_COLLATION_IN_EXPRESSION
Datatypen för <expr> har obestämd sortering. Använd COLLATE-satsen för att explicit ange sorteringen.
INDETERMINATE_COLLATION_IN_SCHEMA
Schemat innehåller obestämd sortering på: [<columnPaths>]. Använd COLLATE-satsen för att explicit ange sorteringen.
INDEX_ALREADY_EXISTS
Det går inte att skapa indexet <indexName> i tabellen <tableName> eftersom det redan finns.
INDEX_NOT_FOUND
Det går inte att hitta indexet <indexName> i tabellen <tableName>.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Utlösartyp <trigger> stöds inte för den här klustertypen.
Använd en annan utlösartyp, till exempel AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Det går inte att skriva till <tableName>, orsaken är
Mer information finns i INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Det går inte att skriva till '<tableName>', <reason>:
Tabellkolumner: <tableColumns>.
Partitionskolumner med statiska värden: <staticPartCols>.
Datakolumner: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Alla kolumner i USING -satsen måste visas i samma position i både mål- och källscheman.
USING -sats som innehåller feljusterade kolumner stöds inte.
Följande kolumner är feljusterade: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
Tabellen måste partitioneras och alla angivna kolumner måste representera den fullständiga uppsättningen partitionskolumner i tabellen.
Följande kolumner är inte partitionskolumner: <nonPartitionColumns>
Följande partitionskolumner saknas: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Kontakta din Databricks-representant för att aktivera INSERT INTO funktionen ... REPLACE USING (...).
INSUFFICIENT_PERMISSIONS
Otillräcklig behörighet:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Användaren <user> har otillräcklig behörighet för extern plats <location>.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Det finns ingen ägare för <securableName>. Be administratören att ange en ägare.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Användaren äger inte <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
Användaren har inte behörighet <action> på <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Ägaren till <securableName> skiljer sig från ägaren till <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
Klienten har inte behörighet att ange en anpassad tidsgräns för kvarhållning för CloudFetch-resultat.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Lagringsautentiseringsuppgifter <credentialName> har otillräckliga behörigheter.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Användaren kan inte <action> på <securableName> på grund av behörigheter för underliggande skyddsbara objekt.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Användaren kan inte <action> på <securableName> på grund av behörigheter för underliggande skyddsbara objekt:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Heltalsöverflöd vid operation med intervall.
Mer information finns i INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Division med noll. Använd try_divide för att tolerera att nämnaren är 0 och returnera NULL i stället.
INVALID_AGGREGATE_FILTER
Uttrycket FILTER<filterExpr> i en mängdfunktion är ogiltigt.
Mer information finns i INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Hittade en ogiltig agnostisk kodare. Förväntar sig en instans av AgnosticEncoder men fick <encoderType>. Mer information finns i "<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_ALGORITHM_VALUE
Värdet för algoritmen <alg>för kantinterpolering är ogiltigt eller stöds inte.
INVALID_ARRAY_INDEX
Indexet <indexValue> ligger utanför gränserna. Matrisen har <arraySize> element. Använd SQL-funktionen get() för att tolerera åtkomstelement vid ogiltigt index och returnera NULL i stället.
Mer information finns i INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Indexet <indexValue> ligger utanför gränserna. Matrisen har <arraySize> element. Använd try_element_at för att tolerera åtkomst av element vid ogiltigt index och returnera NULL i stället.
Mer information finns i INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ATTRIBUTE_NAME_SYNTAX
Syntaxfel i attributnamnet: <name>. Kontrollera att backticks visas i par, och att en citerad sträng är en komplett del av ett namn. Använd endast en backtick inuti citerade namndelar.
INVALID_AWS_AUTHENTICATION
Välj exakt en av följande autentiseringsmetoder:
Ange namnet på databricks-tjänstens autentiseringsuppgifter (
<serviceCredential>) (som ett Spark Stream-alternativ eller som en klustermiljövariabel).Ange både AWS AccessKey (
<awsAccessKey>) och SecretAccessKey (<awsSecretKey>) för att använda AWS-nycklar.Ange varken AWS-nycklarna eller databricks-tjänstens autentiseringsuppgifter för att använda standardkedjan för AWS-autentiseringsprovider för Kinesis-autentisering.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Ange antingen namnet på databricks-tjänstens autentiseringsuppgifter (<serviceCredential>)
ELLER både <awsAccessKey> och <awsSecretKey>
INVALID_BITMAP_POSITION
Den 0-indexerade bitmappspositionen <bitPosition> ligger utanför gränserna. Bitmappen har <bitmapNumBits> bitar (<bitmapNumBytes> byte).
INVALID_BOOLEAN_STATEMENT
Boolesk instruktion förväntas i villkoret, men <invalidStatement> hittades.
INVALID_BOUNDARY
Gränsen <boundary> är ogiltig: <invalidValue>.
Mer information finns i INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Det går inte att använda <type> för bucketkolumn. Samlade datatyper stöds inte för gruppering.
Ogiltigt antal behållare
Antalet bucketar ska vara större än 0 men mindre än eller lika med bucketing.maxBuckets (<bucketingMaxBuckets>). Fick <numBuckets>.
INVALID_BUCKET_FILE
Ogiltig bucketfil: <path>.
INVALID_BYTE_STRING
Det förväntade formatet är ByteString, men var <unsupported> (<class>).
INVALID_COLUMN_NAME_AS_PATH
Datakällan <datasource> kan inte spara kolumnen <columnName> eftersom dess namn innehåller vissa tecken som inte tillåts i filsökvägar. Använd ett alias för att byta namn på det.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Kolumn eller fält <name> är av typen <type> medan den måste vara <expectedType>.
INVALID_CONF_VALUE
Värdet '<confValue>' i konfigurationen "<confName>" är ogiltigt.
Mer information finns i INVALID_CONF_VALUE
OGILTIGA_BEGRÄNSNINGSEGENSKAPER
Villkorsegenskaper [<characteristics>] dupliceras eller står i konflikt med varandra.
INVALID_CORRUPT_RECORD_TYPE
Kolumnen <columnName> för skadade poster måste ha typen STRING som kan vara null, men fick <actualType>.
INVALID_CRS_VALUE
Ogiltigt eller icke-stött CRS (koordinatreferenssystem)-värde <crs>.
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient-funktionen kan bara användas i CREATE VIEW-instruktionen eller ALTER VIEW-instruktionen för att definiera en delningsvy endast i Unity Catalog.
INVALID_CURSOR
Markören är ogiltig.
Mer information finns i INVALID_CURSOR
OGILTIG_DATAKÄLLA_FORMAT_FÖR_ANSLUTNINGSALTERNATIV_INJEKTION
Anslutningen med namn <connectionName> och typ <connectionType> stöder inte formatet <actualFormat>. Format som stöds: <expectedFormat>.
OGILTIG_FÖRSÖK_ATT_ÅSIDOSÄTTA_DATACKÄLLANS_ALTERNATIV
Alternativet <optionName> finns redan på anslutningen <connectionName> och kan inte åsidosättas.
INVALID_DATETIME_PATTERN
Okänt datum-/tidsmönster: <pattern>.
Mer information finns i INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Det gick inte att köra kommandot <statement> eftersom målkolumnen eller variabeln <colName> har ett DEFAULT värde <defaultValue>,
Mer information finns i INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Ogiltigt värde för avgränsare.
Mer information finns i INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Målkatalogen för kommandot SYNC måste finnas i Unity Catalog. Hittade <catalog>.
INVALID_DRIVER_MEMORY
Systemminnet <systemMemory> måste vara minst <minSystemMemory>.
Öka heapstorleken med alternativet --driver-memory eller "<config>" i Spark-konfigurationen.
OGILTIGA_DROP_TABLE_ALTERNATIV
Det går inte att ange både PURGE och FORCE alternativ i DROP TABLE kommandot. Använd antingen PURGE eller FORCE, men inte båda.
INVALID_DYNAMIC_OPTIONS
De alternativ som skickas <option_list> är förbjudna för extern tabell <table_name>.
INVALID_EMPTY_LOCATION
Platsnamnet får inte vara en tom sträng, men <location> angavs.
OGILTIGA_INSTÄLLNINGAR_FÖR_MILJÖBEROENDE
Parametern för miljöinställningarsberoenden saknas eller så gick det inte att parsa den till en lista med strängar. Förväntat format: ["dep1", "dep2"]
INVALID_ERROR_CONDITION_DECLARATION
Ogiltig villkorsdeklaration.
Mer information finns i INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Hittade en ogiltig escape-sträng: <invalidEscape>. Escape-strängen får bara innehålla ett tecken.
INVALID_ESCAPE_CHAR
EscapeChar ska vara en strängliteral av längd ett, men fick <sqlExpr>.
INVALID_EXECUTOR_MEMORY
Körminnet <executorMemory> måste vara minst <minSystemMemory>.
Öka körminnet med hjälp av alternativet --executor-memory eller "<config>" i Spark-konfigurationen.
INVALID_EXPRESSION_ENCODER
Hittade en ogiltig uttryckskodare. Förväntar sig en instans av ExpressionEncoder men fick <encoderType>. Mer information finns i "<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_EXTERNAL_TYPE
Den externa typen <externalType> är inte giltig för typen <type> i uttrycket <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
Det går inte att extrahera ett värde från <base>. Behöver en komplex typ [STRUCT, ARRAY, MAP] men fick <other>.
INVALID_EXTRACT_FIELD
Det går inte att extrahera <field> från <expr>.
INVALID_EXTRACT_FIELD_TYPE
Fältnamnet ska vara en strängliteral som inte är null, men det är <extraction>.
INVALID_FIELD_NAME
Fältnamnet <fieldName> är ogiltigt: <path> är inte en struct.
OGILTIG_FLÖDESFRÅGETYP
Flow <flowIdentifier> returnerar en ogiltig relationstyp.
Mer information finns i INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
Formatet är ogiltigt: <format>.
Mer information finns i INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Giltigt intervall för sekunder är [0, 60] (inklusive), men det angivna värdet är <secAndMicros>. Undvik det här felet genom att använda try_make_timestamp, som returnerar NULL vid fel.
Om du inte vill använda sessionens standardtidsstämpelversion av den här funktionen använder du try_make_timestamp_ntz eller try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Ogiltig användning av GET DIAGNOSTICS instruktion.
Mer information finns i INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Ogiltig användning av GET DIAGNOSTICS instruktion. Det enda värde som stöds för ett villkorsnummer i -instruktionen GET DIAGNOSTICS är 1.
INVALID_HANDLE
Handtaget <handle> är ogiltigt.
Mer information finns i OGILTIG_HANDLE
INVALID_HANDLER_DECLARATION
Ogiltig hanteraresdeklaration.
Mer information finns i INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
Indataparametern: metod, värde: <paramValue> är inte en giltig parameter för http_request eftersom det inte är en giltig HTTP-metod.
INVALID_HTTP_REQUEST_PATH
Indataparametern: sökväg, värde: <paramValue> är inte en giltig parameter för http_request eftersom sökvägsbläddering inte tillåts.
INVALID_IDENTIFIER
Den ociterade identifieraren <ident> är ogiltig och måste anges som: <ident>.
Ociterade identifierare kan bara innehålla ASCII bokstäver ('a' - 'z', 'A' - 'Z'), siffror ('0' - '9') och understreck ('_').
Ociterade identifierare får inte heller börja med en siffra.
Olika datakällor och metalager kan införa ytterligare begränsningar för giltiga identifierare.
INVALID_INDEX_OF_ZERO
Index 0 är ogiltigt. Ett index ska vara antingen < 0 eller > 0 (det första elementet har index 1).
INVALID_INLINE_TABLE
Ogiltig infogad tabell.
Mer information finns i INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Det gick inte att parsa "<input>" till ett intervall. Kontrollera att det angivna värdet är i ett giltigt format för att definiera ett intervall. Du kan referera till dokumentationen för rätt format.
Mer information finns i INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Det går inte att lägga till ett intervall till ett datum eftersom dess mikrosekunder inte är 0. Lös problemet genom att omvandla indatadatumet till en tidsstämpel som stöder tillägg av intervall med icke-noll mikrosekunder.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> är inte en giltig identifierare för Java och kan inte användas som fältnamn
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
Alternativet <optionKey> är inte en giltig parameter för den här jdbc-anslutningen.
INVALID_JDBC_CONNECTION_OPTION_VALUE
Alternativet <optionKey> med ett värde <optionValue> är inte ett giltigt alternativ för den här jdbc-anslutningen.
INVALID_JOIN_TYPE_FOR_JOINWITH
Ogiltig kopplingstyp i joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Det gick inte att konvertera JSON-strängen<invalidType> till en datatyp. Ange en giltig datatyp.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Teckenkonsekvenser kan endast tillämpas på strängtyper, men JSON-datatypen är <jsonType>.
INVALID_JSON_RECORD_TYPE
Identifierade en ogiltig typ av en JSON-post när ett gemensamt schema skulle fastställas i läge <failFastMode>. Förväntade sig en STRUCT typ, men hittade <invalidType>.
INVALID_JSON_ROOT_FIELD
Det går inte att konvertera JSON-rotfältet till måltypen Spark.
INVALID_JSON_SCHEMA_MAP_TYPE
Indataschema <jsonSchema> kan bara innehålla STRING som nyckeltyp för en MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Värdet för konfigurationen "<bufferSizeConfKey>" måste vara mindre än 2048 MiB, men fick <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
Objektet '<obj>' är ogiltigt eller felaktigt för <serdeOp> med <serdeClass>.
INVALID_LABEL_USAGE
Användningen av etiketten <labelName> är ogiltig.
Mer information finns i INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Ogiltigt lambda-funktionsanrop.
Mer information finns i INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
Den <joinType>JOIN med LATERAL korrelation tillåts inte eftersom en OUTER underfråga inte kan korrelera med dess kopplingspartner. Ta bort korrelationen för LATERAL eller använd en INNERJOIN, eller använd LEFT OUTERJOIN i stället.
INVALID_LIMIT_LIKE_EXPRESSION
Gränsuttryck som <expr> är ogiltigt.
Mer information finns i INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Mer information finns i INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Ogiltigt namn i<name><command> kommandot . Orsak: <reason>
INVALID_NON_ABSOLUTE_PATH
Den angivna icke-absoluta sökvägen <path> kan inte kvalificeras. Uppdatera sökvägen så att den är en giltig dbfs-monteringsplats.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Operatorn förväntar sig ett deterministiskt uttryck, men det faktiska uttrycket är <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
Numerisk literal <rawStrippedQualifier> ligger utanför det giltiga intervallet för <typeName> med minimivärdet <minValue> och det maximala värdet för <maxValue>. Justera värdet i enlighet med detta.
INVALID_OBSERVED_METRICS
Ogiltiga observerade mått.
Mer information finns i INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Ogiltiga alternativ:
Mer information finns i INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Gruppens pandas UDF <functionList> kan inte anropas tillsammans med andra, icke-pandas-aggregerande funktioner.
INVALID_PARAMETER_MARKER_VALUE
En ogiltig parametermappning angavs:
Mer information hittar du i INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Värdet för parameter(er) <parameter> i <functionName> är ogiltigt:
Mer information finns i INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Det går inte att använda <type> för partitionskolumnen.
INVALID_PARTITION_OPERATION
Partitionskommandot är ogiltigt.
Mer information finns i INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Det gick inte att omvandla värdet <value> till datatypen <dataType> för partitionskolumnen <columnName>. Kontrollera att värdet matchar den förväntade datatypen för den här partitionskolumnen.
INVALID_PIPELINE_ID
Pipeline-ID:t <pipelineId> är ogiltigt.
Ett pipeline-ID ska vara ett UUID i formatet "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxxx"
INVALID_PRIVILEGE
Behörighet <privilege> är inte giltigt för <securable>.
INVALID_PROPERTY_KEY
<key> är en ogiltig egenskapsnyckel, använd citattecken, till exempel SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> är ett ogiltigt egenskapsvärde, använd citattecken, till exempel SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
Kolumnnamnet <columnName> är ogiltigt eftersom det inte är kvalificerat med ett tabellnamn eller består av fler än 4 namndelar.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parameteriserad fråga måste antingen använda positionella eller namngivna parametrar, men inte båda.
INVALID_RECURSIVE_CTE
Ogiltig rekursiv definition hittades. Rekursiva frågor måste innehålla en UNION eller en UNION ALL-instruktion som har två underordnade. Den första barnen behöver vara ankartermen utan rekursiva referenser. Alla inre CTE på toppnivå får inte innehålla självreferenser.
INVALID_RECURSIVE_REFERENCE
Ogiltig rekursiv referens hittades inuti WITH RECURSIVE -satsen.
Mer information finns i INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Det gick inte att utföra regexp_replace för källan "<source>", mönster "<pattern>", ersättning "<replacement>" och position <position>.
Ogiltig omställbar beroende
Tabeller <upstreamResettableTables> är återställningsbara men har ett underordnat beroende som<downstreamTable> inte kan återställas.
reset misslyckas eftersom Spark Streaming inte stöder borttagna källdata. Du kan antingen ta bort egenskapen <resetAllowedKey>=false från '<downstreamTable>' eller lägga till den bland dess uppströmsberoenden.
INVALID_RESET_COMMAND_FORMAT
Förväntat format är "RESET" eller "RESET nyckel". Om du vill inkludera specialtecken i nyckeln använder du citattecken, till exempel RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL när hanteraren inte är aktiv.
RESIGNAL-instruktionen kan endast användas i undantagshanterarens block.
INVALID_S3_COPY_CREDENTIALS
COPY INTO autentiseringsuppgifter måste innehålla AWS_ACCESS_KEY, AWS_SECRET_KEYoch AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Det angivna spara-läget <mode> är ogiltigt. Giltiga sparlägen inkluderar "lägg till", "skriv över", "ignorera", "fel", "fel om existerar" och "standard".
INVALID_SCHEMA
Indataschemat <inputSchema> är inte en giltig schemasträng.
Mer information finns i INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> är inte ett giltigt namn för tabeller/scheman. Giltiga namn innehåller bara alfabettecken, siffror och _.
Ogiltig schemastrukturtyp - ej strukturerad
Ogiltig schematyp. Förväntar mig en strukturtyp, men fick <dataType>.
INVALID_SCHEME
Unity-katalogen stöder inte <name> som standardfilschema.
INVALID_SECRET_LOOKUP
Ogiltig hemlig sökning:
Mer information finns i INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Det förväntade formatet är 'SET', 'SET key', eller 'SET key=value'. Om du vill inkludera specialtecken i nyckeln eller inkludera semikolon i värde använder du backquotes, till exempel SET key=value.
INVALID_SHARED_ALIAS_NAME
Aliasnamnet <sharedObjectType> måste vara av formatet "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Det angivna schemat <schema> är ogiltigt när alternativet singleVariantColumn är aktiverat. Schemat måste antingen vara ett variantfält eller ett variantfält plus ett skadat kolumnfält.
INVALID_SOURCE_CATALOG
Källkatalogen får inte finnas i Unity Catalog för kommandot SYNC. Hittade <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
Källan för filtreringstjänstens MERGE åtgärd kan bara innehålla projektioner och filter.
Justera kommandot MERGE eller använd en stagingtabell som källa i stället.
<stmt>
INVALID_SPARK_CONFIG
Ogiltig Spark-konfiguration:
Mer information finns i INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Ogiltigt SQLSTATE värde: '<sqlState>'.
SQLSTATE måste vara exakt 5 tecken långt och innehålla endast A-Z och 0-9.
SQLSTATE får inte börja med "00", "01" eller "XX".
INVALID_SQL_ARG
Argumentet <name> för sql() är ogiltigt. Överväg att ersätta den antingen med en SQL-literal eller med samlingskonstruktorfunktioner som map(), array(), struct().
INVALID_SQL_SYNTAX
Ogiltig SQL-syntax:
Mer information finns i INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ogiltig sökväg för mellanlagring i fråga om mellanlagring <operation>: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
INTO-satsen i EXECUTE IMMEDIATE är endast giltig för frågeförfrågningar, men uttrycket enligt följande är inte en fråga: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
Instruktionen eller -satsen: <operation> är ogiltig.
OGILTIG_STREAMING_HASTIGHET_KÄLLVERSION
Ogiltig version för frekvenskälla: <version>. Versionen måste vara antingen 1 eller 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
Intervallet för realtidsutlösare är inställt på <interval> ms. Detta är mindre än det <minBatchDuration> ms minimum som anges av spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
Det gick inte att parsa realtidsutlösarens kontrollpunktsintervall <interval> . Kontrollera att du har passerat ett positivt heltal.
INVALID_SUBQUERY_EXPRESSION
Ogiltig underfråga:
Mer information finns i INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType> ... <command> stöder <tableName> inte .
ALTER <targetTableType> Använd ... <command> i stället.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType> ... SET TBLPROPERTIES stöder <tableName> inte .
ALTER <targetTableType> Använd ... SET TBLPROPERTIES i stället.
INVALID_TEMP_OBJ_REFERENCE
Det går inte att skapa det beständiga objektet <objName> av typen <obj> eftersom det refererar till det tillfälliga objektet <tempObjName> av typen <tempObj>. Gör det tillfälliga objektet <tempObjName> beständigt eller gör det beständiga objektet <objName> tillfälligt.
INVALID_TIMESTAMP_FORMAT
Den angivna tidsstämpeln <timestamp> matchar inte den förväntade syntaxen <format>.
INVALID_TIMEZONE
Tidszonen: <timeZone> är ogiltig. Tidszonen måste vara antingen ett regionbaserat zon-ID eller en zonförskjutning. Region-ID:t måste ha formuläret "område/stad", till exempel "America/Los_Angeles". Zonförskjutningar måste ha formatet '(+|-)HH', '(+|-)HH:mm' eller '(+|-)HH:mm:ss', t.ex. '-08' , '+01:00' eller '-13:33:33', och måste vara i intervallet från -18:00 till +18:00. "Z" och "UTC" accepteras som synonymer för "+00:00".
INVALID_TIME_TRAVEL_SPEC
Det går inte att ange både version och tidsstämpel när du gör en tidsresa i tabellen.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Tidsstämpeluttrycket för tidsresor <expr> är ogiltigt.
Mer information finns i INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Värdet för den skrivna literalen <valueType> är ogiltigt: <value>.
INVALID_UDF_IMPLEMENTATION
Funktionen <funcName> implementerar inte en ScalarFunction eller AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> källtabellen finns i Hive-metaarkivet och måltabellen finns i Unity Catalog.
INVALID_URL
Url:en är ogiltig: <url>. Använd try_parse_url för att tolerera ogiltig URL och returnera NULL i stället.
INVALID_USAGE_OF_STAR_OR_REGEX
Ogiltig användning av <elem> i <prettyName>.
INVALID_UTF8_STRING
Ogiltig UTF8-bytesekvens hittades i strängen: <str>.
INVALID_UUID
Indata <uuidInput> är inte ett giltigt UUID.
UUID ska vara i formatet "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx"
Kontrollera formatet för UUID.
INVALID_VARIABLE_DECLARATION
Ogiltig variabeldeklaration.
Mer information finns i INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Variabeltyp måste vara strängtyp men fick <varType>.
INVALID_VARIANT_CAST
Variantvärdet <value> kan inte omvandlas till <dataType>. Använd try_variant_get i stället.
INVALID_VARIANT_FROM_PARQUET
Ogiltig variant.
Mer information finns i INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Sökvägen <path> är inte en giltig variantextraheringssökväg i <functionName>.
En giltig sökväg bör börja med $ och följs av noll eller fler segment som [123], .name, ['name']eller ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
Schemat <schema> är inte ett giltigt schema för variantstrimning.
INVALID_WHERE_CONDITION
Villkoret WHERE<condition> innehåller ogiltiga uttryck: <expressionList>.
Skriv om frågan för att undvika fönsterfunktioner, mängdfunktioner och generatorfunktioner i WHERE-satsen.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Det går inte att ange ORDER BY eller en fönsterram för <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Ogiltig funktion <funcName> med WITHIN GROUP.
För ytterligare information, se INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
Datakällans skrivare har genererat ett ogiltigt antal incheckningsmeddelanden. Förväntade exakt ett commit-meddelande från varje uppgift, men fick <detail>.
INVALID_WRITE_DISTRIBUTION
Den begärda skrivdistributionen är ogiltig.
Mer information finns i INVALID_WRITE_DISTRIBUTION
ISOLATED_COMMAND_FAILURE
Det gick inte att köra <command>. Kommandoutdata:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Det gick inte att köra <command>.
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Syntaxfel för den externa JDBC-motorn. Felet orsakades av frågan <jdbcQuery>.
Mer information finns i JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Kopplingsvillkoret <joinCondition> har den ogiltiga typen <conditionType>, förväntat "BOOLEAN".
KAFKA_DATA_LOSS
Vissa data kan ha gått förlorade eftersom de inte längre är tillgängliga i Kafka.
antingen har data föråldrades ut av Kafka eller så kan ämnet ha tagits bort innan alla data i
ämnet har bearbetats.
Om du inte vill att strömningsfrågan ska misslyckas i sådana fall anger du källalternativet failOnDataLoss till false.
Reason:
Mer information finns i KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Kunde inte läsa tills önskat sekvensnummer <endSeqNum> för shard <shardId> i
Kinesis stream <stream> med konsumentläge <consumerMode>. Frågan misslyckas på grund av
potentiell dataförlust. Den senast lästa posten var vid sekvensnummer <lastSeqNum>.
Detta kan inträffa om data med endSeqNum redan har åldrats ut, eller om Kinesis-strömmen var borttagen.
tas bort och rekonstrueras med samma namn. Felbeteendet kan åsidosättas
genom att ange spark.databricks.kinesis.failOnDataLoss till false i Spark-konfigurationen.
KINESIS_EFO_CONSUMER_NOT_FOUND
För kinesisström <streamId>har den tidigare registrerade EFO-konsumenten <consumerId> av strömmen raderats.
Starta om frågan så att en ny konsument registreras.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
För shard <shard>var det tidigare anropet av subscribeToShard API inom 5 sekunder före nästa anrop.
Starta om frågan efter 5 sekunder eller mer.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Minsta hämtade shardId från Kinesis (<fetchedShardId>)
är mindre än det lägsta spårade shard-ID (<trackedShardId>).
Detta är oväntat och inträffar när en Kinesis-ström tas bort och återskapas med samma namn.
och en direktuppspelningsfråga med den här Kinesis-strömmen startas om med hjälp av en befintlig kontrollpunktsplats.
Starta om strömningsfrågan med en ny kontrollpunktsplats eller skapa en ström med ett nytt namn.
KINESIS_POLLING_MODE_UNSUPPORTED
Kinesis-avsökningsläget stöds inte.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
För shard <shard>har den senaste posten som lästes från Kinesis i tidigare hämtningar sekvensnummer <lastSeqNum>,
som är större än den post som lästs under den aktuella hämtningen med sekvensnummer <recordSeqNum>.
Detta är oväntat och kan inträffa när startpositionen för återförsök eller nästa hämtning är felaktigt initierad och kan resultera i duplicerade poster nedströms.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Om du vill läsa från Kinesis Streams med konsumentkonfigurationer (consumerName, consumerNamePrefixeller registeredConsumerId) måste consumerMode vara efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Om du vill läsa från Kinesis Streams med registrerade konsumenter måste du ange både alternativen registeredConsumerId och registeredConsumerIdType.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Om du vill läsa från Kinesis Streams måste du konfigurera antingen (men inte båda) streamName eller streamARN alternativ som en kommaavgränsad lista över strömnamn/ARN.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Om du vill läsa från Kinesis Streams med registrerade konsumenter ska du inte konfigurera alternativen consumerName eller consumerNamePrefix eftersom de inte träder i kraft.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Antalet registrerade konsument-ID:n ska vara lika med antalet Kinesis-strömmar men fick <numConsumerIds> konsument-ID:n och <numStreams> strömmar.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Det går inte att hitta den registrerade konsumenten <consumerId> för streamARN <streamARN>. Kontrollera att du har registrerat konsumenten eller ange inte alternativet registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Den registrerade konsumenttypen <consumerType> är ogiltig. Det måste vara antingen name eller ARN.
KRYO_BUFFER_OVERFLOW
Kryo-serieringsprocessen misslyckades: <exceptionMsg>. Undvik detta genom att öka värdet för "<bufferSizeConfKey>".
LABELS_MISMATCH
Startetiketten <beginLabel> matchar inte slutetiketten <endLabel>.
Etikett eller namn för variabeln finns redan
Etiketten eller FOR variabeln <label> finns redan. Välj ett annat namn eller byt namn på det befintliga.
Etikett eller för variabelnamn förbjudet
Etiketten eller FOR variabelnamnet <label> är förbjudet.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Lakehouse-federationsdatakälla <provider> kräver en nyare version av Databricks Runtime.
Mer information finns under LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED (Lateral Sammanfogning med Arrow UDTF ej stöds)
LATERAL
JOIN med piloptimerade användardefinierade tabellfunktioner (UDF) stöds inte. Det går inte att använda pil-UDF:er på höger sida av en lateral koppling.
Använd en vanlig UDTF i stället eller omstrukturera frågan för att undvika den laterala kopplingen.
LIKE_EXPRESSION_PATTERN_NOT_SUPPORTED
Liknande uttryck stöder inte U+0130-tecken – latinsk versal bokstav I med punkt ovan (eller dess gemener) i indata eller mönster.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA indatasökväg finns inte: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL måste användas tillsammans med schemat för file, men istället användes: <actualSchema>.
LOCATION_ALREADY_EXISTS
Det går inte att namnge den hanterade tabellen som <identifier>eftersom dess associerade plats <location> redan finns. Välj ett annat tabellnamn eller ta bort den befintliga platsen först.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Vissa partitioner i ett eller flera Kafka-ämnen har gått förlorade under körningen av en fråga med Trigger.AvailableNow. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
ämnespartitioner för senaste offset: <tpsForLatestOffset>, ämnespartitioner för slutoffset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Felaktiga Avro-meddelanden identifieras i meddelandedeserialisering. Parsningsläge: <mode>. Om du vill bearbeta ett felaktigt Avro-meddelande som nullresultat, kan du prova att ange alternativet "mode" som "PERMISSIVE".
MALFORMED_CHARACTER_CODING
Ogiltigt värde hittades när <function> utfördes med <charset>
MALFORMED_CSV_RECORD
Felaktig CSV-post: <badRecord>
MALFORMED_LOG_FILE
Loggfilen var felaktigt formaterad: det gick inte att läsa rätt loggversion från <text>.
MALFORMED_PROTOBUF_MESSAGE
Felaktiga Protobuf-meddelanden identifieras i meddelandedeserialisering. Parsningsläge: <failFastMode>. Om du vill bearbeta felaktigt protobuf-meddelande som null-resultat kan du prova att ange alternativet "mode" som "PERMISSIVE".
MALFORMED_RECORD_IN_PARSING
Felaktiga poster identifieras vid tolkning av poster: <badRecord>.
Parsningsläge: <failFastMode>. Om du vill bearbeta felaktiga poster som null-resultat kan du prova att ange alternativet "mode" som "PERMISSIVE".
Mer information finns i MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Felaktigt tillstånd i RatePerMicroBatch-källa.
Mer information finns i MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Variant binärfil är felaktigt formaterad. Kontrollera att datakällan är giltig.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Försökte aktivera Liquid clustering på en hanterad Iceberg-tabell utan att inaktivera både borttagningsvektorer och radspårning. Borttagningsvektorer och radspårning stöds inte för hanterade isbergstabeller, men krävs för samtidighet på radnivå med Liquid-tabeller. Om du vill aktivera Liquid-klustring på en hanterad isbergstabell med minskad samtidighetskontroll måste borttagningsvektorer och radspårning inaktiveras för den här tabellen.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Hanterade Apache Iceberg-tabeller stöder inte <operation>.
MANAGED_TABLE_WITH_CRED
Det går inte att skapa en hanterad tabell med lagringsautentiseringsuppgifter.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Det går inte att <refreshType> den materialiserade vyn eftersom den föregår med ett pipelineId. Om du vill aktivera <refreshType>, ta bort och återskapa den materialiserade vyn.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Den materialiserade vyåtgärden <operation> tillåts inte:
Mer information finns i MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Uttryck <expression> i en materialiserad vy måste vara försedd med ett explicit alias.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
En materialiserad vy <name> kunde inte skapas med strömmande fråga. Använd CREATE [OR REFRESH] STREAMING TABLE eller ta bort nyckelordet STREAM till FROM satsen för att omvandla den här relationen till en batchfråga i stället.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Operation <operation> stöds för närvarande inte på materialiserade vyer.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Det går inte att skapa den nya variabeln <variableName> eftersom antalet variabler i sessionen överskrider det maximala tillåtna antalet (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch måste vara ett positivt heltal som är mindre än eller lika med <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
Det ON sökvillkoret för MERGE-instruktionen matchade en enda rad från måltabellen med flera rader i källtabellen.
Detta kan leda till att målraden bearbetas mer än en gång med en uppdaterings- eller borttagningsåtgärd, vilket inte är tillåtet.
MERGE_WITHOUT_WHEN
Det måste finnas minst en WHEN-sats i en MERGE-instruktion.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT är inte aktiverat.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Det angivna värdet "<argValue>" stöds inte av argumentet "<argName>" för METRIC_STORE tabellfunktionen.
Mer information finns i METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Metric Store-rutinen <routineName> är för närvarande inaktiverad i den här miljön.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
Metrisk vydefinition innehåller en sammanslagning med ett ospecificerat villkor: <expr>. [Använd antingen kopplingsvillkoren using eller kvalificera kolumner uttryckligen med aliaset <sourceAlias> .]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Metrikvyn får inte använda cachetabeller.
METRIC_VIEW_FEATURE_DISABLED
Funktionen för måttvy är inaktiverad. Kontrollera att "spark.databricks.sql.metricView.enabled" är inställt på true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
Funktionen MEASURE() tar bara ett attribut som indata, men fick <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
Definitionen av den metriska vyn är ogiltig. Orsak: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
Metric-vyn är inte tillåten i CTE-definitioner. plan: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Måttvyn får inte använda kopplingar. plan: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Materialiseringar för måttvy är inaktiverade. Kontrollera att "spark.databricks.sql.metricView.materializations.enabled" är inställt på true.
METRISK_VY_MATERIALISERIGNAR_OMEMAGGREGERAD_MED_METRISK_VY
Oaggregerad materialisering stöds inte när måttvyn refererar till andra måttvyer.
MATERIALISERING_AV_METRISK_VY_PÅ_TILLFÄLLIG_VY_INTE_STÖD ICKET
Materialisering stöds inte för tillfälliga måttvyer.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Användningen av måttkolumnen <column> för en måttvy kräver en MEASURE-funktion () för att generera resultat.
METRIC_VIEW stöds inte i HMS
Metervyer stöds inte i HMS.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
Måttvyn <oldName> får inte byta namn till en annan katalog eller ett annat schema: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
Funktionen snowflake join för måttvyn är inaktiverad. Kontrollera att "spark.databricks.sql.metricView.snowflake.join.enable" är inställt på true.
METRIC_VIEW_UNSUPPORTED_USAGE
Stöd för användning av måttvy saknas. plan: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Det är inte tillåtet för måttvyn att använda fönsterfunktion <expr>.
METRIC_VIEW_YAML_V11_DISABLED
Metrikvy YAML v1.1 är inaktiverad. Kontrollera att "spark.databricks.sql.metricView.yaml.v11.enabled" är inställt på true.
MIGRATION_NOT_SUPPORTED
<table> stöds inte för migrering till UC-hanterad tabell eftersom det inte är en <tableKind> tabell.
Kontrollera att tabellen som migreras är en extern UC-deltatabell och
det refereras till med dess namn i stället för sökväg.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> stöds inte för återställning från till hanterad till extern tabell eftersom det inte är en <tableKind> tabell.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Kafka-datakällan i Trigger.AvailableNow bör tillhandahålla samma ämnespartitioner i förhämtade offset till slutoffset för varje mikrobatch. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
ämnespartitioner för förhämtad offset: <tpsForPrefetched>, ämnespartitioner för slutoffset: <tpsForEndOffset>.
MISSING_AGGREGATION
Det icke-aggregerande uttrycket <expression> baseras på kolumner som inte deltar i GROUP BY-satsen.
Lägg till kolumnerna eller uttrycket i GROUP BY, aggregera uttrycket eller använd <expressionAnyValue> om du inte bryr dig om vilka av värdena i en grupp som returneras.
Mer information finns i MISSING_AGGREGATION
MISSING_CLAUSES_FOR_OPERATION
Sats saknas <clauses> för åtgärden <operation>. Lägg till de obligatoriska satserna.
MISSING_CONNECTION_OPTION
Anslutningar av typen måste<connectionType> innehålla följande alternativ: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
Databasnamnet anges inte i v1-sessionskatalogen. Se till att ange ett giltigt databasnamn när du interagerar med v1-katalogen.
MISSING_GROUP_BY
Frågan innehåller inte någon GROUP BY-sats. Lägg till GROUP BY eller omvandla den till fönsterfunktionerna med hjälp av OVER-satser.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK begränsning måste ha ett namn.
MISSING_PARAMETER_FOR_KAFKA
Parameter <parameterName> krävs för Kafka, men anges inte i <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
Parameter <parameterName> krävs, men anges inte i <functionName>.
MISSING_SCHEDULE_DEFINITION
En schemadefinition måste anges enligt SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
Åtgärden har överskridit tidsgränsen, men ingen tidsgräns är konfigurerad. Om du vill ange en tidsbaserad timeout för bearbetning använder du "GroupState.setTimeoutDuration()" i åtgärden "mapGroupsWithState" eller "flatMapGroupsWithState". För händelsetidsbaserad timeout använder du "GroupState.setTimeoutTimestamp()" och definierar en vattenstämpel med hjälp av "Dataset.withWatermark()".
MISSING_WINDOW_SPECIFICATION
Fönsterspecifikationen definieras inte i WINDOW-satsen för <windowName>. Mer information om WINDOW satser finns i "<docroot>/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Det går inte att ändra den inbyggda katalogen <catalogName>.
FLÖDESNAMN FÖR FLERDELAD INTE STÖDD
Flöde med flerdelsnamn '<flowName>' stöds inte.
MULTIPLE_LOAD_PATH
Databricks Delta stöder inte flera indatasökvägar i API:et load().
sökvägar: <pathList>. Så här skapar du en enda DataFrame genom att läsa in
vänligen ladda in rotsökvägen från samma Delta-tabell om det finns flera sökvägar
Delta-tabellen med motsvarande partitionsfilter. Om flera sökvägar
är från olika Delta-tabeller, bör du använda Dataset-union()/unionByName() API:er
för att kombinera de DataFrames som genereras av separata load()-API-anrop.
MULTIPLE_MATCHING_CONSTRAINTS
Minst två matchande begränsningar hittades med det angivna villkoret.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> och <clause2> kan inte samexistera i samma SQL-röroperator med hjälp av |>. Avgränsa de flera resultatsatserna i separata pipe-operatorer och försök sedan köra frågan igen.
MULTIPLE_TIME_TRAVEL_SPEC
Det går inte att ange tidsresa i både tidsresevillkoret och alternativen.
MULTIPLE_XML_DATA_SOURCE
Flera datakällor har identifierats med namnet <provider> (<sourceNames>). Ange det fullständigt kvalificerade klassnamnet eller ta bort <externalSource> från klassökvägen.
MULTI_ALIAS_WITHOUT_GENERATOR
Alias för flera delar (<names>) stöds inte med <expr> eftersom det inte är en generatorfunktion.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Uttrycket <expr> stöder inte mer än en källa.
MULTI_STATEMENT_TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
Ändringsdataflöde kan inte aktiveras i en transaktion med flera uttryck eftersom en tabell innehåller ett reserverat kolumnnamn (<column_name>).
Om du vill fortsätta kontrollerar du att tabellen endast använder icke-reserverade kolumnnamn.
MULTI_STATEMENT_TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Det är inte tillåtet att ange CDC-identiteternas högvattenstämpel manuellt.
MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
En samtidig metadataändring har identifierats i tabellen/vyn <table>. Kör ROLLBACK och försök sedan utföra transaktionen igen. Details:
För mer information, se MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
Inkonsekvensen i transaktionskontexten upptäcktes mellan den aktuella tråden och Spark-sessionen. Detta inträffar vanligtvis när en Spark-session delas mellan flera trådar. Använd en dedikerad session och tråd för varje transaktion och checka in/återställa transaktionen i tråden innan du återanvänder sessionen och tråden för en ny transaktion. Details:
Mer information finns i MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
Det gick inte att köra kommandot.
Mer information finns i MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
MULTI_STATEMENT_TRANSACTION_NO_ACTIVE_TRANSACTION
Det finns ingen aktiv transaktion till <action>.
MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Den aktuella transaktionen har avbrutits. Kör ROLLBACK TRANSACTION innan du fortsätter. Avbrottsorsak
Mer information finns i MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
MULTI_UDF_INTERFACE_ERROR
Det går inte att implementera flera UDF-gränssnitt, UDF-klass <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Ömsesidigt uteslutande villkor eller alternativ <clauses>. Ta bort någon av dessa satser.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Indatafrågan förväntar sig en <expectedType>, men den underliggande tabellen är en <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Namngivna parametrar stöds inte för funktion <functionName>; Försök igen med positionsargument till funktionsanropet i stället.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Det går inte att anropa funktionen <functionName> eftersom namngivna argumentreferenser inte stöds. I det här fallet var den namngivna argumentreferensen <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Det går inte att anropa funktionen <functionName> eftersom namngivna argumentreferenser inte är aktiverade här.
I det här fallet var den namngivna argumentreferensen <argument>.
Ange "spark.sql.allowNamedFunctionArguments" till "true" för att aktivera funktionen.
NAMESPACE_ALREADY_EXISTS
Det går inte att skapa namnområdet <nameSpaceName> eftersom det redan finns.
Välj ett annat namn, släpp det befintliga namnområdet eller lägg till IF NOT EXISTS-satsen för att tolerera befintligt namnområde.
NAMESPACE_NOT_EMPTY
Det går inte att släppa ett namnområde <nameSpaceNameName> eftersom det innehåller objekt.
Använd DROP NAMESPACE ... CASCADE för att släppa namnområdet och alla dess objekt.
NAMESPACE_NOT_FOUND
Det går inte att hitta namnområdet <nameSpaceName>. Kontrollera stavning och korrekthet för namnområdet.
Om du inte kvalificerade namnet korrekt, kontrollera utdata från current_schema() eller kvalificera namnet på rätt sätt.
För att tolerera felet vid släpp använd DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Den ursprungliga begäran misslyckades. begäranId: <requestId>, moln: <cloud>, operation: <operation>
begäran: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
fel: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Intern XML-datakälla är inte aktiverad i det här klustret.
NEGATIVE_SCALE_DISALLOWED
Negativ skalning tillåts inte: '<scale>'. Ställ in konfigurationen <sqlConf> på "true" för att tillåta den.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Hittade det negativa värdet i <frequencyExpression>: <negativeValue>, men förväntade sig ett positivt integralvärde.
NESTED_AGGREGATE_FUNCTION
Det är inte tillåtet att använda en aggregeringsfunktion i argumentet för en annan mängdfunktion. Använd den inre mängdfunktionen i en underfråga.
NESTED_EXECUTE_IMMEDIATE
Kapslade EXECUTE IMMEDIATE kommandon tillåts inte. Kontrollera att SQL-frågan (<sqlString>) inte innehåller något annat EXECUTE IMMEDIATE kommando.
NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED
Identifierade externa omfångsreferenser <expression> i underfrågan som inte stöds.
NY_CHECK_KONSTRÄNGBROTT
Det går inte att lägga till den nya kontrollbegränsningen (<expression>) eftersom den skulle brytas av befintliga data i tabellen <tableName>. Kontrollera att alla befintliga rader uppfyller villkoret innan du lägger till det.
NONEXISTENT_FIELD_NAME_IN_LIST
Fält <nonExistFields> finns inte. Tillgängliga fält: <fieldNames>
Icke-deterministisk kontrollbegränsning
Kontrollvillkoret <checkCondition> är icke-deterministiskt. Kontrollbegränsningar får endast innehålla deterministiska uttryck.
NON_FOLDABLE_ARGUMENT
Funktionen <funcName> kräver att parametern <paramName> vara ett vikbart uttryck av typen <paramType>, men det faktiska argumentet är inte vikbart.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Om det finns fler än en MATCHED-satser i en MERGE-instruktion kan endast den sista MATCHED-satsen utelämna villkoret.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Om det finns fler än en NOT MATCHED BY SOURCE-satser i en MERGE-instruktion kan endast den sista NOT MATCHED BY SOURCE-satsen utelämna villkoret.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Om det finns fler än en NOT MATCHED [BY TARGET-sats i en MERGE-instruktion kan endast den sista NOT MATCHED [BY TARGET-satsen utelämna villkoret.
NON_LITERAL_PIVOT_VALUES
Literaluttryck som krävs för pivotvärden hittades <expression>.
NON_PARTITION_COLUMN
PARTITION-satsen får inte innehålla kolumnen som inte är partitionerad: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Fönsterfunktionen stöds inte i <windowFunc> (som kolumn <columnName>) på strömmande DataFrames/Datauppsättningar.
Strukturerad direktuppspelning stöder endast aggregering av tidsfönster med hjälp av funktionen WINDOW. (fönsterspecifikation: <windowSpec>)
NOT_ALLOWED_IN_FROM
Tillåts inte i FROM-satsen:
Mer information finns i NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
Tillåts inte i pipe WHERE-satsen:
Mer information finns i NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
Uttrycket <expr> som används för rutinen eller villkoret <name> måste vara en konstant STRING som är NOT NULL.
Mer information finns i NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Åtgärd <operation> tillåts inte för <tableIdentWithDB> eftersom det inte är en partitionerad tabell.
NOT_A_SCALAR_FUNCTION
<functionName> visas som ett skalärt uttryck här, men funktionen definierades som en tabellfunktion. Uppdatera frågan för att flytta funktionsanropet till FROM-satsen eller omdefiniera <functionName> som en skalär funktion i stället.
NOT_A_TABLE_FUNCTION
<functionName> visas som en tabellfunktion här, men funktionen definierades som en skalär funktion. Uppdatera frågan för att flytta funktionsanropet utanför FROM-satsen eller omdefiniera <functionName> som en tabellfunktion i stället.
NOT_NULL_ASSERT_VIOLATION
NULL-värdet visas i ett fält som inte är nullbart: <walkedTypePath>Om schemat härleds från en Scala-tupplar/skiftlägesklass eller en Java-böna kan du försöka använda scala. Alternativ[_] eller andra nullbara typer (till exempel java.lang.Integer i stället för int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
Det är inte tillåtet att tilldela en NULL här.
Mer information finns i NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN stöds inte för att ändra <table>kolumn <originName> med typen <originType> till <newName> med typen <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN stöds inte för att ändra <table><fieldName>s kolumn och dess kapslade fält flera gånger i samma kommando.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> stöds inte för v2-tabeller.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> stöds inte, om du vill aktivera det anger du "spark.sql.catalogImplementation" till "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Kommandot stöds inte i JDBC-katalogen:
Mer information finns i NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> stöds inte på en SQL-<endpoint>.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> stöds inte för serverlös beräkning.
NOT_UNRESOLVED_ENCODER
Den olösta kodaren förväntades, men <attr> hittades.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Det går inte att fastställa standardvärdet för <colName> eftersom det inte är null och inte har något standardvärde.
NO_HANDLER_FOR_UDAF
Ingen hanterare för UDAF '<functionName>'. Använd sparkSession.udf.register(...) i stället.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto måste följas av minst en av "whenMatched"/"whenNotMatched"/"whenNotMatchedBySource".
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: ingen tilldelad
Ingen överordnad extern plats hittades för sökvägen '<path>'. Skapa en extern plats på en av de huvudsakliga sökvägarna och försök köra frågan eller kommandot igen.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Det går inte att hitta <catalystFieldPath> i Protobuf-schemat.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: ingen tilldelad
Det gick inte att hitta någon lagringsplats för tabellen när<tableId> autentiseringsuppgifterna för tabellen genererades. Kontrollera tabelltypen och url:en för tabellplatsen och försök sedan köra frågan eller kommandot igen.
NO_SUCH_CATALOG_EXCEPTION
<catalog>Det gick inte att hitta katalogen . Kontrollera katalognamnet och försök sedan köra frågan eller kommandot igen.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: ingen tilldelad
Det rena rummet "<cleanroom>" finns inte. Kontrollera att namnet på det rena rummet är korrekt stavat och matchar namnet på ett giltigt befintligt rent rum och försök sedan köra frågan eller kommandot igen.
NO_SUCH_CREDENTIAL_EXCEPTION
Referensen '<credential>' finns inte. Kontrollera att namnet på autentiseringsuppgifterna är korrekt stavat och matchar namnet på en giltig befintlig autentiseringsuppgift och försök sedan köra frågan eller kommandot igen.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: ingen tilldelad
Den externa platsen '<externalLocation>' finns inte. Kontrollera att namnet på den externa platsen är korrekt och försök sedan köra frågan eller kommandot igen.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: ingen tilldelad
Metaarkivet hittades inte. Be kontoadministratören att tilldela ett metaarkiv till den aktuella arbetsytan och försök sedan köra frågan eller kommandot igen.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: ingen tilldelad
Delningsleverantören '<providerName>' finns inte. Kontrollera att namnet på resursprovidern är korrekt stavat och matchar namnet på ett giltigt befintligt providernamn och försök sedan köra frågan eller kommandot igen.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: ingen tilldelad
Mottagaren '<recipient>' finns inte. Kontrollera att mottagarnamnet är korrekt stavat och matchar namnet på en giltig befintlig mottagare och försök sedan köra frågan eller kommandot igen.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: ingen tilldelad
Delningen '<share>' finns inte. Kontrollera att resursnamnet är korrekt stavat och matchar namnet på en giltig befintlig resurs och försök sedan köra frågan eller kommandot igen.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: ingen tilldelad
Lagringsautentiseringsuppgifterna<storageCredential> finns inte. Kontrollera att namnet på lagringsautentiseringsuppgifterna är korrekt stavat och matchar namnet på en giltig befintlig lagringsautentiseringsuppgift och försök sedan köra frågan eller kommandot igen.
NO_SUCH_USER_EXCEPTION
SQLSTATE: ingen tilldelad
Användaren '<userName>' finns inte. Kontrollera att den användare som du beviljar behörighet eller ändra ägarskap till är korrekt stavad och matchar namnet på en giltig befintlig användare och försök sedan köra frågan eller kommandot igen.
NO_UDF_INTERFACE
UDF-klassen <className> implementerar inget UDF-gränssnitt.
NULLABLE_COLUMN_OR_FIELD
Kolumnen eller fältet <name> är nullbar men måste vara icke-nullbar.
NULLABLE_ROW_ID_ATTRIBUTES
Rad-ID-attribut kan inte vara null: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
Läs-/skrivalternativ för datakälla <option> kan inte ha null-värde.
NULL_MAP_KEY
Det går inte att använda null som kartnyckel.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Kör omedelbart kräver en variabel som inte är null som frågesträng, men den angivna variabeln <varName> är null.
NULL_VALUE_SIGNAL_STATEMENT
Argument för signaluttryck kräver icke-null-värden, men <argument> har fått ett null-värde.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Värdet <value> kan inte tolkas som ett numeriskt värde eftersom det har fler än 38 siffror.
NUMERIC_VALUE_OUT_OF_RANGE
Mer information finns i NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> kan bara utföras på indata med samma antal kolumner, men den första indatan har <firstNumColumns> kolumner och <invalidOrdinalNum> indata har <invalidNumColumns> kolumner.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Antalet angivna alias matchar inte antalet utdatakolumner.
Funktionsnamn: <funcName>; antal alias: <aliasesNum>; antal utdatakolumner: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Inget anpassat identitetskrav har angetts.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Anrop av funktion <functionName> stöds inte i denna <location>. <supportedFunctions> stöds här.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL-åtgärd <operation> stöds endast på Databricks SQL-anslutningsappar med stöd för Unity Catalog.
OPERATION_CANCELED
Åtgärden har avbrutits.
OPERATION_REQUIRES_UNITY_CATALOG
Åtgärden <operation> kräver att Unity Catalog är aktiverat.
OP_NOT_SUPPORTED_READ_ONLY
<plan> stöds inte i skrivskyddat sessionsläge.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY position <index> inte finns i urvalslistan (giltigt intervall är [1, <size>]).
PARQUET_CONVERSION_FAILURE
Det går inte att skapa en Parquet-konverterare för datatypen <dataType> vars Parquet-typ är <parquetType>.
Mer information finns i PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Illegal typ av Parquet: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Okänd parquettyp: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Parquet-typen stöds inte ännu: <parquetType>.
PARSE_EMPTY_STATEMENT
Syntaxfel, oväntad tom instruktion.
PARSE_MODE_UNSUPPORTED
Funktionen <funcName> stöder inte <mode> läget. Godkända lägen är PERMISSIVE och FAILFAST.
PARSE_SYNTAX_ERROR
Syntaxfel vid eller nära <error> <hint>.
PARTITIONS_ALREADY_EXIST
Det går inte att lägga till eller RENAME till partitioner <partitionList> i tabell <tableName> eftersom de redan finns.
Välj ett annat namn, släpp den befintliga partitionen eller lägg till IF NOT EXISTS-satsen för att tolerera en befintlig partition.
PARTITIONS_NOT_FOUND
Det går inte att hitta partitionerna <partitionList> i tabellen <tableName>.
Kontrollera partitionsspecifikationen och tabellnamnet.
Så här tolererar du felet vid nedsläpp, använd ALTER TABLE ...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Det gick inte att hitta partitionskolumnen <column> i schemat <schema>. Ange den befintliga kolumnen för partitionering.
PARTITION_LOCATION_ALREADY_EXISTS
Partitionsplatsen <locationPath> finns redan i tabellen <tableName>.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Det gick inte att köra ALTER TABLE SET PARTITION LOCATION-instruktionen eftersom
Partitionsplats <location> är inte under tabellkatalogen <table>.
Du åtgärdar det genom att ange platsen för partitionen till en underkatalog för <table>.
PARTITION_METADATA
<action> tillåts inte i tabellen <tableName> eftersom lagring av partitionsmetadata inte stöds i Unity Catalog.
PARTITION_NUMBER_MISMATCH
Antalet värden (<partitionNumber>) matchade inte schemastorleken (<partitionSchemaSize>): värdena är <partitionValues>, schemat är <partitionSchema>, filsökvägen är <urlEncodedPath>.
Materialisera tabellen igen eller kontakta ägaren.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
Uttrycket <expression> måste finnas i "partitionedBy".
PATH_ALREADY_EXISTS
Sökväg <outputPath> finns redan. Ange läget som "skriv över" för att skriva över den befintliga sökvägen.
PATH_NOT_FOUND
Sökvägen finns inte: <path>.
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
För att kunna deserialisera Photon protobuf-planen krävs minst <size> byte, vilket överskrider
gränsen på <limit> byte. Detta kan bero på en mycket stor plan eller förekomsten av något mycket stort.
brett datamodell. Försök att förenkla frågan, ta bort onödiga kolumner eller inaktivera Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Den serialiserade Photon protobuf-planen har en storlek på <size> bytes, vilket överskrider gränsen för
<limit> byte. Den serialiserade storleken på datatyper i planen är <dataTypeSize> byte.
Detta kan bero på en mycket stor plan eller förekomsten av ett mycket brett schema.
Överväg att skriva om frågan för att ta bort oönskade åtgärder och kolumner eller inaktivera Photon.
PIPELINE_DATASET_UTAN_FLÖDE
Pipelinedatauppsättningen <identifier> har inga definierade flöden. Bifoga en fråga med datauppsättningens definition eller definiera uttryckligen minst ett flöde som skriver till datauppsättningen.
PIPELINE_DOES_NOT_EXIST
Pipelinen "<pipelineId>" finns inte
Mer information finns i PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
En duplicerad identifierare hittades för element som registrerats i pipelinens dataflödesdiagram.
Mer information finns i PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Icke-grupperingsuttryck <expr> tillhandahålls som ett argument till operatorn |>AGGREGATE pipe men innehåller ingen mängdfunktion. Uppdatera den så att den innehåller en mängdfunktion och försök sedan köra frågan igen.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Aggregeringsfunktionen <expr> tillåts inte när du använder pipeoperatorn |><clause> -satsen. Använd pipeoperatorn |>AGGREGATE -satsen i stället.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ogiltigt pivotvärde<value>: värdedatatypen <valueType> matchar inte datatypen <pivotType>pivottabellkolumn .
POINTER_ARRAY_OUT_OF_MEMORY
Det finns inte tillräckligt med minne för att utöka pekarmatrisen
POLICY_ALREADY_EXISTS
Det går inte att skapa en princip <policyName> eftersom den redan finns.
Välj ett annat namn eller släpp den befintliga principen för att tolerera befintliga anslutningar.
POLICY_NOT_FOUND
Det går inte att köra <commandType> kommandot eftersom det inte går att hitta principen <policyName> på <securableFullname> .
Kontrollera stavning och korrekthet.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Det går inte att skapa en policy för skyddsbar typ <securableType>. Skyddsbara typer som stöds: <allowedTypes>.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Proceduren <procedureName> förväntar sig <expected> argument, men <actual> angavs.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE med en tom rutindefinition tillåts inte.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Parametern <parameterName> definieras med parameterläget <parameterMode>.
OUT och INOUT parametern kan inte utelämnas när du anropar en rutin och stöder därför inte ett DEFAULT uttryck. Om du vill fortsätta tar du bort DEFAULT-satsen eller ändrar parameterläget till IN.
PROCEDURE_NOT_SUPPORTED
Lagrad procedur stöds inte
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Lagrad procedur stöds inte med Hive Metastore. Använd Unity Catalog i stället.
PROTOBUF_DEPENDENCY_NOT_FOUND
Det gick inte att hitta beroende: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Det gick inte att läsa Protobuf-beskrivningsfilen på sökvägen: <filePath>.
PROTOBUF_FIELD_MISSING
Sökning efter <field> i Protobuf-schemat på <protobufSchema> gav <matchSize> matchningar. Kandidater: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Hittade <field> i Protobuf-schemat men det finns ingen matchning i SQL-schemat.
PROTOBUF_FIELD_TYPE_MISMATCH
Typkonflikt påträffades för fältet: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-klasser stöds inte för <protobufFunction>. Kontakta Databricks Support om alternativa alternativ.
PROTOBUF_MESSAGE_NOT_FOUND
Det går inte att hitta meddelande <messageName> i beskrivningen.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Det går inte att anropa funktionen <functionName> SQL eftersom Protobuf-datakällan inte har lästs in.
Starta om jobbet eller sessionen med spark-protobuf-paketet inläst, till exempel genom att använda argumentet --packages på kommandoraden och försök sedan köra frågan eller kommandot igen.
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf-typen stöds inte ännu: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
Det går inte att göra ett nytt försök med uppgiften i pubsub-hämtstadiet. Partition <partitionInfo> i steg <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> får inte vara en tom sträng.
PS_INVALID_KEY_TYPE
Ogiltig nyckeltyp för PubSub dedup: <key>.
PS_INVALID_OPTION
Alternativet <key> stöds inte av PubSub. Det kan bara användas vid testning.
PS_INVALID_OPTION_TYPE
Ogiltig typ för <key>. Förväntad typ av <key> vara typ <type>.
PS_INVALID_READ_LIMIT
Ogiltig läsgräns för PubSub-ström: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Ogiltig UnsafeRow att dekoda till PubSubMessageMetadata, det önskade proto-schemat är: <protoSchema>. Indatan UnsafeRow kan vara skadad: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Frågan eller kommandot misslyckades på grund av ett ogiltigt läsalternativ: i spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Uppdatera <audience> för att matcha följande format: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} och försök sedan köra frågan eller kommandot igen.
PS_MISSING_AUTH_INFO
Det gick inte att hitta fullständig PubSub-autentiseringsinformation.
PS_MISSING_REQUIRED_OPTION
Det gick inte att hitta det obligatoriska alternativet: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Det gick inte att flytta rådatakontrollpunktsfiler från <src> till målkatalogen: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Ange antingen databricks-tjänstens autentiseringsuppgifter eller dina autentiseringsuppgifter för GCP-tjänstkontot.
PS_MULTIPLE_FAILED_EPOCHS
PubSub-strömmen kan inte startas eftersom det finns fler än en misslyckad hämtning: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> måste ligga inom följande gränser (<min>, <max>) uteslutande för båda gränserna.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Delade kluster stöder inte autentisering med instansprofiler. Ange autentiseringsuppgifter till strömmen direkt med hjälp av .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub-källanslutningsappen är endast tillgänglig i kluster med spark.speculation inaktiverad.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Ett fel uppstod vid försök att skapa en prenumeration <subId> i ämnet <topicId>. Kontrollera att det finns tillräckliga behörigheter för att skapa en prenumeration och försök igen.
PS_UNABLE_TO_PARSE_PROTO
Det går inte att parsa serialiserade byte för att generera proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset stöds inte utan att ange en gräns.
PYTHON_DATA_SOURCE_ERROR
Det gick inte att <action> Python-datakällan <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Misslyckades när den Python-strömmande datakällan exekverade <action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Det går inte att komma åt den refererade tabellen eftersom en tidigare tilldelad kolumnmask för närvarande inte är kompatibel med tabellschemat. om du vill fortsätta kontaktar du tabellens ägare för att uppdatera principen:
Mer information finns i QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Det går inte att komma åt den refererade tabellen eftersom en tidigare tilldelad säkerhetsprincip på radnivå för närvarande inte är kompatibel med tabellschemat. om du vill fortsätta kontaktar du tabellens ägare för att uppdatera principen:
Mer information finns i QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Frågekörningen avbröts på grund av överskriden tidsgräns (<timeoutSec>s). Du kan öka gränsen i sekunder genom att ange <config>.
QUERY_REJECTED
Frågekörningen avvisades.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
Den interna lagringskonfigurationen för arbetsytan hindrar Databricks från att komma åt molnlagringen.
READ_CURRENT_FILE_NOT_FOUND
<message>
Det är möjligt att de underliggande filerna har uppdaterats. Du kan uttryckligen ogiltigförklara cachen i Spark genom att köra kommandot tableNameREFRESH TABLE i SQL eller genom att återskapa datauppsättningen/dataramen.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Funktionens anrop <functionName> har <parameterName> och <alternativeName>, vilka är alias för varandra. Ange bara en av dem.
READ_FILES_CREDENTIALS_PARSE_ERROR
Ett fel uppstod vid parsning av tillfälliga autentiseringsuppgifter för funktionen read_files().
Mer information finns i READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Funktionen <functionName> den obligatoriska parameter <parameterName> måste tilldelas position <expectedPos> utan namn.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Endast TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ typer stöds för mottagarens förfallotidsstämpel.
RECURSION_LEVEL_LIMIT_EXCEEDED
Rekursionsgränsen <levelLimit> har nåtts men frågan har inte avslutats, försök att öka den som 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.
RECURSION_ROW_LIMIT_EXCEEDED
Gränsen för rekursionsrad <rowLimit> har nåtts men frågan har inte tagit slut. Försök att ange ett större LIMIT värde när du kör frågor mot CTE-relationen.
RECURSIVE_CTE_IN_LEGACY_MODE
Rekursiva definitioner kan inte användas i äldre CTE-prioritetsläge (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Rekursiva definitioner kan inte användas när legacy inline-flaggan är inställd på true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Hittade rekursiv referens i Protobuf-schema, som inte kan bearbetas av Spark som standard: <fieldDescriptor>. prova att ange alternativet recursive.fields.max.depth 1 till 10. Att gå längre än 10 nivåer av rekursion är inte tillåtet.
RECURSIVE_VIEW
Rekursiv vy <viewIdent> identifierad (cykel: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referenser till DEFAULT kolumnvärden tillåts inte i PARTITION-satsen.
RELATION_LARGER_THAN_8G
Det går inte att skapa en <relationName> som är större än 8 G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Http-fjärrbegäran misslyckades med kod <errorCode>och felmeddelande <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Det gick inte att utvärdera funktionen <functionName> SQL på grund av att det inte gick att parsa JSON-resultatet från HTTP-fjärrsvaret. felmeddelandet är <errorMessage>. Kontrollera API-dokumentationen: <docUrl>. Åtgärda problemet som anges i felmeddelandet och försök igen.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Det gick inte att utvärdera funktionen <functionName> SQL på grund av att det inte gick att bearbeta det oväntade HTTP-fjärrsvaret. felmeddelandet är <errorMessage>. Kontrollera API-dokumentationen: <docUrl>. Åtgärda problemet som anges i felmeddelandet och försök igen.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Fjärrbegäran misslyckades efter omförsök <N> gånger. den senaste misslyckade HTTP-felkoden var <errorCode> och meddelandet <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Det gick inte att utvärdera funktionen <functionName> SQL eftersom <errorMessage>. Kontrollera kraven i <docUrl>. Åtgärda problemet som anges i felmeddelandet och försök igen.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
Parametrar <parameterNames> stöds inte för funktionen remote_query, som frågar efter en anslutning av typen "<connectionType>".
Mer information finns under REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
Det gick inte att byta namn eftersom <sourcePath> inte hittades.
REPEATED_CLAUSE
Satsen <clause> kan användas högst en gång per <operation> åtgärd.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Den obligatoriska parametern <routineName> i rutin <parameterName> har tilldelats till position <positionalIndex> utan namn.
Uppdatera funktionsanropet för att antingen ta bort det namngivna argumentet med <parameterName> för denna parameter eller ta bort det positionella argumentet.
argumentet vid <positionalIndex> och försök sedan förfrågan igen.
REQUIRED_PARAMETER_NOT_FOUND
Det går inte att anropa rutinmässiga <routineName> eftersom parametern med namnet <parameterName> krävs, men rutinanropet angav inget värde. Uppdatera rutinanropet för att ange ett argumentvärde (antingen positionellt vid index <index> eller efter namn) och försök igen.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> kräver ett namnområde i en del, men fick <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Alternativet "rescuedDataColumn" i DataFrame API är ömsesidigt uteslutande med alternativet "singleVariantColumn" i samma API.
Ta bort en av dem och försök sedan utföra DataFrame-åtgärden igen.
RESERVED_CDC_COLUMNS_ON_WRITE
Skrivningen innehåller reserverade kolumner <columnList> som används.
internt som metadata för Ändringsdataflöde. För att skriva till tabellen antingen byt namn på den eller ta bort den
dessa kolumner eller inaktivera Ändra Dataflöde i tabellen genom att ställa in
<config> till falsk.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Alternativet <option> har begränsade värden på delade kluster för den <source> källan.
Mer information finns i RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Det går inte att skapa <newRoutineType> <routineName> eftersom det redan finns en <existingRoutineType> med det namnet.
Välj ett annat namn, släpp eller ersätt den befintliga <existingRoutineType>eller lägg till IF NOT EXISTS-satsen för att tolerera en befintlig <newRoutineType>.
ROUTINE_NOT_FOUND
Det går inte att hitta rutinen <routineName>. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte har specificerat namnet med ett schema och en katalog, kontrollera utdata för current_schema() eller specificera namnet med rätt schema och katalog.
För att tolerera felet vid användning av släpp, använd DROP ... IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
Rutinen <routineName> stöder inte parametern <parameterName> som anges vid position <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Det går inte att skapa funktionen <routineName> eftersom det angivna klassnamnet är<className> reserverat för systemanvändning. Byt namn på klassen och försök igen.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Det gick inte att matcha radfilter på <tableName> eftersom det uppstod ett matchningsfel mellan radfilter som ärvts från principer och uttryckligen definierade radfilter. Om du vill fortsätta inaktiverar du Attributbaserad åtkomstkontroll (ABAC) och kontaktar Databricks-supporten.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Det stöds inte att skapa CHECK begränsning för tabell <tableName> med säkerhetsprinciper på radnivå.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Det går inte att matcha en kolumn med ett namn <objectName> som refereras till i ett radfilter eller en kolumnmaskfunktionsparameter.
Detta kan inträffa om det underliggande tabellschemat har ändrats och den refererade kolumnen inte längre finns.
Detta kan till exempel inträffa om kolumnen har tagits bort i ett externt system (till exempel en federerad tabell) eller om en REPLACE åtgärd i tabellen har släppt kolumnen.
För att lösa detta kan användare med hanteringsbehörigheter i tabellen inspektera de aktuella radfiltren och kolumnmaskerna med hjälp av DESCRIBE TABLE EXTENDEDoch släppa eller återskapa alla referenskolumner som inte finns med hjälp av ... ALTER TABLESET/DROP RAD FILTER eller MASK.
Obs! Databricks introducerade en säkerhetsförbättring för att bevara kolumnmasker under REPLACE åtgärder när det nya schemat innehåller samma kolumn, även om masken inte har angetts. Detta förhindrar oavsiktliga principförluster i tabeller.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
En <statementType>-instruktion försökte tilldela en säkerhetsprincip på radnivå till en tabell, men två eller flera refererade kolumner hade samma namn <columnName>, vilket är ogiltigt.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Säkerhetsprinciper på radnivå för <tableName> stöds inte:
Mer information finns i ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Det går inte att <statementType> <columnName> ta bort från tabellen <tableName> eftersom den refereras till i en säkerhetspolicy på radenivå. Tabellägaren måste ta bort eller ändra den här policyn innan de fortsätter.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO operationer stöder inte säkerhetspolicyer på radnivå i källtabellen <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO operationer stödjer inte skrivande till tabell <tableName> med säkerhetspolicyer på radnivå.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Den här instruktionen försökte tilldela en säkerhetspolicy på radnivå till en tabell, men kolumnen <columnName>, som nämndes, hade flera namndelar, vilket är ogiltigt.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Säkerhetsprinciper på radnivå stöds endast i Unity Catalog.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS-kommandot stöds inte för<format> tabeller med säkerhetsprincip på radnivå.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode> kopiera från tabell <tableName> med säkerhetspolicy på radnivå stöds inte.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Det stöds inte att klona <mode> till tabell <tableName> med säkerhetspolicy på radnivå.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Det går inte att använda en konstant som en parameter i en säkerhetsprincip på radnivå. Uppdatera SQL-kommandot för att ta bort konstanten från radfilterdefinitionen och försök sedan kommandot igen.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Funktionen <functionName> som används för säkerhetsprincip på radnivå har en parameter med en otillåten datatyp <dataType>.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Det gick inte att köra <statementType> kommandot eftersom det inte går att tilldela en säkerhetsprincip på radnivå för måldatakällan med tabellprovidern : "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Fler än en rad returnerades av en underfråga som används som en rad.
ROW_VALUE_IS_NULL
Hittade NULL på en rad i indexet <index>, förväntade sig ett värde som inte varNULL.
RULE_ID_NOT_FOUND
Det går inte att hitta ett ID för regelnamnet .<ruleName> Ändra RuleIdCollection.scala om du lägger till en ny regel.
RUN_EMPTY_PIPELINE
Pipelines förväntas ha minst en icke-tillfällig datauppsättning definierad (tabeller, bevarade vyer) men inga icke-tillfälliga datauppsättningar hittades i pipelinen.
Kontrollera att du har inkluderat de förväntade källfilerna och att källkoden innehåller tabelldefinitioner (till exempel i SQL-kod CREATE MATERIALIZED VIEW , @sdp.table i Python-kod).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Auktoriseringen till Salesforce Data Share-API:et misslyckades. Säkerställ att Databricks-anslutningsinformationen har angetts till lämpligt Salesforce-datadelningsmål.
SAMPLE_TABLE_PERMISSIONS
Behörigheter som inte stöds för exempeldatabaser/tabeller.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> åsidosätter inte metoden "produceResult(InternalRow)" med anpassad implementering.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> implementerar eller åsidosätter inte metoden "produceResult(InternalRow)".
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Den korrelerade skalära underfrågan "<sqlExpr>" finns varken i GROUP BYeller i en aggregerad funktion.
Lägg till den i GROUP BY med ordningsposition eller omslut det med first() (eller first_value) om du inte bryr dig om vilket värde du får.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mer än en rad som returneras av en underfråga som används som ett uttryck.
SCDS_INVALID_OPTION_VALUE
Ogiltigt värde för källalternativ=<optionName> med errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
Förskjutningsloggen för batchId=<batchId> existerar inte vid kontrollpunktsläge=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Det gick inte att ange obligatoriskt alternativ=<optionName>.
SCHEDULE_ALREADY_EXISTS
Det går inte att lägga till <scheduleType> i en tabell som redan har <existingScheduleType>. Ta bort det befintliga schemat eller använd ALTER TABLE ... ... ALTER <scheduleType> för att ändra den.
SCHEDULE_PERIOD_INVALID
Schemaperioden för <timeUnit> måste vara ett heltalsvärde mellan 1 och <upperBound> (inklusive). Mottaget: <actual>.
SCHEMA_ALREADY_EXISTS
Det går inte att skapa schema <schemaName> eftersom det redan finns.
Välj ett annat namn, släpp det befintliga schemat eller lägg till IF NOT EXISTS-satsen för att tolerera befintligt schema.
SCHEMA_NOT_EMPTY
Det går inte att släppa ett schema <schemaName> eftersom det innehåller objekt.
Använd DROP SCHEMA ... CASCADE för att släppa schemat och alla dess objekt.
SCHEMA_NOT_FOUND
Det går inte att hitta schemat <schemaName>. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte kvalificerade namnet med en katalog, kontrollera utdata från current_schema() eller kvalificera namnet med rätt katalog.
För att tolerera felet vid släpp använd DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Det gick inte att initiera schemat från schemaregistret.
<reason>.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Det andra argumentet för funktionen <functionName> måste vara ett heltal.
SECRET_FUNCTION_INVALID_LOCATION
Det går inte att köra <commandType>-kommandot med en eller flera icke-krypterade referenser till funktionen SECRET. kryptera resultatet av varje sådant funktionsanrop med AES_ENCRYPT och försök igen
SECURABLE_DOES_NOT_EXIST
<securable> finns inte.
SEED_EXPRESSION_IS_UNFOLDABLE
Seed-uttrycket <seedExpr> för uttrycket <exprWithSeed> måste vara vikbart.
SERVER_IS_BUSY
Servern är upptagen och kunde inte hantera begäran. Vänta en stund och försök igen.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
SFTP-servern <host>:<port> använder den inaktuella SSH RSA-algoritmen för nyckelutbyte.
Överväg att uppgradera SFTP-servern för att använda en säkrare algoritm, till exempel ECDSA eller ED25519.
Du kan också kringgå det här felet genom att ange <escapeHatchConf> true
SFTP_UNABLE_TO_CONNECT
Det gick inte att ansluta till SFTP-servern <host> på porten <port> med användarnamnet <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
Värdnyckeln för SFTP-servern <host> är okänd eller ändrad.
Kontrollera felmeddelandet för matchning av SSH-fingeravtryck nedan under anslutningsförsöket:
<error>
Extrahera sedan fingeravtryckshash och ange den som en del av alternativen för att skapa anslutningen med alternativnamnet key_fingerprint.
Om meddelandet till exempel anger "ECDSA nyckelavtryck är SHA256:XXX/YYY" skickar du "SHA256:XXX/YYY" som en del av anslutningsalternativen.
SFTP_USER_DOES_NOT_MATCH
Användaren som hämtats från autentiseringsuppgifterna <credentialUser> matchar inte den som anges i SFTP-sökvägen <path>.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS med motstridiga namnområden: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Valideringen av alternativen för Snowflake-datakällan misslyckades.
Mer information finns under SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy måste användas tillsammans med bucketBy.
SPARK_JOB_CANCELLED
Jobbet <jobId> avbröts <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
En CREATE TABLE utan explicit kolumnlista kan inte ange bucketing-information.
Använd formuläret med en explicit kolumnlista och ange information om gruppering.
Du kan också tillåta att bucketing information härleds genom att utelämna villkoret.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Det går inte att ange både CLUSTER BY och CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Det går inte att ange både CLUSTER BY och PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
En CREATE TABLE utan explicit kolumnlista kan inte ange PARTITIONED BY.
Använd formuläret med explicit kolumnlista och ange PARTITIONED BY.
Du kan också tillåta att partitionering härleds genom att utelämna PARTITION BY-satsen.
SPILL_OUT_OF_MEMORY
Fel vid anrop av spill() på <consumerToSpill> : <message>
SQL_CONF_NOT_FOUND
Det går inte att hitta SQL-konfigurationen <sqlConf>. Kontrollera att konfigurationen finns.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
SQL-skript i EXECUTE IMMEDIATE kommandon tillåts inte. Kontrollera att SQL-frågan som tillhandahålls (<sqlString>) inte är SQL-skript. Kontrollera att sql_string är en välformulerad SQL-instruktion och inte innehåller BEGIN och END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
Maximalt antal tecken i ett SQL-skript (id: <scriptId>) har överskridits. Det maximala antalet tecken som tillåts är <maxChars>, och skriptet hade <chars> tecken.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
Maximalt antal rader i ett SQL-skript (ID: <scriptId>) har överskridits. Det maximala antalet tillåtna rader är <maxLines>, och skriptet hade <lines> rader.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
Maximalt antal lokala variabeldeklarationer i ett SQL-skript (ID: <scriptId>) har överskridits. Det maximala antalet tillåtna deklarationer är <maxDeclarations>, och skriptet hade <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Maximalt antal kapslade proceduranrop har överskridits för proceduren (namn: <procedureName>, anrops-ID: <procedureCallId>). Det maximala tillåtna antalet kapslade proceduranrop är <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Tillfälligt fel vid åtkomst till mål mellanlagringssökväg <path>, försök igen om några minuter
STAR_GROUP_BY_POS
Stjärna (*) är inte tillåten i en urvalslista när GROUP BY används som en ordningsposition.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Det gick inte att utföra tillståndskänslig processoråtgärd=<operationType> med ogiltigt referenstillstånd=<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Det gick inte att utföra tillståndskänslig processoråtgärd=<operationType> med ogiltig timeMode=<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Tillståndsvariabeln med namnet <stateVarName> har redan definierats i StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Det går inte att använda TTL för state=<stateName> i timeMode=<timeMode>, använd TimeMode.ProcessingTime() i stället.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
TTL-varaktigheten måste vara större än noll för state store-åtgärden=<operationType> på state=<stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Okänt tidsläge <timeMode>. Godkända timeMode-lägen är "none", "processingTime", "eventTime"
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Det gick inte att skapa kolumnfamiljen på grund av ett starttecken som inte stöds och namnet=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Det gick inte att utföra åtgärden för kolumnfamilj=<operationName> med ett ogiltigt namn=<colFamilyName>. Kolumnfamiljenamnet får inte vara tomt eller innehålla inledande/avslutande blanksteg eller använda det reserverade nyckelordet=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Inkompatibel schematransformering med kolumnfamilj=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore-<inputClass> stöder inte återanvändbar iterator.
STATE_STORE_HANDLE_NOT_INITIALIZED
Handtaget har inte initialiserats för den här tillståndsprocessorn.
Använd endast StatefulProcessor i transformWithState-operatorn.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Felaktigt antal ordningstal=<numOrderingCols> för intervallgenomsökningskodare. Antalet ordningstal får inte vara noll eller större än antalet schemakolumner.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Felaktigt antal prefixkolumner=<numPrefixCols> för prefixgenomsökningskodare. Prefixkolumner får inte vara noll eller större än eller lika med ett antal schemakolumner.
STATE_STORE_INVALID_AVRO_SCHEMA
Ett ogiltigt schema för Avro-kodning har identifierats.
Mer information finns i STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Det går inte att ändra <configName> från <oldConfig> till <newConfig> mellan omstarter. Ange <configName> till <oldConfig>eller starta om med en ny kontrollpunktskatalog.
STATE_STORE_INVALID_PROVIDER
Den angivna State Store Provider <inputClass> utökar inte org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Det går inte att ändra <stateVarName> till <newType> mellan omstarter av frågor. Ange <stateVarName> till <oldType>eller starta om med en ny kontrollpunktskatalog.
STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE
Det angivna nyckelschemat matchar inte det befintliga schemat i operatortillstånd.
Befintligt schema=<storedKeySchema>; angivet schema=<newKeySchema>.
Om du vill köra frågan utan schemaverifiering anger du spark.sql.streaming.stateStore.stateSchemaCheck till false.
Observera att att köra utan schemavalidering kan ha icke-deterministiskt beteende.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
När du öppnar RocksDB-tillståndsarkivet för tillståndskänslig strömningsåtgärd uppnåddes tidsgränsen för att anropa den inbyggda RocksDB-funktionen <funcName> efter väntetiden=<timeoutMs> ms. Försök igen och starta om klustret om felet kvarstår.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Kolumn för null-typordning med namn=<fieldName> och index=<index> stöds inte för encoder av intervallskanning.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Den angivna state store-providern <inputClass> utökar inte org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Därför stöder den inte alternativet snapshotStartBatchId eller readChangeFeed i tillståndsdatakällan.
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
Antalet tillståndsschemafiler <numStateSchemaFiles> överskrider det maximala antalet tillståndsschemafiler för den här frågan: <maxStateSchemaFiles>.
Tillagd: <addedColumnFamilies>, borttagen: <removedColumnFamilies>
Ange "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" till ett högre tal eller återställ tillståndsschemaändringar
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Åtgärd för tillståndslagring=<operationType> stöds inte på grund av saknad kolumnfamilj=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
Antalet tillståndsschemautvecklingar <numSchemaEvolutions> överskrider det maximala antalet tillståndsschemautvecklingar, <maxSchemaEvolutions>, som tillåts för den här kolumnfamiljen.
Felaktig kolumnfamilj: <colFamilyName>
Ange "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" till ett högre tal eller återställ tillståndsschemaändringar
TILLSTÅNDSLAGERVÄRDESKEMA_INTE_KOMPATIBEL
Det angivna värdeschemat matchar inte det befintliga schemat i operatortillstånd.
Befintligt schema=<storedValueSchema>; angivet schema=<newValueSchema>.
Om du vill köra frågan utan schemaverifiering anger du spark.sql.streaming.stateStore.stateSchemaCheck till false.
Observera att att köra utan schemavalidering kan ha icke-deterministiskt beteende.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Kolumn med variabel storleksordning, namn=<fieldName>, vid index=<index> stöds inte för kodare för intervallgenomsökning.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Statisk partitionskolumn <staticName> anges också i kolumnlistan.
STDS_COMMITTED_BATCH_UNAVAILABLE
Ingen bekräftad batch hittades, kontrollpunktsplats: <checkpointLocation>. Kontrollera att frågan har körts och att alla mikrobatch har committerats innan den stoppas.
STDS_CONFLICT_OPTIONS
Alternativen <options> kan inte anges tillsammans. Ange den.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Det gick inte att läsa operatormetadata för checkpointLocation=<checkpointLocation> och batchId=<batchId>.
Antingen finns inte filen eller så är filen skadad.
Kör direktuppspelningsfrågan igen för att konstruera operatormetadata och rapportera till motsvarande communities eller leverantörer om felet kvarstår.
STDS_FAILED_TO_READ_STATE_SCHEMA
Det gick inte att läsa statuschemat. Antingen finns inte filen eller så är filen skadad. alternativ: <sourceOptions>.
Kör direktuppspelningsfrågan igen för att konstruera tillståndsschemat och rapportera till motsvarande communities eller leverantörer om felet kvarstår.
STDS_INVALID_OPTION_VALUE
Ogiltigt värde för källalternativet :<optionName>:
Mer information finns i STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Staten har ingen partition. Kontrollera att frågan pekar på ett giltigt tillstånd. alternativ: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Förskjutningsloggen för <batchId> finns inte, kontrollpunktsplats: <checkpointLocation>.
Ange det batch-ID som är tillgängligt för frågor – du kan fråga de tillgängliga batch-ID:erna via datakällan för tillståndsmetadata.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metadata är inte tillgänglig för offsetloggen för <batchId>, kontrollpunktsläge: <checkpointLocation>.
Kontrollpunkten verkar bara köras med äldre Spark-versioner. Kör strömningsfrågan med den senaste Spark-versionen, så att Spark skapar tillståndsmetadata.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' måste anges.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Adaptiv frågekörning stöds inte för tillståndskänsliga operatorer i Strukturerad direktuppspelning.
STREAMING_CHECKPOINT_METADATA_ERROR
Fel med kontrollpunktsmetadata för direktuppspelning.
Mer information finns i STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Fel vid återspolning av kontrollpunkt för direktuppspelning.
Mer information finns i STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Det går inte att strömma från materialiserad vy <viewName>. Direktuppspelning från materialiserade vyer stöds inte.
STREAMING_OUTPUT_MODE
Ogiltigt utdataläge för direktuppspelning: <outputMode>.
Mer information finns i STREAMING_OUTPUT_MODE
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Förvänta dig version med förskjutning av frekvenskälla <expectedVersion>, men erhöll version <actualVersion>. Om du vill fortsätta anger du alternativet "version" till <expectedVersion> i alternativen för frekvenskälla. Till exempel spark.readStream.format("rate").option("version", "<expectedVersion>").
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED (Ändring av partiionsnummer för streaminghastighetskälla inte stöds)
Antalet partitioner (<prevNum>) som användes i tidigare mikrobatch skiljer sig från det aktuella antalet partitioner (<currNum>). Det kan finnas två möjliga orsaker:
Alternativet "numPartitions" för hastighetskällan ändras under omstarten av frågan.
Klustrets storlek kan ändras under omstarten av frågan.
Ange uttryckligen alternativet "numPartitions" till <prevNum> för hastighetskällan för att åtgärda problemet.
STRÖMNINGSHASTIGHET_KÄLLA_V2_UPPSTARTSTID_EJ_STÖDS
Alternativet "rampUpTime" stöds inte av hastighetsversion 2. Om du vill använda det här alternativet anger du alternativet "version" till 1. Till exempel spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
Realtidsläget för direktuppspelning har följande begränsning:
Mer information finns i STREAMING_REAL_TIME_MODE
STREAMING_REAL_TIME_WATERMARK_PROPAGATION
Direktuppspelning av vattenstämpelspridning i realtid har följande begränsning:
Mer information finns i STREAMING_REAL_TIME_WATERMARK_PROPAGATION
STREAMING_SINK_DELIVERY_MODE
Ogiltigt leveransläge för mottagare för direktuppspelning: <deliveryMode>.
Mer information finns i STREAMING_SINK_DELIVERY_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Operatornamnet för tillståndsströmningsoperatören matchar inte med operatorn i tillståndsmetadatan. Detta kan inträffa när användaren lägger till, tar bort eller ändrar en tillståndsberoende operator för en befintlig strömmande fråga.
Tillståndskänsliga operatorer i metadata: [<OpsInMetadataSeq>]; Tillståndskänsliga operatorer i den aktuella batchen: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
Strömningstabellen <tableName> måste uppdateras för att köra <operation>.
Om tabellen skapas från DBSQLkör du REFRESH STREAMING TABLE.
Om tabellen skapas av en pipeline i DLL-filer kör du en pipelineuppdatering.
STREAMING_TABLE_NOT_SUPPORTED
strömmande tabeller kan bara skapas och uppdateras i DLL och Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Åtgärden <operation> tillåts inte:
Mer information finns i STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
strömmande tabell <tableName> kan bara skapas från en strömmande fråga. Lägg till nyckelordet STREAM i din FROM-sats för att omvandla den här relationen till en direktuppspelningsfråga.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis-strömmen <streamName> i <region> hittades inte.
Starta en ny fråga som pekar på rätt strömnamn.
STRUCT_ARRAY_LENGTH_MISMATCH
Indataraden har inte förväntat antal värden som krävs av schemat.
<expected> fält krävs medan <actual> värden anges.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Summan av LIMIT-satsen och OFFSET-satsen får inte vara större än det maximala 32-bitars heltalsvärdet (2 147 483 647), men den hittade gränsen = <limit>, offset = <offset>.
SYNC_METADATA_DELTA_ONLY
Kommandot Reparera metadata för tabellsynkronisering stöds endast för deltatabellen.
SYNC_SRC_TARGET_TBL_NOT_SAME
Källtabellens namn <srcTable> måste vara samma som måltabellnamnet <destTable>.
SYNTAX_DISCONTINUED
Stöd för satsen eller nyckelordet: <clause> har upphört i denna kontext.
Mer information finns i SYNTAX_DISCONTINUED
TABELL_ARGUMENT_INTE_TILLÅTNA
TABLE parametrar stöds inte i <routineType>.
TABLE_OR_VIEW_ALREADY_EXISTS
Det går inte att skapa en tabell eller vy <relationName> eftersom den redan finns.
Välj ett annat namn, släpp det befintliga objektet, lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt, lägg till OR-REPLACE-satsen för att ersätta den befintliga materialiserade vyn eller lägg till satsen OR REFRESH för att uppdatera den befintliga strömningstabellen.
TABLE_OR_VIEW_NOT_FOUND
Det går inte att hitta tabellen eller vyn <relationName>. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte har kvalificerat namnet med ett schema, kontrollera current_schema() utdata eller kvalificera namnet med rätt schema och katalog.
Om du vill tolerera felet vid släppanvändning DROP VIEW IF EXISTS eller DROP TABLE IF EXISTS.
Mer information finns i TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Det går inte att <action> användardefinierad SQL-funktion <functionName> med TABLE argument eftersom denna funktion ännu inte har implementerats.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Det gick inte att analysera den användardefinierade tabellfunktionen i Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Kunde inte utvärdera tabellfunktionen <functionName> eftersom dess tabellmetadata är <requestedMetadata>, medan funktionsanropet är <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Det gick inte att utvärdera tabellfunktionen <functionName> eftersom dess tabellmetadata var ogiltiga. <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Det finns för många tabellargument för tabellvärdesfunktionen.
Det tillåter ett tabellargument, men fick: <num>.
Om du vill möjliggöra detta, anger du "spark.sql.allowMultipleTableArguments.enabled" till "true"
TABLE_WITH_ID_NOT_FOUND
Det går inte att hitta tabellen med ID:t <tableId>. Kontrollera att UUID är korrekt.
TASK_WRITE_FAILED
Aktiviteten misslyckades när rader skrevs till <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Implicita tillfälliga kontrollpunkter för strömning stöds inte i den aktuella arbetsytan. Ange uttryckligen en kontrollpunktsplats.
För display() anger du kontrollpunktsplatsen med hjälp av:
display(df, checkpointLocation = "din_sökväg")
För alla andra strömningsfrågor använder du:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE ... SOM... stöds inte här, använd CREATE TEMPORARY VIEW i stället
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE stöder inte att du anger <unsupportedSpec>; vänligen skapa en permanent tabell istället.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
För att skapa en sessionslokal tillfällig tabell krävs ett enskilt tabellnamn, men det finns <tableName>. Uppdatera kommandot för att använda ett enkelt tabellnamn och försök en gång till.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE stöder inte att specificera <unsupportedSpec>, ta bort den här specifikationen eller släpp en permanent tabell istället med kommandot DROP TABLE.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Det krävs ett enkelt tabellnamn för att ta bort en sessionslokal tillfällig tabell, men fick <tableName>. Uppdatera DROP TEMPORARY TABLE kommandot för att använda ett tabellnamn för en enskild del för att släppa en tillfällig tabell, eller använd DROP TABLE kommandot i stället för att släppa en permanent tabell.
TEMP_TABLE_DELETION_REQUIRES_V2_COMMAND
DROP TEMPORARY TABLE kräver att V2-kommandon aktiveras. Ange konfigurationen "spark.sql.legacy.useV1Command" till false och försök igen.
TEMP_TABLE_NOT_FOUND
Det går inte att hitta den tillfälliga tabellen <tableName> i den aktuella sessionen. Kontrollera stavningen och korrektheten i tabellnamnet och försök igen med frågan eller kommandot.
Om du vill tolerera felet vid tapp använder du DROP TEMP TABLE IF EXISTS.
TEMP_TABLE stöds inte med DATABRICKS_JOBS
Tillfällig tabell stöds ännu inte i Databricks-jobb. Använd i Databricks Notebooks i stället och kontakta Databricks Support för mer information.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Tillfällig tabellåtgärd <operation> stöds inte i Hive-metaarkivet.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Åtgärder i den temporära sessionslokala tabellen <tableName> stöds inte:
Mer information finns i TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Det går inte att skapa den tillfälliga tabellen eller vyn <relationName> eftersom den redan finns.
Välj ett annat namn, släpp det befintliga objektet eller lägg till IF NOT EXISTS -satsen för att tolerera befintliga objekt.
TEMP_TABLE_REQUIRES_DELTA
Åtgärder i sessionslokala temporära tabeller kräver att Delta-katalogen är aktiverad. Aktivera Delta-katalogen och försök igen.
TEMP_TABLE_REQUIRES_UC
Åtgärder i sessionslokala temporära tabeller kräver Unity Catalog. Aktivera Unity Catalog i din miljö som körs och försök igen.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW eller motsvarande API:erna för datauppsättningar accepterar bara enkelnamn, men fick: <actualName>.
TRAILING_COMMA_IN_SELECT
Avslutande kommatecken har identifierats i SELECT-sats. Ta bort det avslutande kommatecknet före FROM-satsen.
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
Transaktionen kan inte checkas in eftersom den maximala tidsstämpeln för incheckning överskrids. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Ett fel uppstod i den användardefinierade funktionen <function> för StatefulProcessor. Orsak: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
Antalet rader överskrider den tillåtna gränsen <maxValues> för för TRANSPOSE. Om detta var avsett anger du <config> till minst det aktuella radantalet.
TRANSPOSE_INVALID_INDEX_COLUMN
Ogiltig indexkolumn för TRANSPOSE eftersom: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Transponera kräver att icke-indexkolumner delar en minsta gemensamma typ, men <dt1> och <dt2> gör det inte.
TRIGGER_INTERVAL_INVALID
Utlösarintervallet måste vara en positiv varaktighet som kan konverteras till hela sekunder. Mottagen: <actual> sekunder.
TUPLE_IS_EMPTY
På grund av Scalas begränsade stöd för tupel stöds inte tom tupel.
TUPLE_SIZE_EXCEEDS_LIMIT
På grund av Scalas begränsade stöd för tupplar stöds inte tupplar med fler än 22 element.
UC_BUCKETED_TABLES
Bucketade tabeller stöds inte i Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
För Unity Catalog anger du katalognamnet explicit. T.ex. SHOW GRANT your.address@email.com ON CATALOG huvuddel.
UC_COMMAND_NOT_SUPPORTED
Kommandona: <commandName> stöds inte i Unity Catalog.
Mer information finns i UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Kommandona <commandName> stöds inte för Unity Catalog-kluster i serverlös miljö. Använd enskilda användare eller delade kluster i stället.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Kommandona: <commandName> stöds inte för Unity Catalog-kluster i läget för delad åtkomst. Använd åtkomstläge för en användare i stället.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Det gick inte att hitta en giltig UC-anslutning för att få tillgång till <path> efter utvärdering <connectionNames>.
Se till att minst en giltig UC-anslutning är tillgänglig för åtkomst till målsökvägen.
Detaljerade fel för de utvärderade anslutningarna:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Den angivna typen av autentiseringsuppgifter stöds inte.
UC_DATASOURCE_NOT_SUPPORTED
Datakällans format <dataSourceFormatName> stöds inte i Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Alternativ för datakällor stöds inte i Unity Catalog.
UC_DEPENDENCY_DOES_NOT_EXIST
Beroende finns inte i Unity Catalog:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION-satsen måste finnas för den externa volymen. Kontrollera syntaxen ...CREATE EXTERNAL VOLUMELOCATION ... för att skapa en extern volym.
UC_FAILED_PROVISIONING_STATE
Frågan misslyckades eftersom den försökte referera till tabell <tableName> men kunde inte göra det: <failureReason>. Uppdatera tabellen <tableName> för att säkerställa att den är i ett aktivt leveranstillstånd och försök sedan igen.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Det går inte att skapa tabellen i Unity Catalog med filschemat <schemeName>.
Skapa i stället en federerad datakällanslutning med hjälp av kommandot CREATE CONNECTION för samma tabellprovider och skapa sedan en katalog baserat på anslutningen med ett CREATE FOREIGN CATALOG kommando för att referera till tabellerna däri.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
Åtgärden försökte använda Hive Metastore, vilket är inaktiverat eftersom äldre åtkomst har stängts av i ditt konto eller din arbetsyta. Dubbelkolla standardkatalogen i den aktuella sessionen och standardinställningen för namnområdet. Om du behöver komma åt Hive-metaarkivet ber du administratören att konfigurera Hive Metastore-federation via Unity Catalog.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Vyn för Hive Metastore Federation stöder inte beroenden över flera kataloger. Visa <view> i Hive Metastore Federation-katalogen måste använda beroenden från hive_metastore- eller spark_catalog-katalogerna, men beroendet <dependency> finns i en annan katalog, <referencedCatalog>. Uppdatera beroendena för att uppfylla den här begränsningen och försök sedan köra frågan eller kommandot igen.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Hive Metastore-federationen är inte aktiverad i det här klustret.
Åtkomst till katalogen <catalogName> stöds inte i det här klustret
UC_INVALID_DEPENDENCIES
Beroenden för <viewName> registreras som <storedDeps> medan de analyseras som <parsedDeps>. Detta inträffade troligen genom felaktig användning av ett icke-SQL-API. Du kan reparera beroenden i Databricks Runtime genom att köra ALTER VIEW <viewName> AS-<viewText>.
UC_INVALID_NAMESPACE
Kapslade eller tomma namnområden stöds inte i Unity Catalog.
UC_INVALID_REFERENCE
Objekt som inte ärUnity-Catalog <name> kan inte refereras till i Unity Catalog-objekt.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Skrivstöd för Unity Catalog Lakehouse Federation är inte aktiverat för provider <provider> i det här klustret.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Hanterad volym accepterar inte klausul LOCATION. Kontrollera syntaxen ...CREATE VOLUME för att skapa en hanterad volym.
UC_NOT_ENABLED
Unity Catalog är inte aktiverat i det här klustret.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog Query Federation är inte aktiverat i det här klustret.
UC_RESOLVED_DBFS_PATH_MISMATCH
Frågan misslyckades eftersom den försökte referera till <objectType> <name> men inte kunde göra det: Den lösta DBFS-sökvägen <resolvedHmsPath> matchar inte Unity Catalog-lagringsplatsen <ucStorageLocation>.
UC_SECRETS_NOT_ENABLED
Stöd för Unity-kataloghemligheter är inte aktiverat.
UC_SECRET_ALREADY_EXISTS
Det går inte att skapa hemligheten <name> eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt det befintliga objektet eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt.
UC_SECRET_NOT_FOUND (Hemlighet ej hittad)
Hemligheten <name> finns inte. Använd 'SHOW SECRETS' för att lista tillgängliga hemligheter.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Tjänstens autentiseringsuppgifter är inte aktiverade i det här klustret.
UC_VOLUMES_NOT_ENABLED
Stöd för Unity-katalogvolymer är inte aktiverat på den här instansen.
UC_VOLUMES_SHARING_NOT_ENABLED
Stöd för volymdelning är inte aktiverat på den här instansen.
UC_VOLUME_NOT_FOUND
Volym <name> finns inte. Använd "SHOW VOLUMES" för att lista tillgängliga volymer.
UDF_ENVIRONMENT_ERROR
Det gick inte att installera UDF-beroenden för <udfName> på grund av ett systemfel.
Mer information finns i UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Det gick inte att installera UDF-beroenden för <udfName>.
Mer information finns i UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: ingen tilldelad
Körningen av funktionen <fn> misslyckades
Mer information finns i UDF_ERROR
UDF_LIMITS
En eller flera UDF-gränser överträddes.
Mer information finns i UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Överskred frågeomfattande UDF-gränsen för <maxNumUdfs> UDF:er (begränsad under offentlig förhandsversion). Hittade <numUdfs>. UDF:erna var: <udfNames>.
UDF_PYSPARK_ERROR
Python-arbetaren avslutades oväntat
Mer information finns i UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) stöds inte i kluster i läget Delad åtkomst.
UDF_PYSPARK_USER_CODE_ERROR
Körningen misslyckades.
Mer information finns i UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Parameterstandardvärdet stöds inte för användardefinierad <functionType> funktion.
UDF_USER_CODE_ERROR
Körningen av funktionen <fn> misslyckades.
Mer information finns i UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Antalet alias som anges i AS-satsen matchar inte antalet kolumner som UDTF ger ut.
Förväntade <aliasesSize> alias, men fick <aliasesNames>.
Kontrollera att antalet angivna alias matchar antalet kolumner från UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Det gick inte att utvärdera den användardefinierade tabellfunktionen eftersom dess "analysera"-metod returnerade en begärd OrderingColumn vars kolumnnamnuttryck innehöll ett onödigt alias <aliasName>. Ta bort det här aliaset och försök sedan köra frågan igen.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Det gick inte att utvärdera den användardefinierade tabellfunktionen eftersom dess "analysera"-metod returnerade ett begärt "select"-uttryck (<expression>) som inte innehåller ett motsvarande alias. Uppdatera UDTF för att ange ett alias där och försök sedan köra frågan igen.
UNABLE_TO_ACQUIRE_MEMORY
Det gick inte att allokera <requestedBytes> byte minne, fick <receivedBytes>.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Det går inte att konvertera SQL-typ <toType> till Protobuf-typ <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
Det går inte att hämta tabeller i Hive-databasen: <dbName>. Felklassnamn: <className>.
KAN_INTE_INFERERA_SCHEMA_FÖR_PIPELINE_TABLE
Det gick inte att härleda schemat för tabellen <tableName> från dess överordnade flöden.
Ändra de flöden som skriver till den här tabellen för att göra deras scheman kompatibla.
Härledt schema hittills:
<inferredDataSchema>
Inkompatibelt schema:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Det går inte att härleda schema för <format>. Den måste anges manuellt.
Oautentiserad
Begäran har inte giltiga autentiseringsuppgifter för åtgärden.
UNAUTHORIZED_ACCESS
Obehörig åtkomst:
<report>
UNBOUND_SQL_PARAMETER
Hittade den obundna parametern: <name>. Åtgärda args och ange en mappning av parametern till antingen en SQL-literal eller samlingskonstruktorfunktioner som map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Hittade en kommentar inom parentes. Lägg till */ i slutet av kommentaren.
UNEXPECTED_INPUT_TYPE
Parametern <paramIndex> för funktion <functionName> kräver <requiredType> typ, men <inputSql> har typen <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
Parametern <namedParamKey> för funktion <functionName> kräver <requiredType> typ, men <inputSql> har typen <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Oväntad operator <op> i CREATE VIEW-instruktionen som strömningskälla.
En strömningsvyfråga får endast bestå av SELECT, WHEREoch UNION ALL åtgärder.
UNEXPECTED_POSITIONAL_ARGUMENT
Det går inte att anropa rutinmässiga <routineName> eftersom det innehåller positionella argument efter det namngivna argumentet som tilldelats <parameterName>; Ordna om dem så att positionsargumenten kommer först och sedan försöker frågan igen.
UNEXPECTED_SERIALIZER_FOR_CLASS
Klassen <className> har en oväntad uttrycksserialiserare. Förväntar sig "STRUCT" eller "IF" som returnerar "STRUCT" men hittade <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
Operatorn UNION stöds ännu inte i rekursiva vanliga tabelluttryck (WITH -satser som refererar till sig själva, direkt eller indirekt). Använd UNION ALL i stället.
UNIK_BEGRÄNSNING_INAKTIVERAD
Funktionen för unik begränsning är inaktiverad. Om du vill aktivera det anger du "spark.databricks.sql.dsv2.unique.enabled" som true.
UNKNOWN_FIELD_EXCEPTION
Stötte på <changeType> under parsningen <unknownFieldBlob>, vilket kan åtgärdas genom ett automatiskt nytt försök: <isRetryable>
Mer information hittar du i UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Anropet av rutin <routineName> innehåller ett okänt positionsargument <sqlExpr> på position <pos>. Detta är ogiltigt.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Okänd primitiv typ med ID <id> hittades i ett variantvärde.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Försöker behandla <descriptorName> som ett meddelande, men det var <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT kräver att alla angivna <given> uttryck är kolumner när inga <empty> uttryck anges. Det här är inte kolumner: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Minst en värdekolumn måste anges för UNPIVOT, alla kolumner som anges som ID:er.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Kolumner med opivotvärde måste dela en minst vanlig typ. Vissa typer gör inte det: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Alla kolumner med opivotvärde måste ha samma storlek som det finns värdekolumnnamn (<names>).
UNRECOGNIZED_PARAMETER_NAME
Det går inte att anropa rutinmässiga <routineName> eftersom rutinanropet innehöll en namngiven argumentreferens för argumentet med namnet <argumentName>, men den här rutinen innehåller ingen signatur som innehåller ett argument med det här namnet. Menade du något av följande? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Okänd SQL-typ – namn: <typeName>, ID: <jdbcType>.
UNRECOGNIZED_STATISTIC
Statistiken <stats> känns inte igen. Giltig statistik omfattar värdena count, count_distinct, approx_count_distinct, mean, stddev, min, maxoch percentil. Percentilen måste vara ett numeriskt värde följt av%inom intervallet 0% till 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Det gick inte att matcha <name> till en tabellvärdesfunktion.
Kontrollera att <name> har definierats som en tabellvärdesfunktion och att alla obligatoriska parametrar har angetts korrekt.
Om <name> inte har definierats skapar du funktionen table-valued innan du använder den.
Mer information om hur du definierar tabellvärdesfunktioner finns i Apache Spark-dokumentationen.
UNRESOLVED_ALL_IN_GROUP_BY
Det går inte att härleda grupperingskolumner för GROUP BY ALL baserat på select-satsen. Ange uttryckligen grupperingskolumnerna.
UNRESOLVED_COLUMN
Det går inte att matcha en kolumn, variabel eller funktionsparameter med namnet <objectName>.
Mer information finns i UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Det går inte att matcha ett fält med namnet <fieldName> med kolumnen struct-type <columnPath>.
Mer information finns i UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING kolumn <colName> kan inte lösas i <relationType>.
Menade du någon av följande kolumner? [<suggestion>].
UNRESOLVED_MAP_KEY
Det går inte att lösa kolumn <objectName> som en nyckel i en tabell. Om nyckeln är en strängliteral lägger du till enkla citattecken runt den.
Mer information finns i UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Det går inte att lösa rutin <routineName> på sökväg <searchPath>.
Kontrollera stavningen av <routineName>, kontrollera att rutinen finns och bekräfta att du har USE behörighet i katalogen och schemat och EXECUTE på rutinen.
Mer information finns i UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Det går inte att lösa lagringssökvägen för tabell <identifier>.
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING kolumn <colName> kan inte matchas på sidan <side> av kopplingen. Kolumnerna på <side>-sidan: [<suggestion>].
UNRESOLVED_VARIABLE
Det går inte att lösa variabeln <variableName> på sökvägen <searchPath>.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Ostrukturerat filformat <format> stöds inte. Filformat som stöds är <supportedFormats>.
Uppdatera format från ditt <expr>-uttryck till något av de format som stöds och försök sedan igen.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Ostrukturerat modellalternativ ('<option>' -> '<value>') stöds inte. Värden som stöds är: <supportedValues>.
Växla till ett av de värden som stöds och försök sedan igen.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
Funktionsparametern "ocrText" måste anges NULL eller utelämnas när alternativet metadataModel har angetts. Ett angivet "metadataModel"-alternativ utlöser extrahering av metadata, där en angiven "ocrText" är förbjuden.
UNSUPPORTED_ADD_FILE
Stöder inte att lägga till fil.
Mer information finns i UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Det går inte att ange <parameter> med ALTER <commandTableType>.
UNSUPPORTED_ARROWTYPE
Piltypen stöds inte <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Funktionen <funcName> stöder inte batchfrågor.
UNSUPPORTED_CALL
Det går inte att anropa metoden "<methodName>" för klassen "<className>".
Mer information finns i UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
char/varchar-typen kan inte användas i tabellschemat.
Om du vill att Spark ska behandla dem som strängtyper som samma som Spark 3.0 och tidigare anger du "spark.sql.legacy.charVarcharAsString" till "true".
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
Typen char/varchar <type> kan inte ha kollationering angiven.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause> stöds inte för <operation>.
UNSUPPORTED_COLLATION
Sortering <collationName> stöds inte för:
Mer information finns i UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Den gemensamma överordnade källsökvägen och källarkivDir bör registreras med UC.
Om du ser det här felmeddelandet är det troligt att du registrerar källsökvägen och sourceArchiveDir på olika externa platser.
Placera dem på en enda extern plats.
UNSUPPORTED_CONNECT_FEATURE
Funktionen stöds inte i Spark Connect:
Mer information finns i UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CHARACTERISTIC
Villkorsegenskaper<characteristic> stöds inte för villkorstypen '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
Villkorssatser <clauses> stöds inte.
UNSUPPORTED_CONSTRAINT_TYPE
Villkorstyp som inte stöds. Endast <supportedConstraintTypes> stöds
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Datakälltypen stöds inte för direktfråga i filer: <dataSourceType>
UNSUPPORTED_DATATYPE
Datatypen stöds inte <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Det går inte att skriva datakällan <source> i <createMode> läge. Använd antingen läget "Lägg till" eller "Skriv över" i stället.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Datakällan <format> stöder inte kolumnen <columnName> av typen <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Det går inte att skapa kodare för <dataType>. Använd en annan utdatatyp för din UDF eller DataFrame.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT kolumnvärden stöds inte.
Mer information finns i UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserialiseraren stöds inte:
Mer information finns i UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Det går inte att skapa en genererad kolumn <fieldName> med generationsuttrycket <expressionStr> eftersom <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
En frågeoperator innehåller ett eller flera uttryck som inte stöds.
Överväg att skriva om den för att undvika fönsterfunktioner, mängdfunktioner och generatorfunktioner i WHERE-satsen.
Ogiltiga uttryck: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
En frågeparameter innehåller uttryck som inte stöds.
Parametrar kan antingen vara variabler eller literaler.
Ogiltigt uttryck: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
Uttryck <sqlExpr> stöds inte i en fönsterfunktion.
UNSUPPORTED_FEATURE
Funktionen stöds inte:
Mer information finns i UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Användardefinierad funktionstyp som inte stöds: <language>
UNSUPPORTED_GENERATOR
Generatorn stöds inte:
Mer information finns i UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() kan endast användas med GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> med inledande position <initialPosition> stöds inte med Kinesis-källan
UNSUPPORTED_INSERT
Det går inte att infoga i målområdet.
Mer information finns i UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Stöds inte kopplingstyp '<typ>'. Anslutningstyper som stöds är: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Det går inte att skapa en hanterad tabell <tableName> med hjälp av datakällan <dataSource>. Du måste använda datakälla DELTA eller skapa en extern tabell med ... CREATE EXTERNAL TABLE <tableName> ... USING <dataSource>
UNSUPPORTED_MERGE_CONDITION
MERGE åtgärden innehåller <condName> villkor som inte stöds.
Mer information finns i UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabell <tableName> har en säkerhetsprincip på radnivå eller kolumnmask som indirekt refererar till en annan tabell med en säkerhetsprincip på radnivå eller kolumnmask. Detta stöds inte. Samtalssekvens: <callSequence>
OSUPPORTERAD_OPERATION_FÖR_KONTINUERLIGT_MINNESMOTTAGARE
Åtgärden <operation> stöds inte för kontinuerlig minnesmottagare. Om du skriver ett test för strömmande realtidsläge kan du överväga att använda CheckAnswerWithTimeout framför andra alternativ.
UNSUPPORTED_OVERWRITE
Det går inte att skriva över målet som också läses från.
Mer information finns i UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Partitionstransformering som inte stöds: <transform>. De transformeringar som stöds är identity, bucketoch clusterBy. Se till att ditt transformeringsuttryck använder något av dessa.
Procedure för sortering stöds ej
Proceduren <procedureName> måste ange eller ärva DEFAULT COLLATION UTF8_BINARY. ANVÄND CREATE PROCEDURE <procedureName> (...) STANDARDKOLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
Spara läge <saveMode> stöds inte för:
Mer information finns i UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
Ett SHOW CREATE TABLE-kommando stöds inte.
Mer information finns i UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Enpassanalysatorn kan inte bearbeta den här frågan eller kommandot eftersom den ännu inte stöder <feature>.
UNSUPPORTED_SQL_UDF_USAGE
Det går inte att använda SQL-funktionen <functionName> i <nodeName> .
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> utmatningsläge stöds inte för <statefulOperator> på strömmande DataFrames/DataSets utan vattenmärke.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Stöds inte för att strömma en vy. Reason:
Mer information finns i UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Strömningsalternativ <options> stöds inte för datakälla <source> på ett delat kluster. Kontrollera att alternativen har angetts och stavats korrekt och kontrollera https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode om det finns begränsningar.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Datakällan <sink> stöds inte som en direktuppspelningsmottagare i ett delat kluster.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Datakällan <source> stöds inte som en strömmande datakälla i ett delat kluster.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Funktionen <funcName> stöder inte strömning. Ta bort nyckelordet STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> stöds inte med Kinesis-källan
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Uttryck för underfråga som inte stöds:
Mer information finns i UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
Tabelländringen <change> stöds inte för JDBC-katalogen i tabellen <tableName>. Ändringar som stöds är: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Det går inte att skapa primärnyckel med timeseriekolumner
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Det går inte att skapa primärnyckel med mer än en tidseriekolumn <colSeq>
UNSUPPORTED_TIME_PRECISION
Sekundprecisionen <precision> för TIME-datatypen ligger inom det intervall som stöds [0, 6].
UNSUPPORTED_TIME_TYPE
Datatypen TIME stöds inte.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> stöds inte med Kinesis-källan
UNSUPPORTED_TYPED_LITERAL
Literaler av typen <unsupportedType> stöds inte. Typer som stöds är <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
Funktionen <function> använder följande egenskap(er) som kräver en nyare version av Databricks runtime-miljö: <features>. Mer information finns i <docLink>.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF-typer kan inte användas tillsammans: <types>
UNTYPED_SCALA_UDF
Du använder en otypad Scala-användardefinierad funktion (UDF), som saknar information om indatatyper.
Spark kan blint skicka null till Scala-stängningen med argumentet primitiv typ, och stängningen ser standardvärdet för Java-typen för null-argumentet, udf((x: Int) => x, IntegerType)till exempel , resultatet är 0 för null-indata. Om du vill bli av med det här felet kan du:
använd inskrivna Scala UDF-API:er (utan returtypsparameter),
udf((x: Int) => x)till exempel .använd java-UDF-API:er,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)till exempel , om indatatyper inte är primitiva.ange "spark.sql.legacy.allowUntypedScalaUDF" till "true" och använd detta API med försiktighet.
UPGRADE_NOT_SUPPORTED
Tabellen är inte berättigad till uppgradering från Hive Metastore till Unity Catalog. Reason:
Mer information finns i UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Användardefinierad funktion är ogiltig:
Mer information finns i USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Funktionen raise_error() användes för att generera felklass: <errorClass> som förväntar sig parametrar: <expectedParms>.
De angivna parametrarna <providedParms> matchar inte de förväntade parametrarna.
Ange alla förväntade parametrar.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Funktionen raise_error() användes för att skapa en okänd felklass: <errorClass>
ANVÄNDARANGIVEN_OCH_HÄRLEDD_SCHEMA_INKOMPATIBEL
<tableName>Tabellen har ett användardefingivet schema som inte är kompatibelt med schemat
utledes från sökfrågan.
<streamingTableHint>
Deklarerat schema:
<specifiedSchema>
Härledt schema:
<inferredDataSchema>
VARIABLE_ALREADY_EXISTS
Det går inte att skapa variabeln <variableName> eftersom den redan finns.
Välj ett annat namn eller släpp eller ersätt den befintliga variabeln.
VARIABLE_NOT_FOUND
Det går inte att hitta variabeln <variableName>. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte har specificerat namnet med ett schema och en katalog, kontrollera utdata för current_schema() eller specificera namnet med rätt schema och katalog.
För att tolerera felet vid släpp använd DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Det går inte att konstruera en variant som är större än 16 MiB. Den maximala tillåtna storleken för ett Variant-värde är 16 MiB.
VARIANT_DUPLICATE_KEY
Det gick inte att skapa en variant på grund av en duplicerad objektnyckel <key>.
VARIANT_SIZE_LIMIT
Det går inte att skapa en variant som är större än <sizeLimit> i <functionName>.
Undvik stora indatasträngar i det här uttrycket (till exempel lägga till funktionsanrop för att kontrollera uttrycksstorleken och konvertera den till NULL först om den är för stor).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
Källtabellhistoriken innehåller tabellfunktioner som inte stöds av versionskloning i den här DBR-versionen: <unsupportedFeatureNames>.
Uppgradera till en nyare DBR-version.
VIEW_ALREADY_EXISTS
Det går inte att skapa vyn <relationName> eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt det befintliga objektet eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt.
VIEW_EXCEED_MAX_NESTED_DEPTH
Vyns djup <viewName> överskrider det maximala visningsupplösningsdjupet (<maxNestedDepth>).
Analysen avbryts för att undvika fel. Om du vill kringgå detta kan du försöka öka värdet för "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Det går inte att hitta vyn <relationName>. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte har kvalificerat namnet med ett schema, kontrollera current_schema() utdata eller kvalificera namnet med rätt schema och katalog.
För att tolerera felet vid släpp använd DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Det går inte att skapa volym <relationName> eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt det befintliga objektet eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt.
VATTENMÄRKE_FÖRBÄTTRINGSSTRATEGI
Strategin för utveckling av strömmande vattenstämplar har följande begränsning:
Mer information finns i WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> funktionen kan bara utvärderas i ett ordnat radbaserat fönsterintervall med en enda förskjutning: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Funktionen Window <funcName> kräver en OVER-sats.
WITH_CREDENTIAL
WITH CREDENTIAL syntax stöds inte för <type>.
WRITE_STREAM_NOT_ALLOWED
writeStream kan bara anropas på strömmande Dataset/DataFrame.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Det gick inte att köra kommandot eftersom DEFAULT värden inte stöds när du lägger till nya
Kolumner till redan existerande Delta-tabeller; vänligen lägg till kolumnen utan standardvärde.
Värde först, och kör sedan ett andra ALTER TABLE ALTER COLUMN SET DEFAULT-kommando för att tillämpa.
för framtida infogade rader i stället.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Det gick inte att köra kommandot <commandType> eftersom det tilldelade en kolumn DEFAULT värde.
men motsvarande tabellfunktion har inte aktiverats. Försök igen med kommandot
efter att ha kört ALTER TABLE tabellNamn SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported' – texten inuti parenteser är kod och ska inte översättas).
WRONG_COMMAND_FOR_OBJECT_TYPE
Åtgärden <operation> kräver en <requiredType>. Men <objectName> är en <foundType>. Använd <alternative> i stället.
WRONG_NUM_ARGS
<functionName> kräver <expectedNum> parametrar, men det faktiska talet är <actualNum>.
Mer information finns i WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> är nödvändigt för att läsa eller skriva filer i XML-format.
XML_UNSUPPORTED_NESTED_TYPES
XML stöder <innerDataType> inte som inre typ av <dataType>. Omslut <innerDataType> i ett StructType-fält när du använder den i <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Räddade data och jokerteckenkolumner kan inte aktiveras samtidigt. Ta bort alternativet wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy-kolumnen <columnName> finns inte.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Det gick inte att hitta aktiv SparkSession.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Det går inte att ange en ny txn som aktiv när en redan är aktiv.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Det gick inte att lägga till kolumn <colName> eftersom namnet är reserverat.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Den aktuella åtgärden försökte lägga till en borttagningsvektor i en tabell som inte tillåter att nya borttagningsvektorer skapas. Skicka in en felrapport.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Alla åtgärder som lägger till borttagningsvektorer bör ange kolumnen tightBounds i statistiken till false. Skicka in en felrapport.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index för <columnIndex> att lägga till kolumn <columnName> är lägre än 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Det går inte att lägga till <columnName> eftersom dess överordnade objekt inte är en StructType. Hittade <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct hittades inte vid position <position>.
DELTA_ADD_CONSTRAINTS
Använd ALTER TABLE för att lägga till CONSTRAINT och skapa CHECK-begränsningar.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Hittade <sqlExpr>. En genererad kolumn kan inte använda ett aggregeringsuttryck.
DELTA_AGGREGATION_NOT_SUPPORTED
Mängdfunktioner stöds inte i <operation> <predicate>.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Det gick inte att ändra sortering av kolumn <column> eftersom den har ett bloom-filterindex. Behåll antingen den befintliga sorteringen eller ta bort bloom-filterindexet och försök sedan att ändra sorteringen igen.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Det gick inte att ändra sortering av kolumn <column> eftersom det är en klustringskolumn. Behåll antingen den befintliga sorteringen eller ändra kolumnen till en kolumn som inte är klustrad med ett ALTER TABLE-kommando och försök sedan igen för att ändra sortering.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN stöds inte för att ändra kolumn <currentType> till <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY stöds endast för Delta-tabell med Liquid-klustring.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY kan inte tillämpas på en partitionerad tabell.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Åtgärden är inte tillåten: ALTER TABLE RENAME TO är inte tillåtet för hanterade Delta-tabeller på S3, eftersom eventual consistency på S3 kan leda till att Delta-transaktionsloggen skadas. Om du insisterar på att göra det och är säker på att det aldrig har funnits en Delta-tabell med det nya namnet <newName> tidigare, kan du aktivera detta genom att ange <key> vara sant.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Det går inte att aktivera <tableFeature> tabellfunktion med hjälp av ALTER TABLE SET TBLPROPERTIES. Använd CREATE ELLER REPLACE TABLE CLUSTER BY för att skapa en Delta-tabell med klustring.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER
TABLE
...
SET
MANAGED stöder inte enhetliga isbergstabeller. Inaktivera Uniform eller använd SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED Misslyckades.
Mer information finns i DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE ... SET MANAGED kommandot är inte aktiverat. Kontakta databricks-supportteamet om du vill ha hjälp.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Extern tabell <table> stöds inte för migrering till UC-hanterad tabell: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_STÖDJER_INTE_ENHETLIGHET
ALTER
TABLE
...UNSET MANAGED stöder inte Uniform. Inaktivera Uniform eller använd UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> kan inte ändras tillbaka från hanterad till extern tabell.
Mer information finns i DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE ... UNSET MANAGED kommandot är inte aktiverat. Kontakta databricks-supportteamet om du vill ha hjälp.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Det går inte att ändra datatypen för <column> från <from> till <to>. Den här ändringen innehåller kolumnborttagningar och tillägg, och därför är de tvetydiga. Gör dessa ändringar individuellt med hjälp av ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Tvetydig partitionskolumn <column> kan vara <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE innehåller två olika platser: <identifier> och <location>.
Du kan ta bort klausulen LOCATION från instruktionen CREATE TABLE, eller ställa in
<config> till true för att hoppa över den här kontrollen.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabell <table> innehåller inte tillräckligt med poster i icke-arkiverade filer för att uppfylla angivna LIMIT av <limit> poster.
DELTA_ARCHIVED_FILES_IN_SCAN
Hittade <numArchivedFiles> potentiellt arkiverade filer i tabellen <table> som måste genomsökas som en del av den här frågan.
Det går inte att komma åt arkiverade filer. Den aktuella tiden tills arkivering har konfigurerats som <archivalTime>.
Justera frågefiltren för att exkludera arkiverade filer.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Åtgärden "<opName>" tillåts inte när tabellen har aktiverat ändringsdataflöde (CDF) och har genomgått schemaändringar med antingen DROP COLUMN eller RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Det går inte att ta bort bloom-filterindex för följande icke existerande kolumner: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError inträffade när bloom-filterindex skrevs för följande kolumner: <columnsWithBloomFilterIndices>.
Du kan minska minnesfotavtrycket för bloom-filterindex genom att välja ett mindre värde för alternativet "numItems", ett större värde för alternativet "fpp" eller genom att indexera färre kolumner.
DELTA_CANNOT_CHANGE_DATA_TYPE
Det går inte att ändra datatypen: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Det går inte att ändra platsen för Delta-tabellen med hjälp av SET TBLPROPERTIES. Använd ALTER TABLE SET LOCATION i stället.
DELTA_CANNOT_CHANGE_PROVIDER
provider är en reserverad tabellegenskap och kan inte ändras.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Det går inte att skapa bloom-filterindex för följande icke-existerande kolumner: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
Det går inte att skapa <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Det går inte att beskriva historiken för en vy.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Det går inte att ta bort bloomfilterindex på en icke-indexerad kolumn: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Det går inte att ta bort begränsningstabellen för CHECK-funktionen.
Följande begränsningar måste tas bort först: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Det går inte att ta bort kollationstabellfunktionen.
Kolumner med icke-standardsortering måste ändras till att använda UTF8_BINARY först: <colNames>.
DELTA_KAN_INTE_TA_BORT_DOMÄN_METADATA_FUNKTION_FRÅN_HANTERAD_ICEBERG_TABELL
Det går inte att släppa tabellfunktionen domainMetadata. Tabellen <name> är en hanterad Iceberg-tabell. DomainMetadata kan inte tas bort från hanterade isbergstabeller.
DELTA_KAN_INTE_TA_BORT_GEOSPATIAL_FUNKTION
Det går inte att ta bort geospatiala tabellfunktioner. Återskapa tabellen eller ta bort kolumnerna med geometri- och geografityper: <colNames> och försök igen.
DELTA_CANNOT_EVALUATE_EXPRESSION
Det går inte att utvärdera uttrycket: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Förväntar sig en bucketing Delta-tabell men kan inte hitta bucketspecifikationen i tabellen.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Det går inte att generera kod för uttryck: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Den här tabellen är konfigurerad för att endast tillåta tillägg. Om du vill tillåta uppdateringar eller borttagningar använder du "ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)".
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Det går inte att åsidosätta eller ta bort tidsstämpeltabellegenskaper för incheckning eftersom den här tabellen är katalogägd. Ta bort "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" och "delta.inCommitTimestampEnablementTimestamp" från TBLPROPERTIES -satsen och försök sedan köra kommandot igen.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> kan inte åsidosätta eller ta bort incheckade tidsstämpeltabellegenskaper eftersom samordnade incheckningar är aktiverade i den här tabellen och är beroende av dem. Ta bort dem ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") från TBLPROPERTIES -satsen och försök sedan kommandot igen.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Det går inte att ange deltatabellkonfigurationen <prop> av användaren.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> kan inte åsidosätta konfigurationerna för koordinerade insättningar i en befintlig måltabell. Ta bort dem ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") från TBLPROPERTIES -satsen och försök sedan kommandot igen.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Ett URI (<uri>) som inte kan omvandlas till en relativ sökväg hittades i transaktionsloggen.
DELTA_CANNOT_RELATIVIZE_PATH
En sökväg (<path>) som inte kan relativiseras med de aktuella indata som finns i
Transaktionsloggen. Kör detta på nytt som:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)
och kör sedan även:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Det går inte att byta <currentPath> namn på till <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tabell <tableName> kan inte ersättas eftersom den inte finns. Använd CREATE ELLER REPLACE TABLE för att skapa tabellen.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Det går inte att lösa klustringskolumnen <columnName> i <schema> på grund av ett oväntat fel. Kör ALTER TABLE ... CLUSTER BY ... för att reparera metadata för delta-klustring.
DELTA_CANNOT_RESOLVE_COLUMN
Det går inte att lösa kolumnen <columnName> i <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Det går inte att återställa tabellen till version <version>. Tillgängliga versioner: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Det går inte att återställa tabellen till tidsstämpeln (<requestedTimestamp>) som den är före den tidigaste tillgängliga versionen. Använd en tidsstämpel efter (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Det går inte att återställa tabellen till tidsstämpeln (<requestedTimestamp>) som den är efter den senaste tillgängliga versionen. Använd en tidsstämpel före (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> kan inte ange egenskaper för tidsstämpeltabeller vid commit tillsammans med samordnade commitar, eftersom den senare är beroende av den förra och anger den tidigare internt. Ta bort dem ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") från TBLPROPERTIES -satsen och försök sedan kommandot igen.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Det går inte att ändra platsen för en sökvägsbaserad tabell.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Det går inte att ange delta.managedDataSkippingStatsColumns på en tabell i en icke-Lakeflow Declarative Pipelines.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
När du aktiverar "unity-catalog" som commit-koordinator kan konfigurationen "<configuration>" inte anges från kommandot. Ta bort den från TBLPROPERTIES-satsen och försök sedan igen.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
När du aktiverar "unity-catalog" som incheckningskoordinator kan inte konfigurationen "<configuration>" anges från SparkSession-konfigurationerna. Ta bort den genom att köra spark.conf.unset("<configuration>") och försök sedan igen.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER kan inte ta bort konfigurationer för koordinerade incheckningar. Om du vill nedgradera en tabell från samordnade incheckningar, försök igen med hjälp av ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Det går inte att uppdatera fältet <tableName> av typen <fieldName>: uppdatera elementet genom att uppdatera <fieldName>.elementet.
DELTA_CANNOT_UPDATE_MAP_FIELD
Det går inte att uppdatera <tableName> fälttypen <fieldName> : uppdatera en karta genom att uppdatera <fieldName>.keyeller<fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Det går inte att uppdatera <tableName> fältet av typen <typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Det går inte att uppdatera typen <tableName> fält <fieldName>: du kan uppdatera strukturen genom att lägga till, ta bort eller uppdatera dess fält.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Det går inte att använda alla kolumner för partitionskolumner.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE kan inte ta bort alla berättigade filer eftersom vissa filer inte refereras till av Delta-loggen. Kör VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> är en vy. Skrivningar till en vy stöds inte.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Det gick inte att skriva ett värde av <sourceType> typ i kolumnen <targetType> typ <columnName> på grund av ett spill.
Använd try_cast på indatavärdet för att tolerera spill och returnera NULL i stället.
Om det behövs anger du <storeAssignmentPolicyFlag> till "LEGACY" för att kringgå det här felet eller ställa in <updateAndMergeCastingFollowsAnsiEnabledFlag> på sant för att återgå till det gamla beteendet och följa <ansiEnabledFlag> i UPDATE och MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Det går inte att ange Configuration delta.enableChangeDataFeed. Förändringsdataflöde från Delta är ännu inte tillgängligt.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
CDC-läsparametrar för start/slut får inte vara null. Ange en giltig version eller tidsstämpel.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Det gick inte att hämta tabelländringar mellan version <start> och <end> på grund av ett inkompatibelt dataschema.
Ditt lässchema är <readSchema> i version <readVersion>, men vi hittade ett inkompatibelt dataschema i version <incompatibleVersion>.
Om möjligt hämtar du tabelländringarna med hjälp av slutversionens schema genom att ange <config> till endVersioneller kontakta supporten.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Det gick inte att hämta tabelländringar mellan version <start> och <end> på grund av en inkompatibel schemaändring.
Schemat för läsning är <readSchema> i version <readVersion>, men vi hittade en inkompatibel schemaändring vid version <incompatibleVersion>.
Om möjligt, fråga om tabelländringar separat från version <start> till <incompatibleVersion> – 1, och från version <incompatibleVersion> till <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Det går inte att hitta filen <filePath> som refereras i transaktionsloggen. Detta kan inträffa när data har tagits bort manuellt från filsystemet i stället för att använda tabellen DELETE-instruktionen. Den här begäran verkar vara inriktad på Ändringsdataflöde, om så är fallet kan det här felet inträffa när ändringsdatafilen är ute från kvarhållningsperioden och har tagits bort av VACUUM-instruktionen. Mer information finns i <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Det går inte att skriva till tabellen med delta.enableChangeDataFeed-uppsättningen. Ändring av dataflöde från Delta är inte tillgängligt.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Det går inte att kontrollera en icke-befintlig tabell <path>. Tog du bort filer i katalogen _delta_log manuellt?
DELTA_CLONE_AMBIGUOUS_TARGET
Två sökvägar angavs som CLONE mål, så det är tvetydigt vilken du ska använda. En extern
Platsen för CLONE angavs på <externalLocation> samtidigt som sökvägen
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Klonkällan har ett giltigt format, men funktionen stöds inte med Delta.
För mer information, se DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
Filen (<fileName>) kopieras inte helt. Förväntad filstorlek: <expectedSize>, hittades: <actualSize>. För att fortsätta med åtgärden genom att ignorera filstorlekskontrollen, ställ in <config> till falsk.
DELTA_CLONE_UNSUPPORTED_SOURCE
Klonkällan <mode> stöds inte <name>, vars format är <format>.
De format som stöds är "delta", "isberg" och "parquet".
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Källtabellen stöds inte:
Mer information finns i DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Måltabell som inte stöds:
Mer information finns i DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_KLON_MED_RADSPÅRNING_UTAN_STATISTIK
Det går inte att grunt klona en tabell utan statistik och med radspårning aktiverat.
Om du vill aktivera radspårning måste du först samla in statistik i källtabellen genom att köra:
ANALYZE TABLE table_name COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE stöds inte för Delta-tabell med Liquid-klustring i DBR-version < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY stöds inte eftersom följande kolumner: <columnsWithDataTypes> inte möjliggör dataskipping.
DELTA_CLUSTERING_COLUMNS_MISMATCH
De angivna klustringskolumnerna matchar inte den befintliga tabellens.
tillhandahålls:
<providedClusteringColumns>befintlig:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Flytande klustring kräver att klustringskolumner har statistik. Det gick inte att hitta klustringskolumner<columns> i statistikschemat:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Det är inte tillåtet att skapa en extern tabell utan flytande klustring från en tabellkatalog med flytande klustring. path: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' stöder inte klustring.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Det går inte att slutföra <phaseOutType> på tabellen med tabellfunktionen <tableFeatureToAdd> (orsak: <reason>). Försök med kommandot OPTIMIZE igen.
== Fel ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE en Delta-tabell med Liquid-klustring med en partitionerad tabell tillåts inte.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE stöds inte för Delta-tabellen med Liquid-klustring utan några klustringskolumner.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Övergång av en Delta-tabell med Liquid-klustring till en partitionerad tabell är inte tillåten för åtgärd: <operation>, när den befintliga tabellen har icke-tomma klustringskolumner.
Kör ALTER TABLE CLUSTER BY NONE för att ta bort klustringskolumnerna först.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Dynamiskt partitionsöverskrivningsläge är inte tillåtet för en Delta-tabell med Liquid-klustring.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE kommandot för Delta-tabellen med Liquid-klustring stöder inte partitionspredikat. Ta bort predikaten: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE-kommandot för Delta-tabellen med Liquid-klustring kan inte ange ZORDER BY. Ta bort ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
Det angivna clusterByAuto-värdet matchar inte värdet för den befintliga tabellen.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY för Liquid-klustring stödjer upp till <numColumnsLimit> klusterkolumner, men tabellen har <actualNumColumns> klusterkolumner. Ta bort de extra klustringskolumnerna.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Det går inte att ange CLUSTER BY när schemat inte har definierats. Definiera schema för tabell <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Man kan inte ange både klustring och bucketing. Ta bort CLUSTERED BY INTO BUCKETS/bucketBy om du vill skapa en Delta-tabell med klustring.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Det går inte att ange klustring och partitionering. Ta bort PARTITIONED BY/partitionBy/partitionedBy om du vill skapa en Delta-tabell med klustring.
DELTA_COLLATIONS_NOT_SUPPORTED
Sortering stöds inte i Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Datahoppning stöds inte för partitionskolumnen <column>.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Datahoppning stöds inte för kolumnen '<column>' av typen '<type>'.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Den maximala kolumn-ID-egenskapen (<prop>) har inte angetts i en kolumnmappningsaktiverad tabell.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Den maximala kolumn-ID-egenskapen (<prop>) i en kolumnmappningsaktiverad tabell är <tableMax>, som inte kan vara mindre än det maximala kolumn-ID:t för alla fält (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
Datatypen för kolumnen <colName> angavs inte.
DELTA_COLUMN_NOT_FOUND
Det går inte att hitta den angivna kolumnen <columnName> [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Det går inte att hitta kolumnen '<targetCol>' på måltabellen bland kolumnerna i INSERT: <colNames>.
INSERT-satsen måste ange värde för alla kolumner i måltabellen.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Det gick inte att hitta kolumnen <columnName> i:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Förväntade <columnPath> vara en kapslad datatyp, men hittade <other>. Var på jakt efter
index för <column> i ett kapslat fält.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Struct-kolumn <source> kan inte infogas i fältet <targetType><targetField> i <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Det går inte att hantera kommitteringen av tabellen i omdirigeringstabell-tillståndet <state>.
DELTA_COMPACTION_VALIDATION_FAILED
Verifieringen av komprimering av sökvägen <compactedPath> till <newPath> misslyckades: Skicka in en felrapport.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Hittade en kapslad NullType i kolumn <columName> som är av typen <dataType>. Delta stöder inte skrivning av NullType i komplexa typer.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Filer lades till i <partition> av en samtidig uppdatering. <retryMsg> <conflictingCommit>
Mer information finns i <docLink>.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Den här transaktionen försökte ta bort en eller flera filer som togs bort (till exempel <file>) av en samtidig uppdatering. Försök igen.<conflictingCommit>
Mer information finns i <docLink>.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Den här transaktionen försökte läsa en eller flera filer som togs bort (till exempel <file>) av en samtidig uppdatering. Försök igen.<conflictingCommit>
Mer information finns i <docLink>.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Det här felet uppstår när flera strömmande frågor använder samma kontrollpunkt för att skriva till den här tabellen. Körde du flera instanser av samma frågeströmning samtidigt?<conflictingCommit>
Mer information finns i <docLink>.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: En samtidig transaktion har skrivit nya data eftersom den aktuella transaktionen läste tabellen. Försök igen.<conflictingCommit>
Mer information finns i <docLink>.
DELTA_CONFLICT_SET_COLUMN
Det finns en konflikt i dessa SET kolumner: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Under <command>kan inte konfigurationen "<configuration>" anges från kommandot. Ta bort den från TBLPROPERTIES-satsen och försök sedan igen.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Under <command>kan inte konfigurationen "<configuration>" anges från SparkSession-konfigurationerna. Ta bort den genom att köra spark.conf.unset("<configuration>") och försök sedan igen.
DELTA_CONSTRAINT_ALREADY_EXISTS
Villkoret finns<constraintName> redan. Ta först bort den gamla begränsningen.
Gammal begränsning:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Kolumn <columnName> har datatyp <columnType> och kan inte ändras till datatyp <dataType> eftersom den här kolumnen refereras till av följande kontrollbegränsningar:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Det går inte att ändra kolumn <columnName> eftersom den här kolumnen refereras till av följande kontrollbegränsningar:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Det går inte att ta bort obefintlig begränsning <constraintName> från tabellen <tableName>. Om du vill undvika att utlösa ett fel anger du parametern IF EXISTS eller anger sql-sessionskonfigurationen <config> till <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Konvertering av <format>-tabell vid läsning stöds inte: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Det finns ingen partitionsinformation i katalogen för tabell <tableName>. Har du kört "MSCK REPAIR TABLE" i tabellen för att identifiera partitioner?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Det går inte att konvertera Parquet-tabellen med sorterade partitionskolumner <colName> till Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Konfigurationen '<config>' kan inte anges till <mode> när du använder CONVERT till DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Schemaändringar som inte stöds hittades för <format> tabell: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA stöder endast parquet-tabeller, men du försöker att konvertera från en <sourceName> källa: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Det går inte att aktivera radspårning utan att samla in statistik.
Om du vill aktivera radspårning gör du följande:
- Aktivera statistikinsamling genom att köra kommandot
SET <statisticsCollectionPropertyKey> = sant
- Kör
CONVERTTODELTAutan alternativet NEJSTATISTICS.
Om du inte vill samla in statistik inaktiverar du radspårning:
- Inaktivera aktivering av tabellfunktionen som standard genom att köra kommandot:
RESET <rowTrackingTableFeatureDefaultKey>
- Inaktivera tabellegenskapen som standard genom att köra:
SET <rowTrackingDefaultPropertyKey> = falskt
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO-målet måste vara en delta-tabell.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Du försöker skapa en extern tabell <tableName>
från <path> med Delta, men schemat anges inte när
indatasökvägen är tom.
Mer information om Delta finns i <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Du försöker skapa en extern tabell <tableName> från <path> att använda Delta, men det finns ingen transaktionslogg på <logPath>. Kontrollera det överordnade jobbet för att kontrollera att det skrivs med format("delta") och att sökvägen är roten i tabellen.
Mer information om Delta finns i <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Det går inte att skapa en sökvägsbaserad Delta-tabell med en annan plats. Identifierare: <identifier>, plats: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Tabellnamn eller plats måste anges.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Det angivna schemat matchar inte det befintliga schemat på <path>.
== Angiven ==
<specifiedSchema>
== Befintlig ==
<existingSchema>
== Skillnader ==
<schemaDifferences>
Om din avsikt är att behålla det befintliga schemat kan du utelämna
schema från kommandot skapa tabell. Annars ska du se till att
schemat stämmer överens.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Det går inte att aktivera <tableFeature> tabellfunktion med hjälp av TBLPROPERTIES. Använd CREATE ELLER REPLACE TABLE CLUSTER BY för att skapa en Delta-tabell med klustring.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
De angivna klustringskolumnerna matchar inte de befintliga klustringskolumnerna på <path>.
== Angiven ==
<specifiedColumns>
== Befintlig ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Den angivna partitioneringen matchar inte den befintliga partitioneringen vid <path>.
== Angiven ==
<specifiedColumns>
== Befintlig ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
De angivna egenskaperna matchar inte de befintliga egenskaperna på <path>.
== Angiven ==
<specifiedProperties>
== Befintlig ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Det går inte att skapa tabellen (''<tableId>). Den associerade platsen (''<tableLocation>) är inte tom och inte heller en Delta-tabell.
DELTA_DATA_CHANGE_FALSE
Det går inte att ändra tabellmetadata eftersom alternativet "dataChange" är inställt på false. Försök till åtgärd: '<op>'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Det går inte att hitta filen <filePath> som refereras i transaktionsloggen. De här parquet-filerna kan tas bort enligt Deltas datalagringspolicy.
Standardvaraktighet för Delta-datakvarhållning: <logRetentionPeriod>. Ändringstid för parkettfilen: <modificationTime>. Tiden för borttagning av parquetfilen: <deletionTime>. Tas bort i Delta-versionen: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Det är ogiltigt att sända in filer med borttagningsvektorer som saknar statistik för "numRecords".
DELTA_INAKTIVERA_KÄLLMATERIALISERING_I_INFÖRERSÄTTA_PÅ_ELLER_ANVÄNDNING_EJ_TILLÅTEN
Det är inte tillåtet att inaktivera källmaterialisering i INSERT REPLACE ON/USING genom att ange "spark.databricks.delta.insertReplaceOnOrUsing.materializeSource" till "none".
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Det är inte tillåtet att inaktivera källmaterialisering i MERGE genom att ange "spark.databricks.delta.merge.materializeSource" till "none".
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
DomainMetadata-åtgärder har identifierats för domäner <domainNames>, men DomainMetadataTableFeature är inte aktiverat.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex> för att ta bort kolumn är lägre än 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Det går inte att ta bort kolumnen från ett schema med en enda kolumn. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Filåtgärden '<actionType>' för sökvägen <path> har angetts flera gånger.
Den står i konflikt med <conflictingPath>.
Det är ogiltigt med flera filoperationer med samma sökväg i en och samma commit.
DELTA_DUPLICATE_COLUMNS_FOUND
Hittade dubblettkolumner <coltype>: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Duplicera kolumnnamn i INSERT -sats.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Ta bort dubblettkolumner innan du uppdaterar tabellen.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Dubblerade data som hoppar över kolumner hittades: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Internt fel: två DomainMetadata-åtgärder inom samma transaktion har samma domän <domainName>.
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
Delta-loggen är i ett ogiltigt tillstånd: <numDuplicates> sökvägar har dubbla poster i version <version>.
RESTORE till en version före kommuniceringen som orsakade dupliceringen eller kontakta supporten för att få hjälp.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Det gick inte att deserialisera histogrammet för antal borttagna poster under verifieringen av tabellintegritet.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Läget för dynamisk partitionsöverskrivning anges av alternativ för sessionskonfiguration eller skrivning, men det inaktiveras av spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Data som används för att skapa Delta-tabellen har inga kolumner.
DELTA_EMPTY_DIRECTORY
Ingen fil hittades i katalogen: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Värdet "<value>" överskrider längdbegränsningen för tecken/varchar-typ. Misslyckad kontroll: <expr>.
DELTA_EXTERN_METADATA_OLÖST_PROJEKTION
Projektionsfrågan "<query>" kan inte lösas i schemat: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Externa metadata stöder inte källa:
Mer information finns under DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Det gick inte att omvandla partitionsvärdet <value> till <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Det gick inte att hitta <newAttributeName> bland de befintliga måldataresultaten <targetOutputColumns>.
DELTA_FAILED_INFER_SCHEMA
Det gick inte att härleda schemat från den angivna listan med filer.
DELTA_FAILED_MERGE_SCHEMA_FILE
Det gick inte att sammanfoga schemat för fil <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Det gick inte att köra åtgärden i källtabellen <sourceTable> eftersom den grunda klonen <targetTable> fortfarande finns och följande fel inträffade i den grunda klonen: <message>
DELTA_FAILED_READ_FILE_FOOTER
Det gick inte att läsa sidfoten för filen: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
Det går inte att identifiera predikatet<predicate> .
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Förvänta dig en fullständig genomsökning av den senaste versionen av Delta-källan, men hittade en historisk genomsökning av version <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
Det gick inte att sammanfoga fälten '<currentField>' och '<updateField>'.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Det går inte att använda den här tabellen eftersom följande tabellfunktioner är aktiverade i metadata men inte i protokollet: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Tabellschemat kräver manuellt aktivering av följande tabellfunktioner: <unsupportedFeatures>.
Det gör du genom att köra följande kommando för var och en av de funktioner som anges ovan:
ALTER TABLE
SET TBLPROPERTIES table_name ("delta.feature.feature_name" = "stöds")
Ersätt "table_name" och "feature_name" med verkliga värden.
Aktuella funktioner som stöds: <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Det gick inte att släppa funktionen Kontrollpunktsskydd.
Den här funktionen kan bara tas bort genom att trunkera historiken.
Försök igen med alternativet TRUNCATE HISTORY:
ALTER TABLE tabell_namn DROP FEATURE kontrollpunktsskydd TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Det gick inte att ta bort <featureName> på grund av ett fel när kontrollpunkten skapades.
Försök igen senare. Om problemet kvarstår, kontakta Databricks-supporten.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Åtgärden lyckades inte eftersom det fortfarande finns spår av borttagna funktioner
i tabellhistoriken. CheckpointProtection kan inte tas bort förrän dessa historiska
versioner har upphört att gälla.
Om du vill släppa CheckpointProtection väntar du på att de historiska versionerna ska
Låt det upphöra och upprepa sedan det här kommandot. Kvarhållningsperioden för historiska versioner är
har för närvarande konfigurerats till <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Det går inte att släppa funktionen eftersom en samtidig transaktion ändrade tabellen.
Försök att utföra operationen igen.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Det går inte att ta bort tabellfunktionen <feature> eftersom vissa andra funktioner (<dependentFeatures>) i den här tabellen är beroende av <feature>.
Överväg att ta bort dem först innan du släpper den här funktionen.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Det går inte att ta bort <property> från den här tabellen eftersom det här är en deltatabellegenskap och inte en tabellfunktion.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Det går inte att ta bort <feature> den här tabellen eftersom den för närvarande inte finns i tabellens protokoll.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Det går inte att släppa <feature> eftersom Delta-loggen innehåller historiska versioner som använder funktionen.
Vänligen vänta tills kvarhållningsperioden för historiken (<logRetentionPeriodKey>=<logRetentionPeriod>)
tiden har gått sedan funktionen senast var aktiv.
Alternativt kan du vänta tills kvarhållningsperioden för TRUNCATE HISTORY upphör att gälla (<truncateHistoryLogRetentionPeriod>)
och kör sedan:
ALTER TABLE tabellnamn DROP FEATURE egenskapsnamn TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Den specifika funktionen kräver inte historiktrunkering.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Det går inte att släppa <feature> eftersom det inte går att ta bort den här funktionen.
Kontakta Databricks-supporten.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Det går inte att släppa <feature> eftersom den inte stöds av den här Databricks-versionen.
Överväg att använda Databricks med en högre version.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Att släppa <feature> lyckades delvis.
Funktionen används nu inte längre i den aktuella versionen av tabellen. Men funktionen
finns fortfarande i historiska versioner av tabellen. Det går inte att ta bort tabellfunktionen
från tabellprotokollet tills dessa historiska versioner har upphört att gälla.
Om du vill ta bort tabellfunktionen från protokollet väntar du på att de historiska versionerna ska
Låt det upphöra och upprepa sedan det här kommandot. Kvarhållningsperioden för historiska versioner är
för närvarande konfigurerad som <logRetentionPeriodKey>=<logRetentionPeriod>.
Alternativt kan du vänta tills kvarhållningsperioden för TRUNCATE HISTORY upphör att gälla (<truncateHistoryLogRetentionPeriod>)
och kör sedan:
ALTER TABLE tabellnamn DROP FEATURE egenskapsnamn TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Det går inte att aktivera tabellfunktionen <feature> eftersom den kräver en högre version av läsarprotokollet (aktuell <current>). Överväg att uppgradera tabellens läsarprotokollversion till <required>eller till en version som stöder läsartabellfunktioner. Mer information om tabellprotokollversioner finns i <docLink>.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Det går inte att aktivera tabellfunktionen <feature> eftersom den kräver en högre version av skrivprotokollet (aktuell <current>). Överväg att uppgradera tabellens skrivprotokollversion till <required>, eller till en version som stöder skrivartabellfunktioner. Mer information om tabellprotokollversioner finns i <docLink>.
DELTA_FILE_ALREADY_EXISTS
Befintlig filsökväg <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Det går inte att ange både fillista och mönstersträng.
DELTA_FILE_NOT_FOUND
Filsökväg <path>.
DELTA_FILE_NOT_FOUND_DETAILED
Det går inte att hitta filen <filePath> som refereras i transaktionsloggen. Detta inträffar när data har tagits bort manuellt från filsystemet i stället för att använda tabellen DELETE-instruktionen. Mer information finns i <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Ingen sådan fil eller katalog: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Filen (<path>) som ska skrivas om hittades inte bland kandidatfilerna:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
En typ av karta hittades. För att få åtkomst till nyckeln eller värdet för en MapType anger du en
of:
<key> eller
<value>
följt av namnet på kolumnen (endast om den kolumnen är en structtyp).
till exempel mymap.key.mykey
Om kolumnen är en grundläggande typ räcker det med mymap.key eller mymap.value.
Schema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Kolumn <columnName> har datatyp <columnType> och kan inte ändras till datatyp <dataType> eftersom den här kolumnen refereras av följande genererade kolumner:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Det går inte att ändra kolumn <columnName> eftersom den här kolumnen refereras av följande genererade kolumner:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Uttryckstypen för den genererade kolumnen <columnName> är <expressionType>, men kolumntypen är <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Kolumn <currentName> är en genererad kolumn eller en kolumn som används av en genererad kolumn. Datatypen är <currentDataType> och kan inte konverteras till datatypen <updateDataType>.
DELTA_GEOSPATIAL_NOT_SUPPORTED
Geospatiala typer stöds inte i den här versionen av Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
Geospatial typ har ett srid som inte stöds: <srid>. Deltatabeller stöder endast icke-negativa srid-värden.
DELTA_ICEBERG_COMPAT_VIOLATION
Valideringen av IcebergCompatV<version> misslyckades.
För mer information, se DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Valideringen av IcebergWriterCompatV<version> misslyckades.
För mer information, se DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN stöds inte för IDENTITY kolumner.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY stöds endast av Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY kan inte anropas på kolumner som inte är IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Det går inte att ange värden för GENERATED ALWAYS AS IDENTITY kolumn <colName>.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY kolumnsteg får inte vara 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY kolumner stöds endast av Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY kolumn <colName> stöds inte.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS stöds inte för tabell med IDENTITY kolumner.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType-<dataType> stöds inte för IDENTITY kolumner.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE på IDENTITY kolumn <colName> stöds inte.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY kolumn kan inte anges med ett genererat kolumnuttryck.
DELTA_ILLEGAL_OPTION
Ogiltigt värde för<input> alternativet ,<name><explain>
DELTA_ILLEGAL_USAGE
Användning av <option> tillåts inte när <operation> en Delta-tabell.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec i den bucketade deltatabellen matchar inte BucketSpec från metadata. Förväntad: <expected>. Faktiskt: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) kan inte anges till olika värden. Ange bara en av dem eller ange samma värde.
DELTA_INCORRECT_ARRAY_ACCESS
Felaktig åtkomst av en ArrayType. Använd arrayname.element.elementname-position för att
lägg till i en array.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
En ArrayType hittades. För att få åtkomst till element i en "ArrayType" anger du
<rightName> i stället för <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Använd getConf() i stället för conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Felet uppstår vanligtvis när standardimplementeringen av LogStore används.
är, HDFSLogStore, används för att skriva till en Delta-tabell på ett icke-HDFS-lagringssystem.
För att få ACID-transaktionsgarantierna för uppdateringar av tabeller måste du använda
korrekt implementering av LogStore som är lämplig för ditt lagringssystem.
Mer information finns i <docLink>.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Index <index> för att ta bort en kolumn är lika med eller större än strukturens längd: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
Index <index> för att lägga till kolumnen <columnName> är större än structlängden: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Kan inte skriva till '<tableName>', <columnName>; måltabellen har <numColumns> kolumner, men de infogade uppgifterna har <insertColumns> kolumner.
DELTA_INSERT_COLUMN_MISMATCH
Kolumnen <columnName> anges inte i INSERT.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
Kolumnerna <columnNames> är tvetydiga i villkoret INSERT REPLACE ON. Överväg att ange ett alias för dessa kolumner.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Kontakta din Databricks-representant för att aktivera INSERT INTO ... ... REPLACE ON SQL- och DataFrame-API:er.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
Kolumn/kolumner <columnNames> kan inte lösas i villkoret för INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Ogiltig autokomprimeringstyp: <value>. Tillåtna värden är: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Ogiltigt antal behållare: <invalidBucketCount>. Antalet skopor ska vara ett positivt tal som är en potens av 2 och minst 8. Du kan använda <validBucketCount> i stället.
DELTA_INVALID_BUCKET_INDEX
Det går inte att hitta bucketkolumnen i partitionskolumnerna.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Intervallet får inte vara null eller tomt.
DELTA_INVALID_CDC_RANGE
CDC-intervallet från start <start> till slut <end> var ogiltigt. Slutet får inte vara före start.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Attributnamnet "<columnName>" innehåller ogiltiga tecken bland " ,;{}()\\n\\t=". Använd alias för att byta namn på det.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Ogiltiga tecken hittades bland ' ,;{}()\n\t=' kolumnnamnen i schemat.
Ogiltiga kolumnnamn: <invalidColumnNames>.
Använd andra tecken och försök igen.
Du kan också aktivera kolumnmappning för att fortsätta använda dessa tecken.
DELTA_INVALID_CLONE_PATH
Målplatsen för CLONE måste vara en absolut sökväg eller ett tabellnamn. Använda en
Använd absolut sökväg istället för <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Ogiltiga tecken hittades bland ' ,;{}()\n\t=' kolumnnamnen i schemat.
Ogiltiga kolumnnamn: <invalidColumnNames>.
Det går inte att ta bort kolumnmappning när det finns ogiltiga tecken i kolumnnamnen.
Byt namn på kolumnerna för att ta bort de ogiltiga tecknen och kör det här kommandot igen.
DELTA_INVALID_FORMAT
Inkompatibelt format har identifierats.
En transaktionslogg för Delta hittades på <deltaRootPath>/_delta_log,
men du försöker att använda <operation> <path> med format("<format>"). Du måste använda
format("delta") när man läser och skriver till en deltatabell.
Mer information om Delta finns i <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
En genererad kolumn kan inte använda en obefintlig kolumn eller en annan genererad kolumn.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ogiltiga alternativ för idempotenta Dataframe-skrivningar: <reason>
DELTA_INVALID_INTERVAL
<interval> är inte ett giltigt INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
Schemat för den angivna INVENTORY innehåller inte alla obligatoriska fält. Obligatoriska fält är: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
ogiltig isoleringsnivå '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) och (<schemeConfig>) kan inte anges samtidigt. Ange endast en grupp av dem.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Du försöker skapa en hanterad tabell <tableName>
med Delta, men schemat har inte angetts.
Mer information om Delta finns i <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> är inte en giltig partitionskolumn i tabellen <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Hittade partitionskolumner med ogiltiga tecken bland " ,;{}()\n\t=". Vänligen ändra namnet på dina partitionskolumner. Den här kontrollen kan inaktiveras genom att ställa in spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), men detta rekommenderas inte eftersom andra funktioner i Delta kanske inte fungerar korrekt.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Det går inte att använda kolumn <name> av typen <dataType> som en partitionskolumn.
DELTA_INVALID_PARTITION_PATH
Ett fragment av en partitionsväg bör ha formen part1=foo/part2=bar. Partitionssökvägen: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
Protokollversionen kan inte nedgraderas från (<oldProtocol>) till (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Delta-protokollversion som inte stöds: tabellen "<tableNameOrPath>" kräver läsarversion <readerRequired> och skrivarversion <writerRequired>, men den här versionen av Databricks stöder läsarversioner <supportedReaders> och skrivarversioner <supportedWriters>. Uppgradera till en nyare version.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Funktion <function> är en tabellvärdesfunktion som inte stöds för CDC-läsningar.
DELTA_INVALID_TIMESTAMP_FORMAT
Den angivna tidsstämpeln <timestamp> matchar inte den förväntade syntaxen <format>.
DELTA_LOG_ALREADY_EXISTS
En Delta-logg finns redan på <path>.
DELTA_LOG_FILE_NOT_FOUND
Det går inte att hämta deltaloggfilerna för att konstruera tabellversionen <version> från och med kontrollpunktsversionen <checkpointVersion> vid <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Om du aldrig har tagit bort den är det troligt att frågan släpar efter. Ta bort kontrollpunkten för att starta om från början. För att undvika att detta händer igen kan du uppdatera lagringspolicyn för Deltatabellen.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Materialiserat <rowTrackingColumn> kolumnnamn saknas för <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Använd en gräns som är mindre än Int.MaxValue – 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Den här ändringen misslyckades eftersom den har försökt <numAttempts> gånger men den lyckades inte.
Detta kan orsakas av att Delta-tabellen bekräftas kontinuerligt av många parallella
commits.
Commiten startades vid version: <startVersion>
Incheckning misslyckades vid version: <failVersion>
Antal åtgärder som man har försökt att begå: <numActions>
Total tid spenderad på att försöka utföra åtagandet: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
Fillistan måste ha högst <maxFileListSize> poster, hade <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Det går inte att lägga till kolumn <newColumn> med typen VOID. Ange uttryckligen en icke-void-typ.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Det gick inte att sammanfoga inkompatibla datatyper <currentDataType> och <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Det gick inte att sammanfoga decimaltyper med inkompatibla <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Det har upprepade gånger misslyckats att materialisera källan till MERGE-instruktionen.
DELTA_MERGE_MISSING_WHEN
Det måste finnas minst en WHEN-sats i en MERGE-instruktion.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Lösta attribut <missingAttributes> som saknas i <input> operatorn <merge>.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
Åtgärden MERGE misslyckades eftersom (en del av) källplanen cachelagrades medan MERGE åtgärden kördes.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Oväntad tilldelningsnyckel: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Det går inte att matcha <sqlExpr> i <clause> angivna kolumner <cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: Metadata för Delta-tabellen har ändrats av en samtidig uppdatering. Försök igen.<conflictingCommit>
Mer information finns i <docLink>.
DELTA_MISSING_CHANGE_DATA
Det gick inte att hämta ändringsdata för intervallet [<startVersion> , <endVersion>] eftersom ändringsdata inte var tillgängliga.
inspelad för version [<version>]. Om du har aktiverat ändringsdataflöde i den här tabellen,
använd DESCRIBE HISTORY för att se när den först aktiverades.
Om du vill börja spela in ändringsdata använder du annars ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true)'.
DELTA_MISSING_COLUMN
Det går inte att hitta <columnName> i tabellkolumner: <columnList>.
DELTA_MISSING_COMMIT_INFO
Den här tabellen har funktionen <featureName> aktiverad, vilket kräver närvaro av CommitInfo-åtgärden i varje incheckning. CommitInfo-åtgärden saknas dock i incheckningsversionen <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Den här tabellen har funktionen <featureName> aktiverad, vilket kräver närvaro av commitTimestamp i CommitInfo-åtgärden. Detta fält har dock inte angetts i kommittversionsnummer <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> är inte en Delta-tabell.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabellen finns inte. Skapa en tom Delta-tabell först med hjälp av CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
Apache Iceberg-klassen hittades inte. Se till att Delta Apache Iceberg-supporten är installerad.
Mer information finns i <docLink>.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Kolumn <columnName>, som har en NOT NULL begränsning, saknas i de data som skrivs till tabellen.
DELTA_MISSING_PARTITION_COLUMN
Det gick inte att hitta partitionskolumnen <columnName> i schemat <columnList>.
DELTA_MISSING_PART_FILES
Det gick inte att hitta alla delfiler i kontrollpunktsversionen: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA stöder endast parquet-tabeller. Skriv om målet som parquet.
<path> om det är en parquet-katalog.
DELTA_MISSING_SET_COLUMN
SET kolumn <columnName> hittades inte bland de angivna kolumnerna: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Inkompatibelt format har identifierats.
Du försöker att använda <operation> <path> med Delta, men det finns ingen anslutning
transaktionsloggen finns. Kontrollera det överordnade jobbet för att se till att det skrivs
med format("delta") och att du försöker att %1$s basvägen för tabellen.
Mer information om Delta finns i <docLink>
DELTA_MODE_NOT_SUPPORTED
Det angivna läget '<mode>' stöds inte. Driftlägen som stöds är: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Flera <startingOrEnding> argument tillhandahålls för CDC-läsning. Ange någon av <startingOrEnding>tidsstämpel eller <startingOrEnding>version.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Flera bloom-filterindexkonfigurationer skickades till kommandot för kolumnen: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Det går inte att utföra Sammanslagning eftersom flera källrader matchade och försökte ändra samma målrad i Delta-tabellen på potentiellt motstridiga sätt. När flera källrader matchar på samma målrad i SQL-semantiken i Merge kan resultatet vara tvetydigt eftersom det är oklart vilken källrad som ska användas för att uppdatera eller ta bort den matchande målraden. Du kan förbearbeta källtabellen för att eliminera risken för flera matchningar. Vänligen hänvisa till
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Under <command>, antingen sätts båda konfigurationerna för koordinerade incheckningar ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") i kommandot eller ingen av dem. Saknas: "<configuration>". Ange den här konfigurationen i TBLPROPERTIES-satsen eller ta bort den andra konfigurationen och försök sedan igen.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Under <command>, antingen båda konfigurationerna för koordinerade incheckningar ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") ställs in i SparkSession-konfigurationerna eller ingen av dem. Saknas: "<configuration>". Ange den här konfigurationen i SparkSession eller ta bort den andra konfigurationen och försök sedan igen.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Följande kolumnnamn är endast reserverade för intern användning av delta bucketed table: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
Indataschemat innehåller kapslade fält vars versalisering skiljer sig från måltabellens.
De måste byta namn för att undvika dataförlust i dessa fält när de skrivs till Delta.
Fields:
<fields>.
Ursprungligt schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Fältets <nestType> typ <parent> innehåller en NOT NULL begränsning. Delta stöder inte NOT NULL begränsningar kapslade i matriser eller kartor. Om du vill ignorera det här felet och tyst ignorera de angivna begränsningarna anger du <configKey> = true.
Parsad <nestType> typ:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Kapslad underfråga stöds inte i villkoret <operation>.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> raderna i <tableName> bryter mot den nya CHECK begränsningen (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> raderna i <tableName> bryter mot den nya NOT NULL begränsningen för <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK villkoret '<name>' (<expr>) ska vara ett booleskt uttryck.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Hittade <expr>. En genererad kolumn kan inte använda ett icke-deterministiskt uttryck.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Icke-deterministiska funktioner stöds inte i <operation> <expression>.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Om det finns fler än en MATCHED-satser i en MERGE-instruktion kan endast den sista MATCHED-satsen utelämna villkoret.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Om det finns fler än en NOT MATCHED BY SOURCE-satser i en MERGE-instruktion kan endast den sista NOT MATCHED BY SOURCE-satsen utelämna villkoret.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Om det finns fler än en NOT MATCHED-satser i en MERGE-instruktion kan endast den sista NOT MATCHED-satsen utelämna villkoret.
DELTA_NON_PARSABLE_TAG
Det gick inte att parsa taggen <tag>.
Filtaggar är: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Data som skrivs till Delta måste innehålla minst en icke-partitionerad kolumn.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predikat refererar till en icke-partitionerad kolumn '<columnName>'. Endast partitionskolumnerna kan refereras till: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Kolumner som inte partitioneras <columnList> anges där endast partitioneringskolumner förväntas: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Deltakatalogen kräver ett namnområde med en enda del, men <identifier> är flera delar.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Det går inte att ange incheckningskoordinatorn till<nonUcCoordinatorName> från kommandot eftersom UC-hanterade tabeller bara kan ha "unity-catalog" som incheckningskoordinator. Ändra den antingen till "unity-catalog" eller ta bort alla tabellegenskaper för koordinerade incheckningar från TBLPROPERTIES -satsen och försök sedan kommandot igen.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Det går inte att ange commit-koordinatorn till '<nonUcCoordinatorName>' från SparkSession-konfigurationer eftersom UC-hanterade tabeller endast kan ha "unity-catalog" som commit-koordinator. Ändra den antingen till "unity-catalog" genom att köra spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")eller ta bort alla tabellegenskaper för koordinerade incheckningar från SparkSession-konfigurationerna genom att köra spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")och försök sedan köra kommandot igen.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> är inte en Delta-tabell. Ta bort den här tabellen först om du vill skapa den med Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName> är inte en Delta-tabell. Ta bort tabellen först om du vill återskapa den med Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Det gick inte att hitta en icke-nullbar kolumn i struct: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL villkor som har brutits för kolumnen: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Ett icke-nullbart kapslat fält kan inte läggas till en nullbar förälder. Ange nullbarheten för den överordnade kolumnen i enlighet med detta.
DELTA_NO_COMMITS_FOUND
Inga ändringar hittades vid <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Inga reproducerbara commit-ar hittades på <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Åtgärden är inte tillåten: <operation> kan inte utföras i en tabell med omdirigeringsfunktionen.
Omdirigeringsreglerna uppfylls inte <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Det går inte att hitta tabellen <tableIdent> .
DELTA_NO_START_FOR_CDC_READ
Ingen startingVersion eller startingTimestamp har angetts för CDC-läsning.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta accepterar inte NullTypes i schemat för strömningsskrivningar.
DELTA_ONEOF_IN_TIMETRAVEL
Ange antingen "timestampAsOf" eller "versionAsOf" för tidsresor.
DELTA_ONLY_OPERATION
<operation> stöds endast för Delta-tabeller.
DELTA_OPERATION_MISSING_PATH
Ange sökvägen eller tabellidentifieraren för <operation>.
DELTA_OPERATION_NOT_ALLOWED
Åtgärden är inte tillåten: <operation> stöds inte för Delta-tabeller.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Åtgärden är inte tillåten: <operation> stöds inte för Delta-tabeller: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> stöds inte för kolumn <colName> med icke-standardsortering <collation>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> stöds inte för datatyper: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> stöds inte för uttryck <exprText> eftersom den använder icke-standardsortering.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> kommando i en temporär vy som refererar till en Delta-tabell som innehåller genererade kolumner stöds inte. Kör <operation> kommandot i deltatabellen direkt.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Åtgärden är inte tillåten: <operation> kan inte utföras i en vy.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL stöds endast för klustrade tabeller med icke-tomma klustringskolumner.
DELTA_OVERWRITE_MUST_BE_TRUE
Kopieringsalternativet overwriteSchema kan inte anges utan att ange OVERWRITE = "true".
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
"overwriteSchema" kan inte användas i dynamisk partitionsöverskrivningsläge.
DELTA_PARTITION_COLUMN_CAST_FAILED
Det gick inte att omvandla värdet <value> till <dataType> för partitionskolumnen <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Partitionskolumnen <columnName> hittades inte i schemat [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Partitionsschemat kan inte anges vid konvertering av isbergstabeller. Den härleds automatiskt.
DELTA_VÄGBASERAD_ÅTKOMST_TILL_TABELL_BLOCKERAD
Tabellen på <path> har migrerats till en hanterad unity-katalogtabell och kan inte längre nås via sökväg. Uppdatera klienten för att komma åt tabellen efter namn.
DELTA_PATH_DOES_NOT_EXIST
<path> finns inte eller är inte en Delta-tabell.
DELTA_PATH_EXISTS
Det går inte att skriva till en befintlig sökväg <path> utan att ange OVERWRITE = "true".
DELTA_POST_COMMIT_HOOK_FAILED
Incheckning av Delta-tabellversion <version> lyckades, men ett fel uppstod vid körning av post-commit-krok <name> <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Protokollversionen av Delta-tabellen har ändrats av en samtidig uppdatering. <additionalInfo> <conflictingCommit>
Mer information finns i <docLink>.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protokollegenskapen <key> måste vara ett heltal. Hittade <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Det går inte att uppgradera endast läsarprotokollversionen för att använda tabellfunktioner. Skrivarens protokollversion måste vara minst <writerVersion> för att kunna fortsätta. Mer information om tabellprotokollversioner finns i <docLink>.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Du försöker läsa en Delta-tabell <tableName> som inte har några kolumner.
Skriv några nya data med alternativet mergeSchema = true för att kunna läsa tabellen.
DELTA_REGEX_OPT_SYNTAX_ERROR
Kontrollera syntaxen för "<regExpOption>".
DELTA_RELATION_PATH_MISMATCH
Relationssökvägen '<relation>' matchar inte med <targetType>s sökväg '<targetPath>'.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Du kan inte använda replaceWhere tillsammans med en överskrivning baserad på filter.
DELTA_REPLACE_WHERE_MISMATCH
Skrivna data överensstämmer inte med villkoret eller begränsningen "<replaceWhere>" för partiell överskrivning av tabellen.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ett "replaceWhere"-uttryck och "partitionOverwriteMode"='dynamic' kan inte båda anges i alternativen DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
"replaceWhere" kan inte användas med datafilter när "dataChange" är inställt på false. Filter: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Det går inte att tilldela rad-ID utan statistik över antal rader.
Samla in statistik för tabellen genom att ANALYZE TABLE köra kommandot:
ANALYZE TABLE tabellNamn COMPUTE DELTA STATISTICS
DELTA_RADSPÅRNING_EFTERFYLLNING_KÖR_PARALLELLT_MED_IKKEEFTERFYLLNING
En aktiveringsåtgärd för radspårning identifierades som körs samtidigt med en inaktiverad radspårning. Avbryter avaktiveringsoperationen. Försök att inaktivera igen om det behövs när aktiveringsåtgärden är klar.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Ogiltigt tabelltillstånd har identifierats. Tabellegenskaper <property1> och <property2> är båda inställda på true. Problemet kan lösas genom att inaktivera någon av de två tabellegenskaperna.
Kontakta Databricks support för ytterligare hjälp.
DELTA_SCHEMA_CHANGED
Schemaändring har identifierats:
schema för direktuppspelningskälla: <readSchema>
datafilschema: <dataSchema>
Försök att starta om frågan. Om det här problemet upprepas mellan frågeomstarter utan
När du gör framsteg, har du gjort en inkompatibel schemaändring och behöver starta din
fråga från grunden med hjälp av en ny kontrollpunktskatalog.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Schemaändring i version <version>upptäcktes:
schema för direktuppspelningskälla: <readSchema>
datafilschema: <dataSchema>
Försök att starta om frågan. Om det här problemet upprepas mellan frågeomstarter utan
När du gör framsteg, har du gjort en inkompatibel schemaändring och behöver starta din
fråga från grunden med hjälp av en ny kontrollpunktskatalog. Om problemet kvarstår efter
om du ändrar till en ny kontrollpunktskatalog kan du behöva ändra den befintliga
"startingVersion" eller "startingTimestamp"-alternativet för att starta från en version som är nyare än
<version> med en ny kontrollpunktskatalog.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Schemaändring i version <version>upptäcktes:
schema för direktuppspelningskälla: <readSchema>
datafilschema: <dataSchema>
Försök att starta om frågan. Om det här problemet upprepas mellan frågeomstarter utan
När du gör framsteg, har du gjort en inkompatibel schemaändring och behöver starta din
fråga från grunden med hjälp av en ny kontrollpunktskatalog.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Schemat för deltatabellen har ändrats på ett inkompatibelt sätt eftersom dataramen
eller DeltaTable-objektet skapades. Omdefiniera ditt DataFrame- eller DeltaTable-objekt.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Tabellschema har inte angetts. Ange schemat (kolumndefinitionen) för tabellen när du använder REPLACE tabell och en AS-SELECT fråga inte har angetts.
DELTA_SCHEMA_NOT_SET
Tabellschemat har inte angetts. Skriv data till den eller använd CREATE TABLE för att ange schemat.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Schemat för den nya Delta-platsen skiljer sig från det aktuella tabellschemat.
ursprungligt schema:
<original>
målschema:
<destination>
Om detta är en avsedd ändring kan du inaktivera den här kontrollen genom att köra:
%%sql ställ in <config> = sant
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Det går inte att hitta filen <filePath> som refereras i transaktionsloggen. Detta kan inträffa när data har tagits bort manuellt från filsystemet i stället för att använda tabellen DELETE-instruktionen. Den här tabellen verkar vara en ytlig klon, om så är fallet kan det här felet inträffa när den ursprungliga tabellen som tabellen klonades från har tagit bort en fil som klonen fortfarande använder. Om du vill att kloner ska vara oberoende av den ursprungliga tabellen använder du en DEEP-klon i stället.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Fördefinierade egenskaper som börjar med <prefix> kan inte ändras.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Data begränsas av mottagaregenskapen <property> som inte gäller för den aktuella mottagaren i sessionen.
Mer information finns i DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> kan inte användas i Delta Sharing-vyer som delas över konton.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Ogiltig autentiseringstyp <authenticationType> för providern <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Ogiltig autentiseringstyp <authenticationType> för mottagare <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ogiltigt namn för att referera till en <type> i en resurs. Du kan antingen använda <type>:s namn inom delningen enligt formatet [schema].[<type>], eller kan du använda tabellens ursprungliga fullständiga namn efter formatet [katalog].[schema].[>typ>].
Om du är osäker på vilket namn du ska använda kan du köra [SHOW ALL IN SHARE share]" och hitta namnet på den <type> som ska tas bort: kolumnen "name" är <type>namnet i resursen och kolumnen "shared_object" är <type>det ursprungliga fullständiga namnet.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Det finns fler än två token för mottagaren <recipient>.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Mottagaregenskapen <property> finns inte.
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
Mottagartoken saknas för mottagare <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Kolumner som inte partitioneras, <badCols>, anges för SHOW PARTITIONS.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS tillåts inte i en tabell som inte är partitionerad: <tableName>.
DELTA_SOURCE_IGNORE_DELETE
Identifierade borttagna data (till exempel <removedFile>) från strömmande källa vid version <version>. Detta stöds inte för närvarande. Om du vill ignorera borttagningar anger du alternativet "ignoreDeletes" till "true". Källtabellen finns på sökvägen <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Identifierade en datauppdatering (till exempel <file>) i källtabellen vid version <version>. Detta stöds inte för närvarande. Om detta kommer att ske regelbundet och du är okej att hoppa över ändringar anger du alternativet "skipChangeCommits" till "true". Om du vill att datauppdateringen ska återspeglas, starta om denna förfrågan med en ny kontrollpunktskatalog eller gör en fullständig uppdatering om du använder deklarativa pipelines för Lakeflow. Om du behöver hantera dessa ändringar, vänligen växla till MVs. Källtabellen finns på sökvägen <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Ange antingen "<version>" eller "<timestamp>".
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> statistik hittades inte för kolumnen i Parquet-metadata: <columnPath>.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Vi har identifierat en eller flera icke-additiva schemaändringar (<opType>) mellan Delta-versionen <previousSchemaChangeVersion> och <currentSchemaChangeVersion> i Delta-strömningskällan.
Changes:
<columnChangeDetails>
Kontrollera om du vill sprida schemaändringarna manuellt till mottagartabellen innan vi fortsätter med dataströmbearbetningen med det slutfört schemat i version <currentSchemaChangeVersion>.
När du har korrigerat schemat för mottagartabellen eller har bestämt att det inte finns något behov av att åtgärda det kan du ange följande konfigurationer för att avblockera icke-additiva schemaändringar och fortsätta dataströmbearbetningen.
Användning av dataframe-läsaralternativ:
Om du vill avblockera för den här dataströmmen bara för den här serien med schemaändringar:
<unblockChangeOptions>
Så här avblockar du för den här dataströmmen:
<unblockStreamOptions>
Använda SQL-konfigurationer:
Om du vill avblockera för den här dataströmmen bara för den här serien med schemaändringar:
<unblockChangeConfs>
Så här avblockar du för den här dataströmmen:
<unblockStreamConfs>
Avblockera för alla strömmar:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Det gick inte att hämta deltaloggögonblicksbilden för startversionen vid kontroll av schemaändringar för kolumnmappning. Välj en annan startversion eller framtvinga aktivering av direktuppspelning på egen risk genom att ställa in "<config>" på "sant".
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Direktuppspelningsläsning stöds inte i tabeller med läs-inkompatibla schemaändringar (till exempel, byt namn, ta bort eller ändra datatype).
Mer information och möjliga nästa steg för att lösa problemet finns i dokumentationen på <docLink>
Läs schema: <readSchema>. Inkompatibelt dataschema: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Direktuppspelningsläsning stöds inte i tabeller med läs-inkompatibla schemaändringar (till exempel, byt namn, ta bort eller ändra datatype).
Ange en 'schemaTrackingLocation' för att möjliggöra icke-additiv schemaevolution för Delta-strömbearbetning.
Mer information finns i <docLink>.
Läs schema: <readSchema>. Inkompatibelt dataschema: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
Schemat, tabellkonfigurationen eller protokollet för deltatabellen har ändrats under strömning.
Loggen för schema- eller metadataspårning har uppdaterats.
Starta om strömmen för att fortsätta bearbetningen med hjälp av uppdaterade metadata.
Uppdaterat schema: <schema>.
Uppdaterade tabellkonfigurationer: <config>.
Uppdaterat tabellprotokoll: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Direktuppspelning från källtabellen <tableId> med schemaspårning stöder inte radfilter eller kolumnmasker.
Ta bort radfilter eller kolumnmasker eller inaktivera schemaspårning.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
En motstridig schemaplats '<loc>' upptäcktes när data strömmades från en tabell eller en tabell som finns på '<table>'.
En annan ström kan återanvända samma schemaplats, vilket inte är tillåtet.
Ange en ny unik schemaTrackingLocation sökväg eller streamingSourceTrackingId som ett läsalternativ för en av strömmarna från den här tabellen.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Schemaplatsen '<schemaTrackingLocation>' måste placeras under kontrollpunktsplatsen '<checkpointLocation>'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Ofullständig loggfil i deltaströmningskällans schemalogg på '<location>'.
Schemaloggen kan ha skadats. Välj en ny schemaplats.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Inkompatibelt Delta-tabell-ID upptäcktes när man försökte läsa deltaströmmen.
Beständiga tabell-ID: <persistedId>, Tabell-ID: <tableId>
Schemaloggen kan ha återanvändits. Välj en ny schemaplats.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Ett inkompatibelt partitionsschema upptäcktes när deltaströmmen skulle läsas.
Beständigt schema: <persistedSchema>, Delta-partitionsschema: <partitionSchema>
Välj en ny schemaplats för att initiera schemaloggen igen om du nyligen har ändrat tabellens partitionsschema manuellt.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Det gick inte att initiera schemaloggen för Delta-strömningskällan eftersom
Vi har upptäckt en inkompatibel schema- eller protokolländring när vi serverade en strömningsbatch från tabellversion <a> till <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Det gick inte att parsa schemat från schemaloggen för deltaströmningskällan.
Schemaloggen kan ha skadats. Välj en ny schemaplats.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Det går inte att aktivera Ändringsdatainsamling i tabellen. Tabellen innehåller redan
reserverade kolumner <columnList> som kommer att
användas internt som metadata för tabellens ändringsdataflöde. Så här aktiverar du
Ändra dataflöde i tabellen byt namn på/släpp dessa kolumner.
DELTA_TABLE_ALREADY_EXISTS
Tabell <tableName> finns redan.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
För närvarande stöder DeltaTable.forPath endast hadoop-konfigurationsnycklar som börjar med <allowedPrefixes> men fick <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
Delta-tabellen på <tableLocation> har ersatts medan det här kommandot använde tabellen.
Tabell-ID var <oldId> men är nu <newId>.
Försök igen med det aktuella kommandot för att se till att det läser en konsekvent vy av tabellen.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Det gick inte att uppdatera tabellomdirigeringstillståndet: Ett försök till ogiltig tillståndsövergång gjordes.
Delta-tabellen kan<table> inte ändras från "<oldState>" till "<newState>".
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
Det går inte att SET eller UNSET omdirigera egenskapen på <table>: den aktuella egenskapen '<currentProperty>' stämmer inte överens med den nya egenskapen '<newProperty>'.
DELTA_TABLE_LOCATION_MISMATCH
Platsen för den befintliga tabellen <tableName> är <existingTableLocation>. Den matchar inte den angivna platsen <tableLocation>.
DELTA_TABLE_NOT_FOUND
Deltatabellen <tableName> finns inte.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabellen stöds inte i <operation>. Vänligen använd en sökväg i stället.
DELTA_TABLE_ONLY_OPERATION
<tableName> är inte en Delta-tabell.
<operation> stöds endast för Delta-tabeller.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Delta-loggen innehåller omdirigeringsspecifikationen<spec> för okänd tabell.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Slutschemat för måltabellen är tomt.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Den angivna tidsstämpeln (<providedTimestamp>) är efter den senaste versionen som är tillgänglig för detta
tabell (<tableName>). Använd en tidsstämpel före eller vid <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
Den angivna tidsstämpeln (<expr>) kan inte konverteras till en giltig tidsstämpel.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> måste vara ett giltigt startvärde.
DELTA_TOO_MUCH_LISTING_MEMORY
Det gick inte att lista filer (<numFiles>) i Delta-tabellen på grund av otillräckligt minne. Nödvändigt minne: <estimatedMemory>, tillgängligt minne: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: Det går inte att rekonstruera tillståndet vid version <version> eftersom transaktionsloggen har trunkerats på grund av manuell borttagning eller kvarhållningsprincipen för loggen (<logRetentionKey>=<logRetention>) och kvarhållningsprincipen för kontrollpunkter (<checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Åtgärden är inte tillåten: TRUNCATE TABLE i Delta-tabeller stöder inte partitionspredikat. använd DELETE för att ta bort specifika partitioner eller rader.
DELTA_UDF_IN_GENERATED_COLUMN
Hittade <udfExpr>. En genererad kolumn kan inte använda en användardefinierad funktion.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Oväntat åtgärdsuttryck <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Förväntade <expectedColsSize> partitionskolumner: <expectedCols>, men hittade <parsedColsSize> partitionskolumner: <parsedCols> vid analys av filnamnet: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Förvänta dig en fullständig genomsökning av Delta-källor, men enbart en partiell genomsökning hittades. Sökväg: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Förväntade partitionskolumnen <expectedCol>, men hittade partitionskolumnen <parsedCol> från att parsa filnamnet: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA anropades med ett partitionsschema som skiljer sig från det partitionsschema som härleds från katalogen bör du undvika att ange schemat så att partitionsschemat kan väljas från katalogen.
katalogpartitionsschema:
<catalogPartitionSchema>
angivet partitionsschema:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location kan inte ändras.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location är inte registrerad i katalogen.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Plats saknas eller är ogiltig för enhetligt kompatibilitetsformat. Ange en tom katalog för delta.universalFormat.compatibility.location.
Misslyckad orsak:
Mer information finns i DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Det gick inte att läsa Apache Iceberg med Delta Uniform.
Mer information finns i DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Flera Delta Uniform-ingressformat (<formats>) hittas, högst ett kan anges.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Det går inte att skapa eller uppdatera en enhetlig ingresstabell.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Format <fileFormat> stöds inte. Endast "Iceberg" och "Hudi" som ursprungligt filformat stöds.
DELTA_UNIFORM_INGRESS_VIOLATION
Det går inte att läsa Delta Uniform:
Mer information finns i DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
Universellt format stöds endast i Unity Catalog-tabeller.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE med ogiltigt argument:
Mer information finns i DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH identifier SYNC UNIFORM stöds inte på grund av:
Mer information finns i DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE med METADATA_PATH stöds inte för hanterade Apache Iceberg-tabeller.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Det gick inte att konvertera tabellversionen <version> till det universella formatet <format>. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Valideringen av universellt format (<format>) misslyckades: <violation>.
DELTA_UNKNOWN_CONFIGURATION
Okänd konfiguration angavs: <config>.
Om du vill inaktivera den här kontrollen anger du <disableCheckConfig>=true i Spark-sessionskonfigurationen.
DELTA_UNKNOWN_PRIVILEGE
Okänd behörighet: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Okänd Läsegräns: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Okänd kolumnändring <otherClass>. Du kanske kör en inaktuell Delta Lake-version.
DELTA_UNRECOGNIZED_INVARIANT
Okänd invariant. Uppgradera Spark-versionen.
DELTA_UNRECOGNIZED_LOGFILE
Okänd loggfil <filename>.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Försökte avmarkera den obefintliga egenskapen '<property>' i tabellen <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> stöder inte att filer läggs till med en absolut sökväg.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN stöds inte för att ändra kolumn <fieldPath> från <oldField> till <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operationen ALTER TABLE REPLACE COLUMNS stöds inte. Orsak: <details>
Det gick inte att ändra schemat från:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Du försökte REPLACE en befintlig tabell (<tableName>) med CLONE. Den här åtgärden är
unsupported. Prova ett annat mål för CLONE eller ta bort tabellen vid det aktuella målet.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Det går inte att ändra kolumnmappningsläget från "<oldMode>" till "<newMode>".
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Det gick inte att utföra åtgärden Kolumnmappning <opName> på kolumner <quotedColumnNames>
eftersom dessa kolumner har Bloom Filter Index(es).
Om du vill utföra åtgärden Kolumnmappning på kolumner
med Bloom Filter Index(es),
ta bort Bloom Filter Index(es) först:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Om du i stället vill ta bort alla Bloom-filterindex i tabellen använder du:
DROP BLOOMFILTER INDEX ON TABLE tabellnamn
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Den aktuella tabellprotokollversionen stöder inte ändring av kolumnmappningslägen
med hjälp av <config>.
Nödvändig deltaprotokollversion för kolumnmappning:
<requiredVersion>
Din tabells nuvarande Delta-protokollversion:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Schemaändring identifieras:
gammalt schema:
<oldTableSchema>
nytt schema:
<newTableSchema>
Schemaändringar tillåts inte vid ändring av kolumnmappningsläge.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Det går inte att skriva data med kolumnmappningsläget.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Det går inte att skapa ett bloom-filterindex för en kolumn med typen <dataType> : <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Det går inte att lägga till en kommentar i <fieldPath>. Det går inte att lägga till en kommentar till en kartnyckel/ett värde eller matriselement.
DELTA_UNSUPPORTED_DATA_TYPES
Hittade kolumner med datatyper som inte stöds: <dataTypeList>. Du kan ange "<config>" till "false" för att inaktivera typkontrollen. Om du inaktiverar den här typkontrollen kan användarna skapa deltatabeller som inte stöds och bör endast användas när de försöker läsa/skriva äldre tabeller.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> kan inte vara resultatet av en genererad kolumn.
DELTA_UNSUPPORTED_DEEP_CLONE
Djupkloning stöds inte av den här Delta-versionen.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> är en vy.
DESCRIBE DETAIL stöds endast för tabeller.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Det är inte tillåtet att ta bort klustringskolumner (<columnList>).
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN stöds inte för din Delta-tabell. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Det går bara att ta bort kapslade kolumner från StructType. Hittade <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Det är inte tillåtet att ta bort partitionskolumner (<columnList>).
DELTA_UNSUPPORTED_EXPRESSION
Uttryckstyp som inte stöds(<expType>) för <causedBy>. De typer som stöds är [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> kan inte användas i en genererad kolumn.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Delta-läsfunktion som inte stöds: tabellen "<tableNameOrPath>" kräver läsarens tabellfunktioner som inte stöds av den här versionen av Databricks: <unsupported>. Mer information om Delta Lake-funktionskompatibilitet finns i <link>.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Delta-skrivfunktion som inte stöds: tabellen "<tableNameOrPath>" kräver skrivartabellfunktioner som inte stöds av den här versionen av Databricks: <unsupported>. Mer information om Delta Lake-funktionskompatibilitet finns i <link>.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Tabellfunktioner som konfigurerats i följande Spark-konfigurationer eller Delta-tabellegenskaper identifieras inte av den här versionen av Databricks: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Förväntar sig att statusen för tabellfunktionen <feature> skulle vara "stött", men fick "<status>".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Uppdatering av kapslade fält stöds bara för StructType, men du försöker uppdatera ett fält med <columnName>, som är av typen: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
FSCK-kommandot REPAIR TABLEstöds inte i tabellversioner med saknade borttagningsvektorfiler.
Kontakta supporten.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Kommandot "GENERATE symlink_format_manifest" stöds inte i tabellversioner med borttagningsvektorer.
För att skapa en version av tabellen utan borttagningsvektorer, kör 'REORG TABLE table APPLY (PURGE'. Kör sedan kommandot "GENERATE" igen.
Kontrollera att inga samtidiga transaktioner lägger till borttagningsvektorer igen mellan REORG och GENERATE.
Om du behöver generera manifest regelbundet, eller om du inte kan förhindra samtidiga transaktioner, bör du överväga att inaktivera borttagningsvektorer i den här tabellen med hjälp av tabellenALTER TABLESET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianter på andra kapslade fält än StructTypes stöds inte.
DELTA_UNSUPPORTED_IN_SUBQUERY
Underfrågor stöds inte i villkoret <operation>.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix är inte tillgängligt.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Manifestgenerering stöds inte för tabeller som använder kolumnmappning, eftersom externa läsare inte kan läsa deltatabellerna. Mer information finns i Delta-dokumentationen.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO åtgärder med schemautveckling stöder för närvarande inte att skriva CDC-utdata.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Flerkolumns-in-predikat stöds inte i <operation>-villkoret.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Det går för närvarande inte att skapa ett bloom filer-index på en kapslad kolumn: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Kapslat fält stöds inte i <operation> (fält = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Klonmåltabellen är inte tom.
TRUNCATE eller DELETE FROM tabellen innan du kör CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
Datakällan <dataSource> stöder <mode> inte utdataläge.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Att skapa ett bloom-filterindex på en partitioneringskolumn stöds inte: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
Kolumnnamnbyte stöds inte för din Delta-tabell. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta har inte stöd för att ange schemat vid lästid.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY stöds inte för Delta-bucketade tabeller.
DELTA_UNSUPPORTED_SOURCE
<operation> mål stöder endast Delta-källor.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Det går för närvarande inte att ange statiska partitioner i partitionsspecifikationen under infogningar.
DELTA_UNSUPPORTED_STRATEGY_NAME
Strateginamn som inte stöds: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Underfrågor stöds inte i <operation> (villkor = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Underfrågor stöds inte i partitionspredikat.
DELTA_OSTÖDD_TIDRESOR_BORTOM_RADERAD_FIL_BEHÅLLNING_VARAKTIGHET
Det går inte att göra tidsresor utöver den gräns för delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) som anges i tabellens inställningar.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Det går inte att ange tidsresor i flera format.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Det går inte att tidsföra resevyer, underfrågor, strömmar eller ändra dataflödesfrågor.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Att begränsa exempeltabeller stöds inte.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Det gick inte att använda den här tabellen eftersom en typändring som inte stöds tillämpades. Fält <fieldName> har ändrats från <fromType> till <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Det gick inte att ändra datatypen för kolumner <quotedColumnNames>.
eftersom dessa kolumner har Bloom Filter Index(es).
Om du vill ändra datatypen för kolumner med Bloom Filter Index(es)
ta bort Bloom Filter Index(es) först:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Om du i stället vill ta bort alla Bloom-filterindex i tabellen använder du:
DROP BLOOMFILTER INDEX ON TABLE tabellnamn
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Ange bassökvägen (<baseDeltaPath>) när du dammsuger Delta-tabeller. Det finns för närvarande inte stöd för att dammsuga specifika partitioner.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Tabellimplementeringen tillåter inte skrivningar: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Du försöker utföra skrivningar i en tabell registrerad med transaktionshanteraren <coordinatorName>. Ingen implementering av den här koordinatorn är dock tillgänglig i den aktuella miljön och skrivningar utan koordinatorer tillåts inte.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Skriv till exempeltabeller stöds inte.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Det går inte att casta <fromCatalog> till <toCatalog>. Alla nästlade kolumner måste matcha.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT-operationen kräver att V2-kontrollpunkter är aktiverade i tabellen.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM för datafiler lyckades, men insamling av skräptillstånd för COPY INTO misslyckades.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versioner (<versionList>) är inte sammanhängande.
En lucka i deltaloggen mellan versioner <startVersion> och <endVersion> upptäcktes vid försök att läsa in version <versionToLoad>.
Mer information finns i DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
Den angivna versionen (<version>) är inte en giltig version.
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK villkor <constraintName> <expression> överträds av rad med värden:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Verifieringen av egenskaperna för tabell <table> har brutits:
Mer information finns i DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> är en vy. Du får inte skriva data i en vy.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Kolumnen Z-Ordering <columnName> finns inte i dataschemat.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-ordning på <cols> kommer att vara ineffektivt då vi för närvarande inte samlar in statistik för dessa kolonner. Se <link> för mer information om datasammanhopning och z-sortering. Du kan inaktivera den här kontrollen genom att ange
SET <zorderColStatKey> = falskt
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> är en partitionskolumn. Z-beställning kan bara utföras på datakolumner.
Deltadelning
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Det gick inte att hitta aktiveringsnonce. Aktiveringslänken som du använde är ogiltig eller har upphört att gälla. Återskapa aktiveringslänken och försök igen.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: ingen tilldelad
Delning mellan <regionHint> regioner och regioner utanför stöds inte.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: ingen tilldelad
Vyn som definieras med funktionen current_recipient är endast avsedd för delning och kan bara frågas från mottagarsidan för data. Det tillhandahållna objektet med ID <securableId> är inte en delta-delningsvy.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Den angivna säkerhetstypen <securableKind> stöder inte föränderlighet i Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: ingen tilldelad
Den angivna skyddbara typen <securableKind> stöder inte åtgärden att rotera token, som initieras av Marketplace-tjänsten.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: ingen tilldelad
<dsError>: Autentiseringstypen är inte tillgänglig i providerentiteten <providerEntity>.
DS_CDF_NOT_ENABLED
SQLSTATE: ingen tilldelad
<dsError>: Det går inte att komma åt ändringsdataflödet för <tableName>. CDF är inte aktiverat i den ursprungliga deltatabellen för version <version>. Kontakta din dataleverantör.
DS_CDF_NOT_SHARED
SQLSTATE: ingen tilldelad
<dsError>: Det går inte att komma åt ändringsdataflödet för <tableName>. CDF finns inte med på tabellen. Kontakta din dataleverantör.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: ingen tilldelad
<dsError>: Molnleverantören är tillfälligt otillgänglig för <rpcName>. Försök igen.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: ingen tilldelad
<dsError>: Datamaterialiseringsaktivitetens körning <runId> från organisationen <orgId> misslyckades vid kommando <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
<dsError>: Datamaterialiseringsuppgift <runId> från org <orgId> stöder inte kommando <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: ingen tilldelad
<dsError>: <featureName> stöds inte eftersom serverlös inte stöds eller är aktiverat i leverantörens arbetsyta. Kontakta dataleverantören för att aktivera serverlös.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: ingen tilldelad
<dsError>: Det gick inte att hitta ett giltigt namnområde för att skapa materialisering för <tableName>. Kontakta dataleverantören för att åtgärda detta.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
<dsError>: Datamaterialiseringsaktiviteten körs <runId> från organisationens <orgId> finns inte
DS_DELTA_ILLEGAL_STATE
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: ingen tilldelad
<dsError>: Det gick inte att hitta alla delfiler i kontrollpunkten vid version: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: ingen tilldelad
<dsError>: Den angivna skyddsbara typen <securableKind> stöder inte åtgärden att förnya token som initierades av Marketplace-tjänsten.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: ingen tilldelad
Funktionaliteten <dsError>: <feature> är endast aktiverad för delning mellan Databricks och Databricks Delta.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: ingen tilldelad
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: ingen tilldelad
<dsError>: Den här funktionen är inaktiverad för kontot. Kontakta din dataleverantör.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: ingen tilldelad
<dsError>: <key> anges inte av anroparen.
DS_ILLEGAL_STATE
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: ingen tilldelad
<dsError>: Ogiltig Azure-sökväg: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: ingen tilldelad
<dsError>: Ogiltig parameter för <rpcName> på grund av <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: ingen tilldelad
<dsError>: Förfrågan misslyckades för <schema>.
<table> från Share <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: ingen tilldelad
<dsError>: Frågan överskred tidsgränsen för <schema>.
<table> från Dela <share> efter <timeoutInSec> sekunder.
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: ingen tilldelad
<dsError>: UC RPC <rpcName> misslyckades.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: ingen tilldelad
<dsError>: Idempotensnyckel är obligatorisk när man frågar <schema>.
<table> från Dela <share> asynkront.
DS_MISSING_SERVERLESS_BUDGET_POLICY
SQLSTATE: ingen tilldelad
<dsError>: Operationen använder serverlös på leverantörens Databricks, men resursen saknar en serverlös budgetriktlinje. Kontakta dataleverantören för att lägga till en budgetprincip för serverlös drift som kan delas.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: ingen tilldelad
<dsError>: Ange bara något av följande: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: ingen tilldelad
<dsError>: Nätverksanslutningen stängdes på <rpcName> grund av <errorCause>, försök igen.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: ingen tilldelad
<dsError>: Tidsgräns för nätverksanslutning för <rpcName> på grund av <errorCause>, försök igen.<traceId>
DS_NETWORK_ERROR
SQLSTATE: ingen tilldelad
<dsError>: Nätverksfel för <rpcName> på grund av <errorCause>, försök igen.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: ingen tilldelad
<dsError>: Inget metaarkiv har tilldelats för den aktuella arbetsytan (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: ingen tilldelad
<dsError>: Det gick inte att generera belastningsidentitetstoken för O2D OIDC-leverantören: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: ingen tilldelad
<dsError>: Sidnumrerings- eller frågeargument matchar inte.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: ingen tilldelad
<dsError>: Partitionskolumnen [<renamedColumns>] har bytt namn på den delade tabellen. Kontakta dataleverantören för att åtgärda detta.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: ingen tilldelad
<dsError>: Du kan bara ställa frågor mot tabellens data från och med version <startVersion>.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: ingen tilldelad
<dsError>: Den angivna slutversionen(<endVersion>) för att läsa data är ogiltig. Slutversionen får inte vara större än den senaste versionen av tabellen(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: ingen tilldelad
<dsError>: Den angivna startversionen(<startVersion>) för att läsa data är ogiltig. Startversionen får inte vara större än den senaste versionen av tabellen(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: ingen tilldelad
<dsError>: Det uppstod en timeout när man bearbetade <queryType> på <tableName> efter att ha gjort <numActions> uppdateringar i <numIter> iterationer.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: ingen tilldelad
<dsError>: UC RPC <rpcName> misslyckades och konverterade till INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: ingen tilldelad
<dsError>: Gränsen för <resource> överskreds: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: ingen tilldelad
<dsError>: Delta Sharing SAP Connector stöds inte på DBR <dbrVersion>. De lägsta versioner som stöds är: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: ingen tilldelad
<dsError>: Katalogen <catalogName> innehåller redan schemanamn som finns i resursen <shareName>.
<description> av motstridiga schemanamn: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: ingen tilldelad
<dsError>: Tidsgränsen för servern för <rpcName> på grund av <errorCause>, försök igen.<traceId>
DS_TJÄNST_AVSLAGEN
SQLSTATE: ingen tilldelad
<dsError>: Begäran nekades eftersom tjänsten är under för mycket belastning. Försök igen senare efter ett tag.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: ingen tilldelad
<dsError>: Delningen <shareName> från leverantören <providerName> är redan monterad på katalogen <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: ingen tilldelad
Det går inte att bevilja behörigheter för <securableType> till systemgenererad grupp <principal>.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: ingen tilldelad
<dsError>: Tidsresefråga tillåts inte om historiken inte delas på <tableName>. Kontakta din dataleverantör.
DS_UNAUTHORIZED
SQLSTATE: ingen tilldelad
<dsError>: Obehörig.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: ingen tilldelad
<dsError>: Obehörig D2O OIDC-mottagare: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: ingen tilldelad
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: ingen tilldelad
<dsError>: Okänt fråge-ID <queryID> för <schema>.
<table> från Share <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: ingen tilldelad
<dsError>: Okänd frågestatus för fråge-ID <queryID> för <schema>.
<table> från Share <share>.
DS_UNKNOWN_RPC
SQLSTATE: ingen tilldelad
<dsError>: Okänd rpc <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: ingen tilldelad
<dsError>: Delta protocol reader version <tableReaderVersion> är högre än <supportedReaderVersion> och kan inte stödjas på deltadelningsservern.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: ingen tilldelad
<dsError>: Tabellfunktioner <tableFeatures> finns i tabell<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: ingen tilldelad
<dsError>: Lagringsschema som inte stöds: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: ingen tilldelad
<dsError>: Det gick inte att hämta <schema>.
<table> från Dela <share> eftersom tabellen med typen [<tableType>] för närvarande inte stöds i <queryType> frågor.
DS_USER_CONTEXT_ERROR
SQLSTATE: ingen tilldelad
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: ingen tilldelad
<dsError>: Följande funktioner: <functions> tillåts inte i visningsdelningsfrågan.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: ingen tilldelad
<dsError>: Arbetsytans <workspaceId> domän har inte angetts.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: ingen tilldelad
<dsError>: Arbetsyta <workspaceId> hittades inte.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Schemautvecklingsläge <addNewColumnsMode> stöds inte när schemat har angetts. Om du vill använda det här läget kan du ange schemat via cloudFiles.schemaHints i stället.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Hittade autentiseringsalternativ för notifikationsinställning för (standard) katalog
listningsläge:
<options>
Om du vill använda filmeddelandeläget anger du uttryckligen:
.option("cloudFiles.<useNotificationsKey>", "true")
Alternativt, om du vill hoppa över valideringen av dina alternativ och ignorera dessa
autentiseringsalternativ kan du ange:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Inkrementellt listningsläge (cloudFiles.<useIncrementalListingKey>)
och filavisering (cloudFiles.<useNotificationsKey>)
har aktiverats samtidigt.
Kontrollera att du bara väljer en.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Ange antingen en Databricks-tjänstautentiseringsuppgift eller både ett clientId och clientSecret för autentisering med Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
När en Databricks-tjänstautentiseringsuppgift tillhandahålls ska inga andra autentiseringsalternativ (till exempel clientId, clientSecret eller connectionString) anges.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Kräv adlsBlobSuffix och adlsDfsSuffix för Azure
CF_BUCKET_MISMATCH
<storeType> i filhändelsen <fileEvent> skiljer sig från källans förväntade: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Det går inte att utveckla schemat när schemaloggen är tom. Plats för schemalogg: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Det går inte att parsa följande kömeddelande: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Det går inte att matcha containernamnet från sökvägen: <path>, Löst URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Det går inte att köra kataloglistan när det finns en asynkron återfyllnadstråd som körs
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Det går inte att aktivera cloudFiles.cleanSource och cloudFiles.allowOverwrites på samma gång.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Det går inte att flytta filer till en katalog under sökvägen som matas in från.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource har inte aktiverats för den här arbetsytan. Kontakta Databricks-supporten om du vill ha hjälp.
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource stöds inte för <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Automatisk inläsare kan inte arkivera bearbetade filer eftersom den inte har skrivbehörighet till källkatalogen eller flyttmålet.
<reason>
För att åtgärda kan du antingen:
Bevilja skrivbehörigheter till källkatalogen och flytta mål-OR
Ställ in cleanSource på "OFF"
Du kan också avblockera strömmen genom att ställa in SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors till "true".
CF_DUPLICATE_COLUMN_IN_DATA
Det uppstod ett fel när du försökte härleda partitionsschemat för tabellen. Du har samma kolumn duplicerad i dina data- och partitionssökvägar. Om du vill ignorera partitionsvärdet anger du partitionskolumnerna explicit med hjälp av: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Det går inte att härleda schemat när indatasökvägen <path> är tom. Försök att starta strömmen när det finns filer i indatavägen eller ange schemat.
CF_EVENT_GRID_AUTH_ERROR
Det gick inte att skapa en Event Grid-prenumeration. Kontrollera att din tjänst
principal har <permissionType> Event Grid-prenumerationer. Mer information finns på:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Det gick inte att skapa en event grid-prenumeration. Kontrollera att Microsoft.EventGrid är
registrerad som resursprovider i din prenumeration. Mer information finns på:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Det gick inte att skapa en Event Grid-prenumeration. Se till att lagringen
konto (<storageAccount>) ligger under resursgruppen (<resourceGroup>) och att
lagringskontot är ett "StorageV2 (allmän användning v2)"-konto. Mer information finns på:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Meddelandeläge för händelser vid automatisk inläsning stöds inte för <cloudStore>.
CF_FAILED_TO_CHECK_STREAM_NEW
Det gick inte att kontrollera om strömmen är ny
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Det gick inte att skapa prenumerationen: <subscriptionName>. Det finns redan en prenumeration med samma namn och är associerad med ett annat ämne: <otherTopicName>. Det önskade ämnet är <proposedTopicName>. Ta antingen bort den befintliga prenumerationen eller skapa en prenumeration med ett nytt resurssuffix.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Det gick inte att skapa ämnet: <topicName>. Det finns redan ett ämne med samma namn.
<reason> Ta bort det befintliga ämnet eller försök igen med ett annat resurssuffix
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Det gick inte att ta bort meddelandet med ID-<notificationId> i bucket-<bucketName> för ämnet <topicName>. Försök igen eller ta bort meddelandet manuellt via GCP-konsolen.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Det gick inte att deserialisera kvarstående schema från strängen: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Det går inte att utveckla schemat utan en schemalogg.
CF_FAILED_TO_FIND_PROVIDER
Det gick inte att hitta providern för <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Det gick inte att härleda schema för format <fileFormatInput> från befintliga filer i indatasökvägen <path>.
Mer information finns i CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Det gick inte att skriva till schemaloggen på plats <path>.
CF_FILE_FORMAT_REQUIRED
Det gick inte att hitta det alternativ som krävs: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Hittade flera (<num>) prenumerationer med prefixet Auto Loader för ämnet <topicName>:
<subscriptionList>
Det bör bara finnas en prenumeration per ämne. Kontrollera manuellt att ämnet inte har flera prenumerationer.
CF_GCP_AUTHENTICATION
Ange antingen följande: <clientEmail>, <client>,
<privateKey>och <privateKeyId> eller ange <serviceCredential> för att använda databricks-tjänstens autentiseringsuppgifter.
Alternativt kan du inte ange någon av dem för att använda standardkedjan för GCP-autentiseringsprovider för autentisering med GCP-resurser.
CF_GCP_LABELS_COUNT_EXCEEDED
Fick för många etiketter (<num>) på GCP-resursen. Det maximala antalet etiketter per resurs är <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Fick för många resurstaggar (<num>) för GCP-resursen. Det maximala antalet resurstaggar per resurs är <maxNum>eftersom resurstaggar lagras som GCP-etiketter på resurser, och Databricks-specifika taggar använder en del av den här etikettkvoten.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Ofullständig loggfil i schemaloggen på sökvägen <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Ofullständig metadatafil i kontrollpunkten för automatisk inläsning
CF_INCORRECT_BATCH_USAGE
CloudFiles är en strömmande källa. Använd spark.readStream i stället för spark.read. Om du vill inaktivera den här kontrollen anger du <cloudFilesFormatValidationEnabled> till false.
CF_INCORRECT_SQL_PARAMS
Metoden cloud_files accepterar två obligatoriska strängparametrar: sökvägen som ska läsas in från och filformatet. Filläsaralternativ måste anges i en karta med strängnyckel och värde. till exempel cloud_files("path", "json", map("option1", "value1")). Mottaget: <params>
CF_INCORRECT_STREAM_USAGE
Om du vill använda "cloudFiles" som en strömmande källa anger du filformatet med alternativet "cloudFiles.format" och använder .load() för att skapa din DataFrame. Om du vill inaktivera den här kontrollen anger du <cloudFilesFormatValidationEnabled> till false.
CF_INTERNAL_ERROR
En automatisk inläsare påträffade ett internt fel. Kontakta Databricks-supporten om du vill ha hjälp.
Mer information finns i CF_INTERNAL_ERROR
CF_INVALID_ARN
Ogiltig ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Den privata nyckel som tillhandahålls med alternativet cloudFiles.certificate kan inte parsas. Ange en giltig offentlig nyckel i PEM-format.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Den privata nyckeln som medföljer alternativet cloudFiles.certificatePrivateKey kan inte parsas. Ange en giltig privat nyckel i PEM-format.
CF_INVALID_CHECKPOINT
Den här kontrollpunkten är inte en giltig CloudFiles-källa
CF_INVALID_CLEAN_SOURCE_MODE
Ogiltigt läge för alternativet rensa källa <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ogiltig resurstaggnyckel för GCP-resurs: <key>. Nycklarna måste börja med en gemen bokstav, vara mellan 1 och 63 tecken långa och innehålla endast gemener, siffror, understreck (_) och bindestreck (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ogiltigt resurstaggsvärde för GCP-resurs: <value>. Värdena måste vara mellan 0 och 63 tecken långa och får endast innehålla gemener, siffror, understreck (_) och bindestreck (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Automatisk inläsning stöder inte följande alternativ när det används med hanterade filhändelser:
<optionList>
Vi rekommenderar att du tar bort de här alternativen och sedan startar om strömmen.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ogiltigt svar från tjänsten för hanterade filhändelser. Kontakta Databricks-supporten om du vill ha hjälp.
Mer information finns i CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> måste vara en av
-
<addNewColumns> -
<failOnNewColumns> -
<rescue> -
<noEvolution>
CF_INVALID_SCHEMA_HINTS_OPTION
Schematips kan bara ange en viss kolumn en gång.
I det här fallet omdefinierar du kolumnen: <columnName>
flera gånger i schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schematips kan inte användas för att åsidosätta kartors och matrisernas kapslade typer.
Konfliktkolumn: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset ska anropas med en ReadLimit för denna källa.
CF_LOG_FILE_MALFORMED
Loggfilen var felaktigt formaterad: det gick inte att läsa rätt loggversion från <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Du har begärt att Auto Loader ska ignorera befintliga filer på din externa plats genom att ställa in includeExistingFiles till false. Tjänsten för hanterade filhändelser identifierar dock fortfarande befintliga filer på din externa plats. Försök igen när hanterade filhändelser har slutfört identifieringen av alla filer på den externa platsen.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Du använder Auto Loader med hanterade filhändelser, men det verkar som om den externa platsen för din indatasökväg<path> inte har filhändelser aktiverade eller att indatasökvägen är ogiltig. Vänligen be Databricks-administratören att aktivera filhändelser på den externa platsen för din indataväg.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Du använder Auto Loader med hantering av filhändelser, men du har inte åtkomst till den externa platsen eller volymen för indatasökvägen '<path>' eller så är indatasökvägen ogiltig. Be Databricks-administratören att bevilja läsbehörighet för den externa platsen eller volymen eller ange en giltig indatasökväg på en befintlig extern plats eller volym.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Automatisk laddare med hanterade filhändelser är förhandsgranskningsfunktion. Om du vill fortsätta kontaktar du Databricks Support eller inaktiverar alternativet cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
max måste vara positivt
CF_METADATA_FILE_CONCURRENTLY_USED
Flera direktuppspelningsfrågor använder samtidigt <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Metadatafilen i kontrollpunktskatalogen för strömmande källa saknas. Denna metadata
filen innehåller viktiga standardalternativ för strömmen, så att strömmen inte kan startas om
Direkt nu. Kontakta Databricks-supporten om du vill ha hjälp.
CF_MISSING_PARTITION_COLUMN_ERROR
Partitionskolumnen <columnName> finns inte i det angivna schemat:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Ange ett schema med .schema() om en sökväg inte tillhandahålls till CloudFiles-källan när du använder filmeddelandeläget. Du kan också ange en bassökväg i .load() om du vill att autoinläsaren ska kunna härleda schemat.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Hittade befintliga meddelanden för ämne <topicName> på bucket <bucketName>:
notification,id
<notificationList>
Om du vill undvika att förorena prenumeranten med oavsiktliga händelser tar du bort ovanstående meddelanden och försöker igen.
CF_NEW_PARTITION_ERROR
Nya partitionskolumner härleddes från dina filer: [<filesList>]. Ange alla partitionskolumner i schemat eller ange en lista över partitionskolumner som du vill extrahera värden för med hjälp av: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Det uppstod ett fel när partitionsschemat skulle härledas för den aktuella filbatchen. Ange partitionskolumnerna explicit med hjälp av: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Det går inte att läsa filer när indatasökvägen <path> inte finns. Kontrollera att indatasökvägen finns och försök igen.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Periodisk återfyllnad stöds inte om asynkron återfyllnad är inaktiverad. Du kan aktivera asynkron återfyllnad/kataloglista genom att ange spark.databricks.cloudFiles.asyncDirListing till true
CF_PREFIX_MISMATCH
Hittade en felaktig händelse: nyckeln <key> har inte prefixet: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Om du inte behöver göra några andra ändringar i koden, bör du sedan ange SQL
konfiguration: '<sourceProtocolVersionKey> = <value>'
för att återuppta strömmen. Vänligen se:
<docLink>
för mer information.
CF_REGION_NOT_FOUND_ERROR
Det gick inte att hämta standard-AWS-regionen. Ange en region med alternativet cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Det gick inte att skapa meddelandetjänster: resurssuffixet får inte vara tomt.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Det gick inte att skapa meddelandetjänster: resurssuffixet kan bara innehålla alfanumeriska tecken, bindestreck (-) och understreck (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Det gick inte att skapa meddelandetjänster: resurssuffixet kan bara ha gemener, siffror och bindestreck (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Det gick inte att skapa meddelandetjänster: resurssuffixet kan bara innehålla alfanumeriska tecken, bindestreck (-), understreck (_), punkter (.), tildes (~) plus tecken (+) och procenttecken (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
Det gick inte att skapa meddelandetjänster: resurssuffixet får inte innehålla fler än <limit> tecken.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Det gick inte att skapa meddelandetjänster: resurssuffixet måste vara mellan <lowerLimit> och <upperLimit> tecken.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Hittade en begränsad GCP-resurstaggnyckel (<key>). Följande GCP-resurstaggnycklar är begränsade för Auto Loader: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration får inte vara större än cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Det gick inte att skapa ett meddelande för ämnet: <topic> med prefix: <prefix>. Det finns redan ett ämne med samma namn med ett annat prefix: <oldPrefix>. Prova att använda ett annat resurssuffix för att konfigurera eller ta bort den befintliga installationen.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Det gick inte att klona och migrera schemaloggposter från källschemaloggen.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Antingen lösenord eller nyckelfil måste anges för SFTP.
Ange lösenordet i käll-URI:n eller via <passwordOption>eller ange nyckelfilinnehållet via <keyFileOption>.
CF_SFTP_NOT_ENABLED
Åtkomst till SFTP-filer är inte aktiverat. Kontakta Databricks-supporten om du vill ha hjälp.
CF_SFTP_REQUIRE_FULL_PATH
Ange de fullständiga sökvägskomponenterna för en SFTP-källa i form av sftp://$user@$host:$port/$path för att säkerställa korrekt UC-anslutningsökning.
CF_SFTP_REQUIRE_UC_CLUSTER
Ett UC-aktiverat kluster krävs för att få åtkomst till SFTP-filer. Kontakta Databricks-supporten om du vill ha hjälp.
CF_SFTP_USERNAME_NOT_FOUND
Användarnamn måste anges för SFTP.
Ange användarnamnet i käll-URI:n eller via <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Ange källkatalogsökvägen med alternativet path
CF_SOURCE_UNSUPPORTED
Molnfilernas källa stöder just nu endast sökvägarna S3, Azure Blob Storage (wasb/wasbs) och Azure Data Lake Gen1 (adl) samt Gen2 (abfs/abfss). path: '<path>', löst uri: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
Funktionen cloud_files_state accepterar en strängparameter som representerar kontrollpunktskatalogen för en cloudFiles-dataström eller ett flernivånamn som identifierar en strömmande tabell, samt en valfri andra heltalsparameter som representerar kontrollpunktsversionen för att läsa in tillståndet. Den andra parametern kan också vara "senaste" för att läsa den senaste kontrollpunkten. Mottaget: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Sökvägen till kontrollpunkten för indata <path> är ogiltig. Antingen finns inte sökvägen eller så finns det inga cloud_files-källor.
CF_STATE_INVALID_VERSION
Den angivna versionen <version> finns inte eller togs bort under analysen.
CF_THREAD_IS_DEAD
<threadName> tråden är död.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Det går inte att härleda dataströmkontrollpunktens plats från källans kontrollpunktsplats: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Det gick inte att identifiera formatet på källfilen från <fileSize> provfil(er), som hittades <formats>. Ange formatet.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Det går inte att extrahera bucketinformation. Sökväg: '<path>', upplöst uri: '<uri>'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Det går inte att extrahera nyckelinformation. Sökväg: '<path>', upplöst uri: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Det går inte att extrahera information om lagringskontot. path: '<path>', löst uri: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Tog emot en katalogbyteshändelse för sökvägen <path>, men vi kan inte lista katalogen effektivt. För att strömmen ska fortsätta ställer du in alternativet "cloudFiles.ignoreDirRenames" på true och överväger att aktivera regelbundna återfyllnad med cloudFiles.backfillInterval för att dessa data ska bearbetas.
CF_UNEXPECTED_READ_LIMIT
Oväntad Läsgräns: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Okända alternativnycklar hittades:
<optionList>
Kontrollera att alla angivna alternativnycklar är korrekta. Om du vill hoppa över
För att validera dina alternativ och ignorera dessa okända alternativ kan du ange:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
Okänd Läsgräns: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
cleanSource-lägeskonfigurationen "flytta" stöds inte.
Mer information finns i CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
SQL-funktionen "cloud_files" för att skapa en Auto Loader-strömkälla stöds endast i Deklarativa pipelines i Lakeflow. Mer information finns på:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Schemainferens stöds inte för format: <format>. Ange schemat.
CF_UNSUPPORTED_LOG_VERSION
LogVersion stöds inte: den maximala loggversionen som stöds är v<maxVersion>, men påträffades v<version>. Loggfilen producerades av en nyare version av DBR och kan inte läsas av den här versionen. Vänligen uppgradera.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Schemautvecklingsläge <mode> stöds inte för format: <format>. Ange schemats utvecklingsläge till "none".
CF_USE_DELTA_FORMAT
Läsning från en Delta-tabell stöds inte med den här syntaxen. Om du vill använda data från Delta kan du läsa dokumentet: läsa en Delta-tabell (<deltaDocLink>) eller läsa en Delta-tabell som en dataströmkälla (<streamDeltaDocLink>). Strömningskällan från Delta är redan optimerad för inkrementell dataförbrukning.
Geospatial
EWKB_PARSE_ERROR
Fel vid parsning av EWKB: <parseError> vid position <pos>
Mer information finns i EWKB_PARSE_ERROR
GEOJSON_PARSE_ERROR
Fel vid parsning av GeoJSON: <parseError> vid position <pos>
Mer information finns i GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Det gick inte att koda <type> värdet eftersom angivet SRID <valueSrid> för ett värde att koda inte matchar typen SRID: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> är inte ett giltigt H3-cell-ID
Mer information finns i H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3-rutnätsavståndet <k> måste vara icke-negativt
Mer information finns i H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3-upplösningen <r> måste vara mellan <minR> och <maxR>, inklusive
Mer information finns i H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> är inaktiverat eller stöds inte. Överväg att byta till en nivå som stöder H3-uttryck
Mer information finns i H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
En pentagon påträffades vid beräkningen av hexringen för <h3Cell> med rutnätsavståndet <k>.
H3_UNDEFINED_GRID_DISTANCE
H3-rutnätsavståndet mellan <h3Cell1> och <h3Cell2> är odefinierat
ST_DIFFERENT_SRID_VALUES
Argumenten till "<sqlFunction>" måste ha samma SRID-värde. SRID-värden hittades: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Mer information finns i ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: Ogiltig eller crs-transformering som inte stöds från SRID-<srcSrid> till SRID-<trgSrid>
ST_INVALID_INDEX_VALUE
<sqlFunction>: Ogiltigt index <index> för det angivna geospatiala värdet.
ST_INVALID_PRECISION_VALUE
Precision <p> måste vara mellan <minP> och <maxP>, inklusive
ST_INVALID_SRID_VALUE
Ogiltig eller inte stödd SRID <srid>
ST_NOT_ENABLED
<stExpression> är inaktiverat eller stöds inte. Överväg att byta till en nivå som stöder ST-uttryck
WKB_PARSE_ERROR
Fel vid parsning av WKB: <parseError> vid position <pos>
Mer information finns i WKB_PARSE_ERROR
WKT_PARSE_ERROR
Fel vid parsning av WKT: <parseError> vid position <pos>
Mer information finns i WKT_PARSE_ERROR
Unity-katalog
KAN_INTE_TA_BORT_TAGGAD_KOLUMN
Det går inte att ta bort kolumnen eftersom en eller flera reglerade taggar har tilldelats. Innan du fortsätter kan du läsa dokumentationen <docLink> för instruktioner om hur du på ett säkert sätt tar bort taggen och släpper kolumnen.
Barnskapande_förbjudet_för_utomstående_säkerhetsobjekt
Kan inte skapa säkerhetsobjekt av typen <childSecurableName> i överordnad <childSecurableType> av typen <parentSecurableName>.
KOLUMNFORMAT ÄR INKOMPATIBELT MED KOLONNTYP
Kolumnen <columnName> har <formatType> ett format som inte är kompatibelt med kolumntypen <columnType>.
CONFLICTING_COLUMN_NAMES_ERROR
Kolumnen <columnName> står i konflikt med en annan kolumn med samma namn som endast skiljer sig åt genom avslutande blanksteg (till exempel en befintlig kolumn med namnet <columnName>). Byt namn på kolumnen med ett annat namn.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Ogiltig begäran om att hämta autentiseringsuppgifter på anslutningsnivå för anslutning av typen <connectionType>. Sådana autentiseringsuppgifter är endast tillgängliga för hanterade PostgreSQL-anslutningar.
CONNECTION_TYPE_NOT_ENABLED
Anslutningstypen är<connectionType> inte aktiverad. Aktivera anslutningen för att använda den.
DELTA_DELNING_TILLDELNINGSTILLSTÅND_INTE_AKTIV
Den delade entiteten kan<securableFullName> för närvarande inte användas eftersom den inte har synkroniserats helt med motsvarande källentitet ännu. Orsakad av: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Det finns redan ett mottagarobjekt med<existingRecipientName> samma delningsidentifierare<existingMetastoreId>.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Data för en Delta Sharing-säker typ <securableKindName> är skrivskyddade och kan inte skapas, ändras eller tas bort.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
Autentiseringsuppgifter avvisas för icke-Databricks Compute-miljö på grund av att extern dataåtkomst har inaktiverats för metaarkiv <metastoreName>. Kontakta metaarkivadministratören för att aktivera konfigurationen för extern dataåtkomst i metaarkivet.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Tabell med ID <tableId> kan inte nås utanför Databricks Compute Environment på grund av att den är <securableKind>. Endast tabelltyperna 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' och 'TABLE_DELTA' kan nås externt.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Behörighet EXTERNAL USE-SCHEMA gäller inte för den här entiteten <assignedSecurableType> och kan endast tilldelas till ett schema eller en katalog. Ta bort behörigheten från <assignedSecurableType>-objektet och tilldela det till ett schema eller en katalog i stället.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Tabell med ID <tableId> kan inte skrivas utanför Databricks Compute Environment på grund av att den är <securableKind>. Endast tabelltyperna 'TABLE_EXTERNAL' och 'TABLE_DELTA_EXTERNAL' kan skrivas externt.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
Lagringsplatsen för en utländsk katalog av typen <catalogType> kommer att användas för att avlasta data och kan inte vara skrivskyddad.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
Antalet av <resourceType>för indatasökvägen <url> överskrider den tillåtna gränsen (<overlapLimit>) för överlappande HMS <resourceType>s.
OGILTIG_DATAKÄLLA_FORMAT
Datakällans format stöds<datasourceFormat><tableTypeSuffix> <catalogKindSuffix> inte.
INVALID_RESOURCE_NAME_DELTA_SHARING
Deltadelningsbegäranden stöds inte med hjälp av resursnamn
INVALID_RESOURCE_NAME_ENTITY_TYPE
Det angivna resursnamnet refererar till entitetstypen <provided> men väntad var <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
Det angivna resursnamnet refererar till ett metaarkiv som inte finns i omfånget för den aktuella begäran
LOCATION_OVERLAP
Inmatningssökvägen URL '<path>' överlappar med <overlappingLocation> inom <caller>-anropet.
<conflictingSummary>. <permissionErrorSuggestion>
MANAGED_TABLE_FORMAT
Endast Delta stöds för hanterade tabeller. Det angivna datakällans format är <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
Det går inte att skapa eller uppdatera en MongoDB-anslutning eftersom MongoDB SRV-anslutningssträngen inte kräver någon port.
Ta bort porten eftersom SRV-anslutningssträngen inte kräver port.
PRINCIPAL_EXISTERAR_INTE
Det gick inte att hitta principalen med namnet <principalName>.
PRIVILEGIESTÖD_ÄR_INTE_AKTIVERAT
Stöd för privilegier är inte aktiverat för typen [<typeString>]
SKRIVSKYDDAD_KATALOG
Data i en deltadelningskatalog är skrivskyddade och kan inte skapas, ändras eller tas bort. Katalog '<catalogName>' är en Delta Sharing-katalog.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Lagringsroten för Redshifts utländska katalog måste vara AWS S3.
SCHEMA_NOT_EMPTY
Schemat <fullName> är inte tomt. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Säkerhetsklassificerbar av typen <securableKind> stöder inte Lakehouse Federation.
SECURABLE_KIND_NOT_ENABLED
Typen '<securableKind>' som kan skyddas är inte aktiverad. Om det här är en skyddsbar typ som är associerad med en förhandsgranskningsfunktion aktiverar du den i arbetsyteinställningarna.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Säkerhetsfunktioner av typen <securableType> stöder inte Lakehouse Federation.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
Källtabellen har fler än <columnCount> kolumner. Minska antalet kolumner till <columnLimitation> eller färre.
SYSTEM_SERVICE_PRINCIPAL_ÄR_INTE_REGISTRERAD
Det gick inte att hitta det registrerade huvudnamnet för systemtjänsten med resursnamnet <servicePrincipalResource>.
TABLE_TYPE_STÖDER_INTE_KOLUMNDATA_METADATA
Tabelltypen <tableType> stöder inte kolumnmetadata.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
Livslängden för Exchanged AAD-token är <lifetime> som har konfigurerats för kort. Kontrollera azure AD-inställningen för att se till att den tillfälliga åtkomsttoken har minst en timmes livslängd. https://free.blessedness.top/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Det gick inte att utvärdera ABAC-principer på '<resource>'. Policyn "<policyName>" misslyckades med meddelandet: Med aliaset "<alias>" hade <size> matchningar, men exakt en matchning tillåts.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
Beroendet '<dependency>' refereras flera gånger och leder till olika ABAC-radfilter eller kolumnmasker.
UC_ABAC_EVALUATION_USER_ERROR
Det gick inte att utvärdera ABAC-principer på '<resource>'. Policyn '<policyName>' misslyckades med meddelandet: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Det gick inte att utvärdera ABAC-principer på '<resource>'. Misslyckades med meddelandet: Ogiltigt taggprincipvärde <tagValue> för nyckeln <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
Utvärdering av ABAC-principer på<resource> resulterade i flera radfilter. Högst ett radfilter tillåts.
UC_ABAC_UNKNOWN_TAG_POLICY
Det gick inte att utvärdera ABAC-principer på '<resource>'. Misslyckades med meddelandet: Okänd taggprincip: <tagKey>.
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS
Det gick inte att utvärdera ABAC-principer på '<resource>'. Misslyckades med meddelandet: Aliaset som<alias> användes i USING COLUMNS matchade inte någon kolumn.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Det gick inte att utvärdera ABAC-principer på '<resource>'. Policyn '<policyName>' misslyckades med meddelandet: Alias '<alias>' som används i ON COLUMN matchade inte någon kolumn.
UC_ABAC_UNMATCHED_USING_ALIAS
Det gick inte att utvärdera ABAC-principer på '<resource>'. Policyn '<policyName>' misslyckades med meddelandet: Användning av aliaset '<alias>' har inte en matchande kolumn.
UC_ACCESS_REQUIRES_WORKSPACE
Det går inte att komma åt arbetsytans bundna skydd eftersom användaren inte har tilldelats till den associerade arbetsytan.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Det är inte tillåtet att ändra vyn '<viewFullName>' utanför den pipeline som definierade den. Uppdatera i stället vydefinitionen från pipelinen som definierade den (pipeline-ID: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE (UC_Atlas ej aktiverad för samtalstjänsten)
Atlas är inte aktiverat för den anropande tjänsten <serviceName>.
UC_AUTHZ_ACTION_NOT_SUPPORTED
Det går inte att auktorisera <actionName>. Kontrollera att den anropade RPC:n har implementerats för den här resurstypen
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Det går inte att skapa en anslutning för ett inbyggt hive-metaarkiv eftersom användaren: <userId> inte är administratör för arbetsytan: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Försök att ändra ett begränsat fält i den inbyggda HMS-anslutningen<connectionName>. Endast "warehouse_directory" kan uppdateras.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Det gick inte att byta namn på tabellkolumnen <originalLogicalColumn> eftersom den används för partitionsfiltrering i <sharedTableName>. För att fortsätta kan du ta bort tabellen från resursen, byta namn på kolumnen och dela den med önskade partitionsfiltreringskolumner igen. Detta kan dock störa streamingförfrågan för mottagaren.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
Det går inte att skapa <securableType> '<securable>' under <parentSecurableType> '<parentSecurable>' eftersom begäran inte kommer från ett UC-kluster.
UC_CONFLICTING_CONNECTION_OPTIONS
Det går inte att skapa en anslutning med autentiseringsalternativen användarnamn/lösenord och oauth. Välj en.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
Det maximala antalet autentiseringsuppgifter för anslutningsnamnet<connectionName> har nåtts. Ta bort befintliga autentiseringsuppgifter innan du skapar en ny.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
Det går inte att hitta autentiseringsuppgifter för användaridentitet ('<userIdentity>') för anslutningen '<connectionName>'. Logga först in på anslutningen genom att besöka <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Det går inte att skapa autentiseringsuppgifter för säkerhetstypen '<securableType>'. Skyddsbara typer som stöds: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
Autentiseringsuppgifterna<credentialName> har en eller flera beroende anslutningar. Du kan använda force-alternativet för att fortsätta uppdatera eller ta bort autentiseringsuppgifterna, men anslutningarna med den här autentiseringsuppgiften kanske inte fungerar längre.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
Åtkomsttoken som är associerad med anslutningen har upphört att gälla. Uppdatera anslutningen för att starta om OAuth-flödet för att hämta en token.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
Uppdateringstoken som är associerad med anslutningen har upphört att gälla. Uppdatera anslutningen för att starta om OAuth-flödet för att hämta en ny token.
UC_CONNECTION_IN_FAILED_STATE
Anslutningen är i FAILED-tillståndet. Uppdatera anslutningen med giltiga autentiseringsuppgifter för att återaktivera den.
UC_CONNECTION_MISSING_OPTION
Anslutningar av skyddsbar typ<securableType> måste innehålla följande alternativ: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Det finns ingen uppdateringstoken som är associerad med anslutningen. Uppdatera OAuth-klientintegrering i identitetsprovidern för att returnera uppdateringstoken och uppdatera eller återskapa anslutningen för att starta om OAuth-flödet och hämta nödvändiga token.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
OAuth-tokenutbytet misslyckades med HTTP-statuskoden <httpStatus>. Det returnerade serversvaret eller undantagsmeddelandet är: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Anslutningar av typen '<securableType>' som kan säkras har inte stöd för följande alternativ: <optionsNotSupported>. Alternativ som stöds: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Stöd för samordnade kommitteringar är inte aktiverat. Kontakta Databricks-supporten.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
Det går inte att skapa <securableType> '<securableName>' eftersom det är under ett <parentSecurableType> '<parentSecurableName>' som inte är aktivt. Ta bort den överordnade skyddsbara enheten och återskapa den överordnade.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Det gick inte att parsa det angivna åtkomstanslutnings-ID:t: <accessConnectorId>. Kontrollera dess formatering och försök igen.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Det gick inte att hämta en AAD-token för att utföra validering av molnbehörighet på en åtkomstanslutning. Försök igen.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: ingen tilldelad
För att registrera en autentiseringsuppgift krävs deltagarrollen för motsvarande åtkomstanslutning med ID <accessConnectorId>. Kontakta kontoadministratören.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
Typ av autentiseringsuppgifter '<credentialType>' stöds inte för ändamålet '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
Endast kontoadministratören kan skapa eller uppdatera en autentiseringsuppgift med typen <storageCredentialType>.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
Förtroendeprincipen för IAM-rollen så att Databricks-kontot kan anta rollen bör kräva ett externt ID. Kontakta kontoadministratören för att lägga till det externa ID-villkoret. Det här beteendet är att skydda mot det förvirrade ställföreträdarproblemet (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Det går inte att skapa eller uppdatera en autentiseringsuppgift som icke-kontoadministratör i API:et på kontonivå. Använd i stället arbetsytans API.
UC_DBR_TRUST_VERSION_TOO_OLD
Databricks Runtime som används stöder inte längre den här åtgärden. Använd den senaste versionen (du kanske bara behöver starta om klustret).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Det går inte att parsa Apache Iceberg-tabellversionen från metadataplatsen <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
En samtidig uppdatering av samma isbergsmetadataversion upptäcktes.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
Den incheckade metadataplatsen <metadataLocation> är ogiltig. Det är inte en underkatalog till tabellens rotkatalog <tableRoot>.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Den angivna konverteringsinformationen för deltaisbergformatet saknar obligatoriska fält.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
Det stöds inte att ange information om deltaisbergformat vid skapande.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
Den angivna konverteringsinformationen för deltaisbergformatet är för stor.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Enhetliga metadata kan bara uppdateras i Delta-tabeller med enhetlighet aktiverad.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> '<ref>' djup överskrider gränsen (eller har en cirkelreferens).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' är ogiltig eftersom en av de underliggande resurserna inte finns. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' har inte tillräcklig behörighet för att köra eftersom ägaren till en av de underliggande resurserna misslyckades med en auktoriseringskontroll. <cause>
UC_DUPLICATE_CONNECTION
Det finns redan en anslutning med namnet "<connectionName>" med samma URL. Be ägaren om behörighet att använda anslutningen i stället för att skapa en dubblett.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
Försökte skapa en Fabric-katalog med URL '<storageLocation>' som matchar en befintlig katalog, vilket inte är tillåtet.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Taggtilldelning med taggnyckel <tagKey> finns redan
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
Entitets-<securableType> <entityId> har inget motsvarande onlinekluster.
UC_EXCEEDS_MAX_FILE_LIMIT
Det finns fler än <maxFileResults> filer. Ange [max_results] för att begränsa antalet filer som returneras.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Det går inte <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> är för närvarande inaktiverat i UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Det går inte att skapa en utländsk katalog för anslutningstypen<connectionType>. Den här anslutningstypen kan bara användas för att skapa hanterade inmatningspipelines. Mer information finns i Databricks-dokumentationen.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Endast LÄS-autentiseringsuppgifter kan hämtas för utländska tabeller.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
Bastabellen och kloningstabellen måste finnas i samma katalog för ytliga kloner som skapats i utländska Hive Metastore-kataloger. Bastabellen '<baseTableName>' finns i katalogen '<baseCatalogName>' och kloningstabellen '<cloneTableName>' finns i katalogen '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Främmande nyckel <constraintName> har underordnade kolumner och överordnade kolumner av olika storlekar.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Kolumnerna för den utländska nyckeln matchar inte de relaterade kolumnerna för den refererade primärnyckeln. Referensnyckelns huvudkolumner är (<parentColumns>) och primärnyckelns barnkolumner är (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
Den främmande nyckelns kolumntyp matchar inte kolumntypen för den primära nyckeln. Främmande nyckels barnkolumn <childColumnName> har datatyp <childColumnType> och föräldrakolumnen <parentColumnName> har datatyp <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Åtkomst nekad. Orsak: Den privata nyckeln för tjänstkontot är ogiltig.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Google Server Account OAuth Private Key måste vara ett giltigt JSON-objekt med obligatoriska fält. Se till att ange den fullständiga JSON-filen som genererats från avsnittet NYCKLAR i informationssidan för tjänstkontot.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Google Server Account OAuth Private Key måste vara ett giltigt JSON-objekt med obligatoriska fält. Se till att ange den fullständiga JSON-filen som genererats från avsnittet NYCKLAR i informationssidan för tjänstkontot. Fält som saknas är <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
IAM-rollen för den här lagringsautentiseringsuppgiften visade sig inte vara självförstårande. Kontrollera din rolls förtroendeprinciper och IAM-policyer för att säkerställa att din IAM-roll kan utöva sina rättigheter enligt dokumentationen för Unity Catalogs lagringsbehörigheter.
UC_ICEBERG_COMMIT_CONFLICT
Det går inte att checka in <tableName>: metadataplatsen <baseMetadataLocation> har ändrats från <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
Det går inte att utföra ett hanterat Apache Iceberg-åtagande till en icke-hanterad Apache Iceberg-tabell: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
Den angivna incheckningsinformationen för Managed Apache Iceberg saknar obligatoriska fält.
UC_ID_MISMATCH
<type> <name> saknar ID <wrongId>. Försök igen.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
För många begäranden om informationsschema för metaarkivet. Vänta en stund och försök igen. Om problemet kvarstår kan du överväga att justera selektiviteten för dina frågor eller kontakta supporten för hjälp.
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
Onlinetabellen är föråldrad. Det går inte längre att hämta åtkomst till onlinetabellen <securableName> .
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Ogiltig åtkomst till databasinstansen. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Ogiltig åtkomst för <securableType> <securableName> i den federerade katalogen <catalogName>. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Ogiltigt Cloudflare-konto-ID.
UC_INVALID_CREDENTIAL_CLOUD
Ogiltig molnleverantör för autentiseringsuppgifter .<cloud> Tillåten molnleverantör.<allowedCloud>
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Ogiltigt värde '<value>' för autentiseringsuppgifternas 'syfte'. Tillåtna värden .<allowedValues>
UC_INVALID_CREDENTIAL_TRANSITION
Det går inte att uppdatera en anslutning från <startingCredentialType> till <endingCredentialType>. Den enda giltiga övergången är från en användarnamn-/lösenordsbaserad anslutning till en OAuth-tokenbaserad anslutning.
UC_INVALID_CRON_STRING_FABRIC
Ogiltig cron-sträng. Hittade: '<cronString>' med undantag vid analys: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Ogiltig hanterad tabell för direktåtkomst <tableName>. Kontrollera att källtabellens & pipeline-definition inte är definierad.
UC_INVALID_EMPTY_STORAGE_LOCATION
Oväntad tom lagringsplats för <securableType> "<securableName>" i katalogen "<catalogName>". För att åtgärda det här felet kör du DESCRIBE SCHEMA <catalogName>.
<securableName> och uppdatera den här sidan.
UC_INVALID_OPTIONS_UPDATE
Ogiltiga alternativ angivna för uppdatering. Ogiltiga alternativ: <invalidOptions>. Tillåtna alternativ: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Ogiltigt värde<value> för '<option>'. Tillåtna värden .<allowedValues>
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' får inte vara tom. Ange ett värde som inte är tomt.
UC_INVALID_POLICY_CONDITION
Ogiltigt villkor i policyn '<policyName>'. Kompileringsfel med meddelandet '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
OgiltigT R2-åtkomstnyckel-ID.
UC_INVALID_R2_SECRET_ACCESS_KEY
Ogiltig R2-nyckel för hemlig åtkomst.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
Det går inte att uppdatera <securableType> eftersom<securableName> den ägs av en intern grupp. Kontakta Databricks-supporten om du vill ha mer information.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Under förutsättning att lagringsautentiseringsuppgift <storageCredentialName> inte är kopplad till DBFS-roten är det förbjudet att skapa en extern wasbs-plats.
UC_LOCATION_INVALID_SCHEME
Lagringsplatsen har ogiltigt URI-schema: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
Svaret från tokenservern saknade fältet <missingField>. Det returnerade serversvaret är: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Det går inte att stödja en hanterad isbergstabell på den aktuella slutpunkten.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' kan inte tilldelas. Endast MANUALLY_ASSIGNABLE och AUTO_ASSIGNMENT_ENABLED stöds.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
Metastore-certifiering är inte aktiverad.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: ingen tilldelad
Metaarkivet <metastoreId> har <numberManagedOnlineCatalogs> hanterade onlinekataloger. Ta uttryckligen bort dem och försök sedan ta bort metaarkivet igen.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
Metaarkivets rotautentiseringsuppgifter kan inte definieras när metaarkivets rotplats uppdateras. Inloggningsuppgifterna hämtas från den externa huvudplatsen för metadatalagret.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Det gick inte att ta bort lagringsrotsplatsen för metadatalagret. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
Roten <securableType> för ett metaarkiv kan inte vara skrivskyddad.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
Det går inte att uppdatera lagringsroten för metaarkiv när den har angetts.
UC_MODEL_INVALID_STATE
Det går inte att generera tillfälliga<opName> autentiseringsuppgifter för modellversion <modelVersion> med status <modelVersionStatus>.
<opName>Autentiseringsuppgifter kan bara genereras för modellversioner med status<validStatus>
UC_NO_ORG_ID_IN_CONTEXT
Försökte komma åt organisations-ID (eller arbetsyta-ID), men kontexten har inget sådant.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: ingen tilldelad
<rpcName> begäran uppdaterar <fieldName>. Använd fliken beräkning i onlinebutiken för att ändra något annat än kommentar, ägare och isolationsläge för en onlinekatalog.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Det går inte att skapa fler än <quota> onlinebutiker i metastore och det finns redan <currentCount>. Du kanske inte har åtkomst till några befintliga onlinebutiker. Kontakta metaarkivadministratören för att få åtkomst eller för ytterligare instruktioner.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: ingen tilldelad
online-indexkataloger måste vara <action> via /vector-search-API:et.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: ingen tilldelad
<rpcName> begäran uppdaterar <fieldName>. Använd API:et /vector-search för att ändra något annat än kommentar, ägare och isolationMode för en onlineindexkatalog.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Det går inte att skapa fler än <quota> onlineindexkataloger i metaarkivet och det finns redan <currentCount>. Du kanske inte har åtkomst till några befintliga onlineindexkataloger. Kontakta metaarkivadministratören för att få åtkomst eller för ytterligare instruktioner.
UC_ONLINE_INDEX_INVALID_CRUD
onlineindexar måste vara <action> via API:et /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: ingen tilldelad
onlinebutiker måste vara <action> via onlinebutikens beräkningsflik.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
Källtabellens kolumnnamn <columnName> är för långt. Den maximala längden är <maxLength> tecken.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Kolumn <columnName> kan inte användas som primärnyckelkolumn i onlinetabellen eftersom den inte ingår i den befintliga PRIMARY KEY begränsningen i källtabellen. Mer information finns i <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Kolumn <columnName> kan inte användas som en tidserienyckel för onlinetabellen eftersom det inte är en tidsseriekolumn i den befintliga PRIMARY KEY begränsningen för källtabellen. Mer information finns i <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Det går inte att skapa fler än <quota> onlinetabeller per källtabell.
UC_ONLINE_VIEW_ACCESS_DENIED
Åtkomst till resurs <resourceName> kräver användning av ett serverlöst SQL-lager. Kontrollera att det lager som används för att köra en fråga eller visa en databaskatalog i användargränssnittet är serverlös. Mer information finns i <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Det går inte att skapa fler än <quota> kontinuerliga onlinevyer i onlinebutiken och det finns redan <currentCount>. Du kanske inte har åtkomst till några befintliga onlinevyer. Kontakta din onlinebutiksadministratör för att få åtkomst eller för ytterligare instruktioner.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: ingen tilldelad
<tableKind> kan inte skapas under lagringsplats med Databricks Managed Keys. Välj ett annat schema/en annan katalog på en lagringsplats utan Databricks Managed Keys-kryptering.
UC_ONLINE_VIEW_INVALID_CATALOG
Ogiltig katalog <catalogName> med typ <catalogKind> att skapa <tableKind> inom.
<tableKind> kan bara skapas under kataloger av olika slag: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Ogiltigt schema <schemaName> med sort <schemaKind> för att skapa <tableKind> inuti.
<tableKind> kan bara skapas under scheman av olika slag: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
Kolumn <columnName> av typen <columnType> kan inte användas som TTL-tidskolumn. Tillåtna typer är <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Åtgärden stöds inte av Unity Catalog. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Fel med auktoriserad sökväg. Platsen <securableType><location> är inte definierad inom de godkända sökvägarna för katalogen: <catalogName>. Be katalogägaren att lägga till sökvägen till listan över auktoriserade sökvägar som definierats i katalogen.
UC_OVERLAPPED_AUTHORIZED_PATHS
Alternativet "authorized_paths" innehåller överlappande sökvägar: <overlappingPaths>. Se till att varje sökväg är unik och inte korsar andra i listan.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
Frågeargumentet är<arg> inställt på "<received>" vilket skiljer sig från det värde som användes i det första sidnumreringsanropet ('<expected>')
UC_PATH_FILTER_ALLOWLIST_VIOLATION
Referensen '<credentialName>' är en standardautentiseringsuppgift för arbetsytan som endast får komma åt data i följande sökvägar: "<allowlist>". Kontrollera att alla sökvägar som nås med hjälp av den här autentiseringsuppgiften finns under någon av dessa sökvägar.
UC_SÖKVÄG_FILTER_NEKALISTA_OVERTRÄDELSE
Autentiseringsuppgiften är<credentialName> en standardautentiseringsuppgift för arbetsytan som inte kan komma åt data i följande begränsade sökväg: "<targetPath>".
UC_PATH_TOO_LONG
Indatasökvägen är för lång. Tillåten längd: <maxLength>. Indatalängd: <inputLength>. Indata: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Samtidighetsgränsen överskreds för metaarkivet <metastoreId>. Försök igen senare. Kontakta supporten om problemet kvarstår. Felkod #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Det går inte att skapa fler än <quota> synkroniserade databastabeller per källtabell.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Det går inte att skapa den primära nyckeln <constraintName> eftersom dess underordnade kolumner <childColumnNames> är null. Ändra kolumnens nullbarhet och försök igen.
UC_REQUEST_TIMEOUT
Den här åtgärden tog för lång tid.
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
S3-bucketnamn för rotlagring som innehåller punkter stöds inte av Unity Catalog: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Oväntad tom lagringsplats för schemat i<schemaName> katalogen<catalogName> . Kontrollera att schemat använder ett sökvägsschema med <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Serverlösa python- och scala-notebook-filer får inte hämta tillfälliga lagringsuppgifter från Unity Catalog på nätverksbegränsade arbetsytor.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Det går inte att komma åt "shallow clone" <tableFullName> eftersom bastabellen <baseTableName> har tagits bort.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED
Lagringsreferensen '<credentialName>' har <extTablesCount> direkt beroende externa tabeller och <extLocationsCount> associerade lagringsplatser. Du kan använda force-alternativet för att ta bort dem, men de hanterade lagringsdata som använder den här lagringsautentiseringsuppgiften kan inte längre rensas av Unity Catalog.
STORAGE_CREDENTIALSUC__MED_EXTERN_PLATSUPPDATERING_NEKAD
Lagringsautentisering '<credentialName>' har <extTablesCount> direkt beroende externa tabeller och <extLocationsCount> beroende lagringsplatser. Använd alternativet "force" för att uppdatera oavsett.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Det gick inte att parsa det angivna åtkomstanslutnings-ID:t: <accessConnectorId>. Kontrollera dess formatering och försök igen.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Det går inte att skapa en lagringsautentiseringsuppgift för DBFS-roten eftersom användaren: <userId> inte är administratör för arbetsytan: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
DBFS-rotlagringsautentiseringsuppgifter stöds ännu inte för arbetsytor med brandväggsaktiverad DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
DBFS-rotlagringsautentiseringsuppgifter för den aktuella arbetsytan stöds ännu inte
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
DBFS roten är inte aktiverad för arbetsyta <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Det gick inte att hämta en AAD-token för att utföra validering av molnbehörighet på en åtkomstanslutning. Försök igen.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Registrering av en lagringsautentiseringsuppgift kräver deltagarrollen över motsvarande åtkomstanslutning med ID <accessConnectorId>. Kontakta kontoadministratören.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED
Det går inte att ta bort lagringsautentiseringsuppgifter<credentialName> eftersom det är konfigurerat som det här metaarkivets rotautentiseringsuppgifter. Uppdatera metaarkivets rotautentiseringsuppgifter innan du försöker ta bort det.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Endast kontoadministratören kan skapa eller uppdatera en lagringsautentiseringsuppgift med typen <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Valideringstoken saknas för serviceprincipalen. Ange en giltig ARM-scoped Entra-ID-token i begärandehuvudet "X-Databricks-Azure-SP-Management-Token" och försök igen. Mer information finns i https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
Förtroendeprincipen för IAM-rollen så att Databricks-kontot kan anta rollen bör kräva ett externt ID. Kontakta kontoadministratören för att lägga till det externa ID-villkoret. Det här beteendet är att skydda mot det förvirrade ställföreträdarproblemet (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
Platsen <location> finns inte i DBFS-roten eftersom vi inte kan skapa en lagringsautentiseringsuppgift <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Det går inte att skapa eller uppdatera en lagringsautentiseringsuppgift som icke-kontoadministratör i API:et på kontonivå. Använd i stället arbetsytans API.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
Platsen <requestedLocation> finns inte i den tillåtna kontexten <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Arbetsytans interna kataloglagringsautentiseringsuppgifter för den aktuella arbetsytan stöds inte ännu
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT (Systemschema inte tillgängligt för aktivering)
Systemschemat <systemSchema> är för närvarande inte tillgängligt för aktivering. Försök igen senare.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Det går inte att bevilja behörigheter för <securableType> till systemgenererad grupp <principal>.
UC_TABLE_IS_NOT_CATALOG_OWNED
Begäran om att utföra commit/getCommits för tabellen '<tableId>' kräver aktivering av en funktion som ägs av katalogen i tabellen.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Taggtilldelning med taggnyckel <tagKey> finns inte
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Tillfällig hantering av autentiseringsuppgifter stöds inte.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Det går inte att återställa '<resourceType>' eftersom en '<resourceType>' med id '<resourceId>' redan finns.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
Det går inte att ångra borttagningen av '<resourceType>' eftersom det redan finns en '<resourceType>' med namnet '<resourceName>'.
UC_UNDROP_RESOURCE_NOT_READY
Det går inte att undrop '<resourceType>' eftersom '<resourceType>' med ID '<resourceId>' inte är redo att återställas, försök igen senare.
UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD
Det går inte att återställa '<resourceType>' eftersom '<resourceType>' med ID '<resourceId>' har passerat sin anpassade återställningsperiod.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Det går inte att återställa "<resourceType>" eftersom "<resourceType>" med ID "<resourceId>" är utanför den stödda återställningsperiodens gräns på "<maxRestorationPeriodDay>" dagar.
UC_UNIK_BEGRÄNSNING_BARNKOLUMNER_FINNS_REDAN
Det gick inte att skapa UNIQUE villkoret <newConstraintName>: tabellen <tableName> har redan en UNIQUE begränsning: <existingConstraintName>, som har samma uppsättning underordnade kolumner.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED
Det gick inte att använda villkoret UNIQUE<constraintName>: UNIQUE villkoret är inte aktiverat.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Ogiltig basväg angiven, basvägen bör likna /api/resources/v1. Sökväg som inte stöds: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Ogiltigt värdnamn anges, värdnamnet bör vara ungefär som https://www.databricks.com utan sökvägssuffix. Värd som inte stöds: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Endast de grundläggande Latin/Latin-1 ASCII-tecknen stöds i sökvägar för externa platser/volymer/tabeller. Sökväg som inte stöds: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
Det går inte att uppdatera <securableType> '<securableName>' eftersom den håller på att etableras.
UC_ANVÄNDER_REFERENS_AV_MASKERADE_KOLUMNER
Det gick inte att utvärdera ABAC-principer på '<resource>'. Misslyckades med meddelandet: Kolumnen '<usingCol>' har maskerats av principen '<alreadyMaskingPolicy>' och kan inte användas i principen '<policyName>'.
UC_WRITE_CONFLICT
<type> <name> har ändrats av en annan begäran. Försök igen.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Begäran om att utföra commit/getCommits för tabellen "<tableId>" utanför en Databricks Unity Catalog-aktiverad beräkningsmiljö nekas av säkerhetsskäl. Kontakta Databricks-supporten för integreringar med Unity Catalog.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Begäran om att skapa mellanlagringstabellen <tableFullName> utanför Databricks Unity Catalog-aktiverade beräkningsmiljö nekas av säkerhetsskäl. Kontakta Databricks-supporten för integreringar med Unity Catalog.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Begäran om att skapa tabellen '<tableFullName>' utanför en Databricks Unity Catalog-aktiverad beräkningsmiljö nekas. Kolumnmasker stöds inte när tabeller skapas externt.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_MISSLYCKADES_VALIDERING_DATASKÄLLFORMAT_EJ_DELTA
Begäran om att skapa tabellen '<tableFullName>' utanför en Databricks Unity Catalog-aktiverad beräkningsmiljö nekas. Datakällans format måste vara DELTA för att skapa tabellen externt, men det är '<dataSourceFormat>'.
ENHETSKATALOG_EXTERN_SKAPA_TABELL_MISSLYCKADES_VALIDERING_TABELL_TYP_INTE_EXTERN
Begäran om att skapa tabellen '<tableFullName>' utanför en Databricks Unity Catalog-aktiverad beräkningsmiljö nekas. Tabelltypen måste vara EXTERNAL för att skapa tabellen externt, i stället är den "<tableType>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_INNEHÅLLER_OGILTIGA_FÄLT
När du skapar en extern tabell kan du bara skapa följande fält: [namn, catalog_name, schema_name, table_type, data_source_format, kolumner, storage_location och egenskaper].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Begäran om att skapa en icke-extern tabell<tableFullName> utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas för säkerhet. Kontakta Databricks-supporten för integreringar med Unity Catalog.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Begäran om att ta bort en icke-extern tabell<tableFullName> utanför Databricks Unity Catalog-aktiverad beräkningsmiljö stöds inte.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Begäran om att generera åtkomstautentiseringsuppgifter för sökvägen "<path>" utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas för säkerhet. Kontakta Databricks-supporten för integreringar med Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Begäran om att generera åtkomstautentiseringsuppgifter för tabellen "<tableId>" utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas för säkerhet. Kontakta Databricks-supporten för integreringar med Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Begäran om att generera autentiseringsuppgifter för tillfälliga sökvägar utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas. Autentiserings-ID får inte definieras när autentiseringsuppgifter för tillfällig sökväg genereras externt.
(No improvements needed as it seems this string should remain untranslated for technical understanding or code identification.)
Begäran om att generera autentiseringsuppgifter för tillfälliga sökvägar utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas. make_path_only_parent får inte definieras när autentiseringsuppgifter för tillfälliga sökvägar genereras externt.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Begäran om att hämta utländska autentiseringsuppgifter för skyddsbara objekt utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas för säkerhet.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Begäran om att uppdatera ögonblicksbilder av metadata utanför Databricks Unity Catalog-aktiverad beräkningsmiljö nekas för säkerhet.
UNSUPPORTED_LOCATION_SCHEME
<fieldName> har ogiltigt URI-schema <scheme>. Giltiga URI-scheman inkluderar <validSchemes>. Ogiltig sökväg: <path>.
UPDATE_SYSTEM_TABLE
Det går inte att ändra den systemägda tabellen. Tabell '<tableName>' är en systemägd tabell.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Ogiltig begäran om att hämta skrivrättigheter för hanterad onlinetabell i en onlinekatalog.
Api för filer
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: ingen tilldelad
<api_name> API:et är inte aktiverat
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: ingen tilldelad
Begärd metod för filsystemets API stöds inte för molnbaserade sökvägar
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: ingen tilldelad
Åtkomst till lagrings bucketen nekas av AWS.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: ingen tilldelad
All åtkomst till lagrings bucketen har inaktiverats i AWS.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Lagrings bucketen finns inte i AWS.
FILES_API_AWS_FORBIDDEN
SQLSTATE: ingen tilldelad
Åtkomst till lagrings bucketen är förbjuden av AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: ingen tilldelad
Arbetsytan är felkonfigurerad: den måste finnas i samma region som rotlagringsbehållaren för AWS-arbetsytan.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: ingen tilldelad
Lagringshinknamnet är ogiltigt.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: ingen tilldelad
De konfigurerade KMS-nycklarna för åtkomst till lagringshinken är inaktiverade i AWS.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: ingen tilldelad
Åtkomst till AWS-resursen är obehörig.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: ingen tilldelad
Lagringskontot är inaktiverat i Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: ingen tilldelad
Skillnad i auktoriseringsbehörighet
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Azure-containern finns inte.
FILER_API_AZURE_REFERENS_SAKNAS
SQLSTATE: ingen tilldelad
Azure-autentiseringsuppgifter hittades inte. Azure-autentiseringsuppgifterna kan saknas eller vara otillgängliga.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: ingen tilldelad
Åtkomst till lagringscontainern är förbjuden av Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: ingen tilldelad
Azure svarade att det för närvarande finns en leasing på resursen. Försök igen senare.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: ingen tilldelad
Kontot som används har inte tillräcklig behörighet för att köra den här åtgärden.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: ingen tilldelad
Konfigurationen av det konto som används stöds inte.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: ingen tilldelad
Det går inte att komma åt lagringskontot i Azure: ogiltigt lagringskontonamn.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: ingen tilldelad
Nyckelvalvet hittades inte i Azure. Kontrollera inställningarna för kundhanterade nycklar.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: ingen tilldelad
Azure Key Vault-nyckeln hittades inte i Azure. Kontrollera inställningarna för kundhanterade nycklar.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: ingen tilldelad
Nyckelvalvet hittades inte i Azure. Kontrollera inställningarna för kundhanterade nycklar.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: ingen tilldelad
Azure Managed Identity Credential för Access Connector hittades inte. Det kan bero på att IP-åtkomstkontroller avvisade din begäran.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: ingen tilldelad
Det gick inte att slutföra åtgärden inom den tillåtna tiden.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: ingen tilldelad
Den begärda sökvägen är inte giltig för Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: ingen tilldelad
Den begärda sökvägen är oföränderlig.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: ingen tilldelad
En av de rubriker som anges i åtgärden stöds inte.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: ingen tilldelad
Det går inte att parsa URL-parametern.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: ingen tilldelad
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: ingen tilldelad
Det är ett problem med att nå <cloud_storage_provider>. Försök igen senare.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: ingen tilldelad
tecknet ":" stöds inte i sökvägar
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: ingen tilldelad
Konsumentnätverkszonen "<consumer_network_zone>" tillåts inte från begärandenätverkszonen "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: ingen tilldelad
Nätverkszonen för Databricks kontrollplan är inte tillåten.
FILES_API_CREDENTIAL_NOT_FOUND
SQLSTATE: ingen tilldelad
Det gick inte att hitta autentiseringsuppgifterna.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: ingen tilldelad
En brödtext angavs men kataloger kan inte ha en filtext
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: ingen tilldelad
Katalogen är inte tom. Den här åtgärden stöds inte på icke-tomma kataloger.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: ingen tilldelad
Det går inte att hitta katalogen som används.
FILES_API_DIRECTORY_ZIP_DOWNLOAD_FILE_LIMIT_EXCEEDED
SQLSTATE: ingen tilldelad
Katalogen innehåller för många filer för ZIP-nedladdning. Maximalt antal <max_file_count> filer som tillåts.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: ingen tilldelad
Rotnyckeln för den kundhanterade krypteringen är inaktiverad.
FILES_API_DUPLICATED_HEADER
SQLSTATE: ingen tilldelad
Begäran innehöll flera kopior av en rubrik som bara får förekomma en gång.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: ingen tilldelad
Frågeparametern<parameter_name> måste finnas exakt en gång men angavs flera gånger.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: ingen tilldelad
DBFS-bucketnamnet är tomt.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
Användaren har inte åtkomst till krypteringsnyckeln.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: ingen tilldelad
Det gick inte att slutföra åtgärden för att hämta krypteringsnyckeln inom den tillåtna tiden.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: ingen tilldelad
Objektet överskrider den maximala tillåtna objektstorleken.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: ingen tilldelad
TTL har upphört att gälla.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: ingen tilldelad
TTL:en är ogiltig.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: ingen tilldelad
Nyckeln för arbetsytan hittades inte.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: ingen tilldelad
URL:en saknar en obligatorisk parameter.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: ingen tilldelad
TTL är i framtiden.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: ingen tilldelad
Utfärdarens shardnamn är ogiltigt.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: ingen tilldelad
förfallotid måste finnas
FILES_API_EXPIRED_TOKEN
SQLSTATE: ingen tilldelad
Den angivna token har upphört att gälla.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: ingen tilldelad
ExpireTime måste finnas i framtiden
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: ingen tilldelad
Begärd TTL är längre än vad som stöds (1 timme)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: ingen tilldelad
Filen som skapas finns redan.
FILES_API_FILE_NOT_FOUND
SQLSTATE: ingen tilldelad
Det går inte att hitta filen som används.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: ingen tilldelad
Filer eller kataloger som slutar med tecknet "." stöds inte.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: ingen tilldelad
Filstorleken får inte överstiga <max_download_size_in_bytes> byte, men <size_in_bytes> byte hittades.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: ingen tilldelad
Åtkomst till lagringshinken har inaktiverats i GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Lagringsutrymmet finns inte i GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: ingen tilldelad
Åtkomst till bucketen är förbjuden av GCP.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: ingen tilldelad
Den kundhanterade krypteringsnyckeln som konfigurerats för den platsen är antingen inaktiverad eller förstörd.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: ingen tilldelad
GCP-begäranden till bucketen är förbjudna av policyn, kontrollera VPC-tjänstkontrollerna.
FILER_API_GCP_ANVÄNDARPROJEKT_KONTO_PROBLEM
SQLSTATE: ingen tilldelad
Det finns ett problem med det GCP-projekt som används i begäran som hindrar åtgärden från att slutföras.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: ingen tilldelad
Molnproviderns värd är tillfälligt inte tillgänglig. Försök igen senare.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: ingen tilldelad
Värdet för innehållslängdsrubriken måste vara ett heltal större än eller lika med 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: ingen tilldelad
Den angivna sidtoken är inte giltig.
FILES_API_INVALID_HOSTNAME
SQLSTATE: ingen tilldelad
Värdnamnet är ogiltigt.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: ingen tilldelad
Ogiltig http-metod. Förväntade '<expected>' men fick '<actual>'.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: ingen tilldelad
Metaarkivets ID-rubrik är ogiltig.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: ingen tilldelad
ogiltig sidtoken
FILES_API_INVALID_PATH
SQLSTATE: ingen tilldelad
Ogiltig sökväg: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: ingen tilldelad
Områdesrubriken är ogiltig.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: ingen tilldelad
Ogiltig sessionstoken
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: ingen tilldelad
Ogiltig typ av sessionstoken. Förväntade '<expected>' men fick '<actual>'.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: ingen tilldelad
Tidsstämpeln är ogiltig.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: ingen tilldelad
Ogiltig uppladdningstyp. Förväntade '<expected>' men fick '<actual>'.
FILER_API_OGILTIG_URL
SQLSTATE: ingen tilldelad
Ogiltig URL
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: ingen tilldelad
Url:en som skickas som parameter är ogiltig
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: ingen tilldelad
Frågeparametern "overwrite" måste vara en av: true, false men var: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: ingen tilldelad
Frågeparametern<parameter_name> måste vara en av: <expected> men var: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: ingen tilldelad
Felaktig begärandetext
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: ingen tilldelad
Den begärda metoden för Files API stöds inte för Jobb Background Compute Artifact Storage.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: ingen tilldelad
Innehållslängdsrubriken krävs i begäran.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: ingen tilldelad
Frågeparametern<parameter_name> krävs men saknas i begäran.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: ingen tilldelad
Begäran saknar en obligatorisk parameter.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: ingen tilldelad
Begäransgränsen har överskridits vid kommunikation med mlflow-tjänsten.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: ingen tilldelad
Modellversionen är inte klar än
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Försignerade URL:er för att avbryta uppladdningar med flera delar stöds inte för filer som lagras på <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: ingen tilldelad
Listan över delar måste ha minst ett element men var tom.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: ingen tilldelad
Det gick inte att hitta en eller flera av de angivna delarna. Delen kanske inte har laddats upp eller så matchar den angivna entitetstaggen kanske inte delens entitetstagg.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: ingen tilldelad
Delnummer måste vara större än eller lika med <min> och mindre än eller lika med <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: ingen tilldelad
ETags måste anges för filer som lagras på <cloud_storage_provider>. Minst en ETag angavs inte eller var tom.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: ingen tilldelad
Lagringsentitetens interna tillstånd har ändrats eftersom uppladdningen initierades, till exempel eftersom filsökvägen inte pekar på samma underliggande molnlagringsplats. Fortsätt genom att initiera en ny uppladdningssession.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: ingen tilldelad
De delar som laddas upp som en del av en uppladdningssession i flera delar måste vara av samma storlek för filer som lagras på <cloud_storage_provider>, förutom den sista delen som kan vara mindre.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: ingen tilldelad
Storleken på de delar som laddas upp som en del av en uppladdningssession i flera delar måste vara större än eller lika <min> med och mindre än eller lika med <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: ingen tilldelad
Det går inte att hitta uppladdningssessionen. Den kan ha avbrutits eller slutförts.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: ingen tilldelad
Listan över delar måste ordnas efter artikelnumret men har inte ordnats.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: ingen tilldelad
Innehållslängdsrubriken måste vara noll för den här begäran.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: ingen tilldelad
Files API för <place> är inte aktiverat för den här arbetsytan/kontot
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: ingen tilldelad
Den begärda metoden för Files API stöds inte för intern lagring av arbetsytor
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: ingen tilldelad
operationen måste finnas
FILES_API_OPERATION_TIMEOUT
SQLSTATE: ingen tilldelad
Tidsgränsen för åtgärden.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: ingen tilldelad
page_size måste vara större än eller lika med 0
FILER_API_SÖKVÄGSBASERAD_ÅTKOMST_TILL_TABELL_MED_FILTER_ÄR_INTE_TILLÅTEN
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: ingen tilldelad
Sökvägar som slutar med tecknet '/' representerar kataloger. Det här API:et stöder inte åtgärder på kataloger.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: ingen tilldelad
Den angivna sökvägen pekar på en befintlig katalog. Det här API:et stöder inte åtgärder på kataloger.
FILES_API_PATH_IS_A_FILE
SQLSTATE: ingen tilldelad
Den angivna sökvägen pekar på en befintlig fil. Det här API:et stöder inte åtgärder för filer.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: ingen tilldelad
den angivna sökvägen var inte en giltig UTF-8-kodad URL
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: ingen tilldelad
Angiven sökväg är inte aktiverad för dataplanproxy
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: ingen tilldelad
sökvägen måste finnas
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: ingen tilldelad
Den angivna filsökvägen är för lång.
FILES_API_PRECONDITION_FAILED
SQLSTATE: ingen tilldelad
Begäran misslyckades på grund av en förhandsvillkor.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Api för filer för presignerade URL:er för modeller stöds inte för närvarande
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: ingen tilldelad
R2 stöds inte för tillfället.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: ingen tilldelad
Det begärda intervallet är inte uppfyllt.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Rekursivt lista filer stöds inte.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: ingen tilldelad
Det går inte att härleda begärandenätverkszonen.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: ingen tilldelad
Begäran dirigerades felaktigt
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: ingen tilldelad
Begäran måste innehålla kontoinformation
FILER_API_BEHOV_BEGÄRAN_OMFATTAR_MOTTAGARINFORMATION
SQLSTATE: ingen tilldelad
Begäran måste innehålla mottagarinformation.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: ingen tilldelad
Begäran måste innehålla användarinformation
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: ingen tilldelad
Begäran måste innehålla information om arbetsytan
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: ingen tilldelad
Resursen är skrivskyddad.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: ingen tilldelad
Det går inte att komma åt URL:en.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: ingen tilldelad
Signaturverifieringen misslyckades.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: ingen tilldelad
Lagringsåtkomstkontexten är ogiltig.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: ingen tilldelad
Lagringskonfigurationen för den här arbetsytan är inte tillgänglig.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Api för filer stöds inte för <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: ingen tilldelad
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: ingen tilldelad
<unity_catalog_error_message>
FILER_API_KAN_INTE_FÖRNYA_AZURE_HANTERADE_IDENTITETER
SQLSTATE: ingen tilldelad
Det går inte att förnya en hanterad Azure-identitet.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: ingen tilldelad
Oväntat fel vid parsning av URI:n
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: ingen tilldelad
Oväntade frågeparametrar: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: ingen tilldelad
Okänd metod <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: ingen tilldelad
Okänt serverfel.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: ingen tilldelad
URL-värd är okänt.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: ingen tilldelad
Begäran autentiserades inte korrekt.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: ingen tilldelad
HttpMethod stöds inte.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: ingen tilldelad
Kombinationen av parametrar stöds inte.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: ingen tilldelad
Den angivna sökvägen stöds inte av Files-API:et. Kontrollera att den angivna sökvägen inte innehåller instanser av .. /' eller './'-sekvenser. Kontrollera att den angivna sökvägen inte använder flera snedstreck i följd (till exempel "///").
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: ingen tilldelad
Indataparametern antal måste vara större än 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: ingen tilldelad
Försignerad URL-generering är inte aktiverat för <cloud>.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Files API stöds inte för <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: ingen tilldelad
Arbetsytan har ställts in.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: ingen tilldelad
Lagringskonfigurationen för den här arbetsytan är inte tillgänglig.
Deklarativa pipelines för Lakeflow
There are no changes needed, as maintaining the original term appears to be appropriate in this context.
ABAC-principer stöds inte för tabeller som definierats i en pipeline.
Ta bort principerna eller kontakta Databricks-supporten.
Avvikande drivrutinsterminering
Drivrutin i klustret <clusterId> avbröts onormalt på grund av <terminationCause>. Mer information finns i drivrutinsloggarna.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Det finns redan en aktiv uppdatering<updateId> för den länkade pipelinen<linkedPipelineId>.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Det finns redan en aktiv uppdatering<updateId> för pipelinen<pipelineId>.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER tillåts inte för tabeller som hanteras av en
Mer information finns i ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Det går inte att ändra <type> i en tabell utan ett befintligt schema eller en utlösare. Lägg till ett schema eller en utlösare i tabellen innan du försöker ändra det.
API_QUOTA_EXCEEDED
Du har överskridit API-kvoten för datakällan <sourceName>.
Mer information finns i API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
Ett fel uppstod under åtgärden AUTO CDC .
Mer information finns i APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Ett fel uppstod under åtgärden AUTO CDC FROM SNAPSHOT .
Se APPLY_CHANGES_FROM_SNAPSHOT_ERROR för mer information
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
Datauppsättningen <datasetName> har definierade förväntningar, men förväntningar stöds för närvarande inte för datauppsättningar med hjälp av AUTO CDC FROM SNAPSHOT.
Ta bort förväntningarna för att lösa det här felet. Alternativt bör du överväga att använda följande struktur för att tillämpa förväntningar genom att kombinera AUTO CDC och AUTO CDC FROM SNAPSHOT:
Tillämpa ändringar från ögonblicksbilder med scd typ 1 på en mellanliggande tabell utan förväntningar.
Läsa ändringar från en mellanliggande tabell med
spark.readStream.option("readChangeFeed", "true").table.Tillämpa ändringar från den mellanliggande tabellen på den slutliga måltabellen med hjälp av
dlt.create_auto_cdc_flowföljande parametrar utöver de som för närvarande används meddlt.acreate_auto_cdc_flow_from_snapshot:
Så här hanterar du ändringar:
apply_as_deletes = "_change_type == 'delete'"Så här tar du bort kolumner som lagts till av CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Inkludera den aktuella uppsättningen förväntningar på den slutliga måltabellen som används för
dlt.create_auto_cdc_flow.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
Funktionen COLUMNS TO UPDATE är i förhandsversion och är inte aktiverad för din arbetsyta. Kontakta din Databricks-representant om du vill veta mer om den här funktionen och få åtkomst till den privata förhandsversionen.
ANVÄNDA_MILJÖ_KLUSTER_INTE_TILLGÄNGLIGT
Pipelineberäkning för <pipelineId> är inte tillgängligt. Beräkningen i pipelinen kan ha avbrutits eller så håller den fortfarande på att starta.
Försök igen senare när datorresurserna är helt tillgängliga. Om problemet kvarstår kontaktar du Databricks-supporten.
APPLY_ENVIRONMENT_CLUSTER_NOT_FOUND
Det går inte att hitta pipelineberäkning för <pipelineId> . Den här pipelineberäkningen kanske aldrig har startat eller har redan stoppats. Vänligen starta pipelinen
innan du tillämpar miljön.
UTFÖR_MILJÖ_INTE_STÖDD
ApplyEnvironment-slutpunkten stöds inte.
ARCHITECTURE_MIGRATION_FAILURE
Mer information finns i ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Pipelines som riktar sig till kataloger med standardlagring måste använda serverlös beräkning. Om du inte har åtkomst till serverlös beräkning kontaktar du Databricks för att aktivera den här funktionen för din arbetsyta.
BIGQUERY_DATA_CONNECTOR_KÄLLKATALOG_SAKNAS
Ett fel uppstod i BigQuery-dataanslutningen.
Källkatalogen (GCP-projekt-ID) saknas i inmatningsspecifikationen.
Ange källkatalogen (projekt-ID) i inmatningsspecifikationen för att lösa problemet.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Nya kolumner (<columnNames>) läggs till i include_columns fält i pipelinedefinitionen för tabellen <qualifiedTableName>. Uppdatera tabellen fullständigt för att undvika potentiell dataförlust eller ta bort dessa kolumner från include_columns.
CANNOT_ADD_STORAGE_LOCATION
Det går inte att lägga till lagringsplats i en befintlig pipeline med definierad katalog om du vill ange en lagringsplats för att skapa en ny pipeline.
Befintlig katalog: '<catalog>'.
Begärd lagringsplats: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: ingen tilldelad
Dekoratören @<decoratorName>kan inte kombineras med<otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
Pipelinedefinitionen exkluderar kolumner (<columnNames>) som inte finns i tabellen <qualifiedTableName> för källan <sourceType>. Ta bort dessa kolumner från fältet exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
Pipelinedefinitionen innehåller inte obligatoriska kolumner (<columnNames>) i tabellen <qualifiedTableName> av käll-<sourceType> för inmatning. Lägg till dem i include_columns eller ta bort dem från exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
Pipelinedefinitionen innehåller kolumner (<columnNames>) som inte finns i tabellen <qualifiedTableName> av källan <sourceType>. Ta bort dessa kolumner från fältet include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
Tabellen <qualifiedTableName> i <sourceType> källan har ingen primärnyckel.
Ange en primärnyckel i anslutningskonfigurationen för att mata in tabellen om den finns.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Det finns ännu inte stöd för att ändra ägare för icke-UC-pipelines.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Endast arbetsyteadministratörer kan ändra pipelineägaren.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Ny ägare finns inte.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type kan inte uppdateras.
Aktuell rörledningstyp: <currentPipelineType>.
Uppdaterat pipeline_type: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Det går inte att ändra lagringsplatsen för en befintlig pipeline.
Befintlig lagringsplats: '<existingStorageLocation>'.
Begärd lagringsplats: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Kolumner (<columnNames>) tas bort från exclude_columns fält i pipelinedefinitionen för tabellen <qualifiedTableName>. Uppdatera tabellen fullständigt för att undvika potentiell dataförlust eller lägg till dessa kolumner i exclude_columns.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Det går inte att lägga till katalogen i en befintlig pipeline med definierad lagringsplats om du vill använda UC för att skapa en ny pipeline och ange katalog.
Befintlig lagringsplats: '<storageLocation>'
Begärd katalog: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
Pipeline-ID:erna är desamma. Om du anger länkade pipeline-ID:er uppstår ett dödläge.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
Det angivna fältet 'schema' i inställningarna för pipelinen '<pipelineName>' är ogiltigt. Reason:
Mer information finns under CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: ingen tilldelad
<argList> är ömsesidigt uteslutande och kan inte konfigureras tillsammans.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
Pipelinedefinitionen anger både include_columns och exclude_columns för <identifier>. Ta bort en av dem.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Det går inte att uppdatera klustringskolumner för tabellen <tableName> eftersom den använder partitionskolumner. En tabell kan antingen använda partitionskolumner eller klustringskolumner, men inte båda.
Om du vill växla mellan flytande klustring och partitionering utlöser du en fullständig uppdatering av den här tabellen.
CANNOT_UPDATE_PARTITION_COLUMNS
Det går inte att uppdatera partitionskolumner för strömmande tabell <tableName>.
Aktuell: <existingPartitionColumns>,
Begärd: <requestedPartitionColumns>
Om du vill tillämpa den här partitionsändringen utlöser du en fullständig uppdatering av den här tabellen och andra strömmande tabeller som har uppdaterade partitionskolumner.
Du kan också återställa den här ändringen för att fortsätta använda de befintliga partitionskolumnerna.
CANNOT_UPDATE_TABLE_SCHEMA
Det gick inte att sammanfoga aktuella och nya scheman för tabell <tableName>.
Om du vill fortsätta med den här schemaändringen kan du utlösa en fullständig uppdatering av tabellen.
Beroende på ditt användningsfall och schemaändringar kanske du kan ta bort schemaändringen – du kan uppdatera dina frågor så att utdataschemat är kompatibelt med det befintliga schemat (t.ex. genom att uttryckligen omvandla kolumner till rätt datatyp).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Måltabellerna har dock redan inaktiva kolumner med det här namnet. kolumnerna är inaktiva eftersom de tidigare har tagits bort från källtabellerna.
Om du vill fortsätta med uppdateringen kör du en FULL REFRESH på tabellerna eller släpper dessa inaktiva kolumner med kommandot ALTER TABLE DROP COLUMN .
CANNOT_WRITE_TO_INACTIVE_TABLES
Följande tabeller i destinationen är inaktiva och står i konflikt med de aktuella källtabellerna: <tables>.
Dessa tabeller förblir inaktiva eftersom de har tagits bort tidigare från källan eller avmarkerats från anslutningen.
Om du vill fortsätta med uppdateringen, utför du en FULL REFRESH på tabellerna eller tar bort dessa inaktiva tabeller från målet i Catalog Explorer eller via kommandot DROP TABLE, och försöker uppdatera igen.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Följande tabeller i destinationen återställs inte korrekt i föregående fullständiga uppdatering: <tables>.
Utlös en fullständig uppdatering för att återställa dem.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
UC-katalogen har inte mappningen för katalogen '<sourceCatalog>'.
Kontrollera om katalogen är registrerad i UC-katalogen.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
Katalogen <destPipelineCatalog> och schemat <destPipelineSchema> för målpipelinen med ID<destPipelineId> matchar inte katalogen och schemat för tabellen <tableName>. Målpipelinen ska ha samma katalog och schema som tabellen eller så måste målpipelinen använda direktpubliceringsläget.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs stöds inte av databasanslutningarna för närvarande. Ta bort katalogspecifikationen.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Kolumner med UOID <columnNames> för tabellen <tableName> stöds inte i CDC-styrda inmatningsdatakanaler.
Kontrollera om inmatningspipelinen stöder kolumnen UOID eller begär en fullständig uppdatering.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
Gateway-pipelinen påträffade ett allvarligt fel:
<errorMessage>
Granska felet i pipelineuppdateringen här: <link>.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Replikerade tabellmetadata för tabellen <tableName> är inte redo.
Den befintliga tidsstämpeln för jobbbegäran är <existingRequestTs>, men vi förväntar oss <expectedRequestTs> eller senare.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Fullständig uppdatering av en måltabell och normal uppdatering av en annan måltabell från samma källa stöds inte.
Uppdatera båda tabellerna fullständigt för att fortsätta om möjligt.
Fullständiga uppdateringstabeller: <fullRefreshTables>
Måltabeller för käll-<sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
Schemaversionen <dataSchemaVersion> skiljer sig från lässchemaversionen <readSchemaVersion>.
DLT försöker uppdatera igen.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
Kolumnen <columnName> för tabellen <tableName> som anges i sequenceBy finns inte i <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
Kolumnen <columnName> för tabellen <tableName> som anges i sequenceBy är av den typ <typeName> som inte stöds.
Typer som stöds för sequenceBy-kolumner är <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
Högst en kolumn kan anges i sekvensBy för CDC-hanterad inmatningspipeline.
Angivna kolumner: <columns> för tabellen <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Vi stötte på en inkompatibel schemaändring (<cause>) från schemaversion <previousSchemaVersion> till <currentSchemaVersion>.
Därför kan vi inte fortsätta med att tillämpa ändringar för <tableName>. Begär en fullständig uppdatering av tabellen.
Föregående schema: <previousSchema>
Aktuellt schema: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Flera källtabeller hittades: <source_tables> mappade till samma måltabell <destination_table>.
Mappa dem till ett annat måltabellnamn eller till ett annat målschema.
CDC_POTENTIAL_DATA_GAPS
Följande tabeller [<needFullRefreshTableList>] har ingen lyckad uppdatering under de senaste <retention> dagarna.
Gör en fullständig uppdatering av dessa tabeller eller hela pipelinen.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Hittade samma tabellnamn <table> från flera källor: <sources>.
Dela upp dem i olika pipelines för att undvika konflikter.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
Tabell <table> finns inte i ögonblicksbilden av alla tabeller i källdatabasen.
Detaljer om tabellspecifikation
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
Det är inte tillåtet att ändra en HMS-pipeline till en UC-pipeline.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
Det är inte tillåtet att ändra en UC-pipeline till en HMS-pipeline.
CHANGING_CATALOG_NOT_ALLOWED
Det går inte att ändra katalogen för en befintlig pipeline. Befintlig katalog: '<existingCatalog>'. Begärd katalog: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Det går inte att ändra målschemat. Orsak: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
Det gick inte att skapa ett kluster eftersom pipelinens budgetprincip har överskridit gränsen. Använd en annan princip eller kontakta faktureringsadministratören.
CLUSTER_CREATION_CLIENT_ERROR
Det gick inte att skapa ett pipelinekluster: <errorMessage>
Det här felet beror troligen på en felkonfiguration i pipelinen.
Kontrollera konfigurationen av pipelinekluster och den associerade klusterprincipen.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
Det gick inte att skapa ett kluster eftersom antalet kluster som körs per användare för principen "<clusterPolicy>" har överskridit gränsen <clusterLimit>för . Använd en annan princip eller kontakta administratören.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Det gick inte att skapa ett kluster eftersom du har förbrukat dina tillgängliga krediter. Lägg till en betalningsmetod för att uppgradera ditt konto.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Det gick inte att skapa ett kluster eftersom du har överskridit resursgränserna: <errorMessage>
CLUSTER_LAUNCH_CLIENT_ERROR
Det gick inte att starta pipelinekluster <clusterId>: <clusterStateMessage>
Det här felet beror troligen på en felkonfiguration i pipelinen.
Kontrollera konfigurationen av pipelinekluster och den associerade klusterprincipen.
CLUSTER_LAUNCH_CLOUD_FAILURE
Det gick inte att starta pipelinekluster <clusterId>: <clusterStateMessage>
Det här felet kan vara tillfälligt – starta om pipelinen och rapportera om du fortfarande ser samma problem.
KLUSTER_START_RESOURCE_UTTAG
Det gick inte att starta pipelinekluster <clusterId>: <clusterStateMessage>
Det gick inte att tillhandahålla den begärda instanstypen från molnleverantören.
Kontrollera din molnleverantörsprenumeration eller försök igen med en annan instanstyp.
CLUSTER_SETUP_CLIENT_ERROR
Det gick inte att konfigurera klustret <clusterId> för genomförande av pipelineuppdatering. Reason:
Mer information finns i CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Kommunikation förlorad med föraren. Kluster <clusterId> kunde inte nås på <timeoutSeconds> sekunder.
COLUMN_MASK_WITH_NO_COLUMN
Kolumnmask hittades för kolumnen '<columnName>' som inte finns i MV/ST-schemat. Om detta beror på en ändring av bastabellens schema,
Släpp den gamla masken med ALTER TABLE [table_name] ALTER COLUMN [kolumn där mask används] DROP MASK eller återställ kolumnen.
COLUMN_TO_UPDATE_NOT_FOUND
Kolumn <column> som anges i COLUMNS TO UPDATE hittades inte i källdataramen.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Startade uppdateringen<upgradedUpdateId> för en uppgradering men kunde inte stoppa den tidigare uppdateringen<oldUpdateId>.
Det här felet är sannolikt tillfälligt. Pipelinen kommer automatiskt att försöka igen och problemet bör lösa sig av sig själv.
Rapportera det här felet till Databricks om du fortfarande ser samma problem.
ÅTGÄRD_APPENDERA_ENDAST_FLÖDE_FRÅN_BATCH_FRÅGA_EJ_TILLÅTEN
Det går inte att skapa en direktuppspelningstabell som läggs till en gång från en batchfråga.
Detta förhindrar inkrementell inmatning från källan och kan leda till felaktigt beteende.
Felaktig tabell: '<table>'.
Åtgärda detta genom att använda operatorn STREAM() eller readStream för att deklarera källan som en strömmande indata.
Exempel: SELECT ... FROM STREAM(<source table name>) eller spark.readStream.table(<source table name>)
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: ingen tilldelad
Datauppsättningen <datasetName> finns redan. Kontrollera att frågefunktionen bara har markerats som en vy eller tabell en gång.
DATASET_NOT_DEFINED
Det gick inte att läsa datamängden<datasetName> . Den här datauppsättningen har inte definierats i pipelinen.
Om den här tabellen hanteras av en annan pipeline ska du inte använda dlt.read / dlt.readStream för att läsa tabellen eller förbereda namnet med nyckelordet LIVE.
DBFS_NOT_ENABLED
DBFS är inte aktiverat för den här arbetsytan. publicera till Unity Catalog eller ange en annan lagringsplats för pipelinen.
DBSQL_PIPELINE_SAKNAS
En DBSQL pipeline saknas. Uppdatera den materialiserade vyn eller strömningstabellen för att skapa DBSQL-pipelinen.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
En DBSQL-pipeline måste ha exakt en materialiserad vy eller strömmande tabell, men det fanns <tablesSize> tabeller: <tables>
TA_BORT_PIPELINE_INAKTIVERAD
Det går inte att ta bort pipelinen just nu.
Kontakta Databricks-supporten om du vill ha hjälp med att ta bort pipelinen<pipelineId> .
DESTINATION_PIPELINE_NOT_FOUND
Det går inte att hitta målpipelinen med ID '<pipelineId>'. Kontrollera att du är i samma arbetsyta som pipelinen, att du är ägare till pipelinen och att pipelinen har körts minst en gång.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Målpipelinen med ID<pipelineId>:t använder inte direktpubliceringsläget.
DESTINATION_PIPELINE_PERMISSION_DENIED
Du får inte utföra den här åtgärden, du är inte ägare till målpipelinen med ID '<pipelineId>'. Endast ägare kan ändra processflödet för en tabell.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Målpipelinen med ID '<pipelineId>' är inte en ETL-pipeline.
OTILLÅTEN FÖRFRÅGAN FÖR ÅTERSTÄLLNING AV PIPELINE
Begäran <request> är inte tillåten för pipelinen '<pipelineId>' i 'RESTORING' tillståndet.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Fel vid hantering av begäran<action>.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Det går inte att ta bort SCHEDULE från en tabell utan ett befintligt schema eller en triggermekanism.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Duplicerad from_json schemaplatsnyckel: <schemaLocationKey>.
Välj unika schemaplatsnycklar för varje from_json fråga i pipelinen
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
Inmatningspipelinens konfiguration innehåller dubbla tabeller. Kontrollera att varje tabell är unik.
EMPTY_INGESTION_CONFIG_OBJECTS
Inmatningskonfigurationsobjekt är tomma.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
Inställningen för förbättrad automatisk skalning "spare_capacity_fraction" stöds endast i den avancerade produktversionen av Lakeflow Declarative Pipelines.
Redigera pipelineinställningarna för att ställa in "edition": "advanced" så att "spare_capacity_fraction" kan användas.
ENVIRONMENT_PIP_INSTALL_ERROR
Det gick inte att installera miljöberoendet: '<pipDependency>'. Kontrollera drivrutinens stdout-loggar i klustret för mer information.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Det går inte att publicera händelseloggen till Unity Catalog för den här pipelinen. Om detta är oväntat kontaktar du Databricks-supporten.
EXPECTATION_VIOLATION
Flow kunde<flowName> inte uppfylla förväntningarna.
Mer information finns i EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only och validate_only kan inte båda anges till true.
EXPLORE_ONLY_IS_NOT_ENABLED
explore_only uppdateringen är inte aktiverad. Kontakta Databricks-supporten.
FAILED_TO_CREATE_EVENT_LOG
Det gick inte att skapa en pipeline (id=<pipelineId>) händelselogg med identifieraren <eventLogIdentifier>. Mer information finns i undantaget nedan.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Det gick inte att publicera vyn <viewName> till metadatalagret eftersom <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Det gick inte att uppdatera händelseloggidentifieraren för pipeline (id=<pipelineId>) till <newEventLogIdentifier>. Mer information finns i undantaget nedan.
FLOW_SCHEMA_CHANGED
Flödet <flowName> har avslutats eftersom det påträffade en schemaändring under körningen.
Schemaändringen är kompatibel med det befintliga målschemat och nästa körning av flödet kan återupptas med det nya schemat.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
DLT ForeachBatch Sink stöds inte för närvarande.
Den privata förhandsversionen för DLT ForeachBatch-sinken kräver kanalen PREVIEW.
DLT-mottagare: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Gateway-pipelinen tillåter inte klusterinitskript. Ta bort den från <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Gateway-pipelinen tillåter inte spark-konfiguration [<configs>]. Ta bort dem från <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
Antalet begärda organisations-ID:t överskrider den maximala tillåtna gränsen på <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Ett fel uppstod i anslutningsprogrammet för rådata i Google Analytics.
Källkatalogen (GCP-projekt-ID) saknas i inmatningsspecifikationen.
Ange källkatalogen (projekt-ID) i inmatningsspecifikationen för att lösa problemet.
HMS_NOT_ENABLED
Hive-metaarkivet är inte aktiverat för den här arbetsytan. publicera till Unity Catalog.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
Datatypen för kolumnen som anges i COLUMNS till UPDATE måste vara en strängmatris men <illegalDataType>hittades.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
Inställningarna får inte innehålla .<fieldName>
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
Det angivna schemat i pipelineinställningarna är ogiltigt. Orsak: <reason>.
INCORRECT_ROOT_PATH_TYPE
Rotvägen '<rootPath>' måste vara en katalog, men fann <objectType>.
INFRASTRUKTUR_UNDERHÅLL
Drivrutinen i klustret <clusterId> avslutades på grund av infrastrukturunderhåll.
INGESTION_CONFIG_DUPLICATED_SCHEMA
Konfiguration av inmatningspipeline innehåller dubbletter av scheman. Kontrollera att varje schema är unikt.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Autentiseringsfel
Mer information finns i INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Ett schemamatchningsfel har identifierats mellan käll- och måltabellerna. För att lösa det här problemet krävs en fullständig uppdatering av tabellen '<entityName>' i inmatningspipelinen.
INGESTION_GATEWAY_CDC_NOT_ENABLED
CDC är inte aktiverat på <entityType> .<entityName> Aktivera CDC och utför en fullständig tabelluppdatering i inmatningspipelinen. Felmeddelande: '<errorMessage>'.
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED [INGESTION_GATEWAY_DB_VERSIONEN_STÖDS_INTE]
Databasversionen stöds inte.
Mer information finns i INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
DDL-objekt saknas på <entityType> .<entityName> Kör DDL-objektskriptet och genomför en fullständig uppdatering av tabellen i datainmatningspipelinen. Felmeddelande: '<errorMessage>'.
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
Inmatningsgatewaykonfigurationen saknar en anslutning.
Lägg till en referens till Unity Catalog-anslutningen som innehåller dina autentiseringsuppgifter.
Detaljer om definitionen av inmatningsgatewayens pipeline:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
Inmatningsgatewaykonfigurationen saknar den interna lagringsplatskatalogen.
Lägg till den interna lagringsplatskatalogen.
Detaljer om definitionen av inmatningsgatewayens pipeline:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
Ingestion gateway-konfigurationen saknar det interna lagringsplatsnamnet.
Lägg till namnet på den interna lagringsplatsen.
Detaljer om definitionen av inmatningsgatewayens pipeline:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
Inmatningsgatewaykonfigurationen saknar det interna lagringsplatsschemat.
Lägg till det interna lagringsplatsschemat.
Detaljer om definitionen av inmatningsgatewayens pipeline:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
Tabellen finns<entityName> inte i källdatabasen eller har tagits bort. Lös problemet och uppdatera tabellen i pipelinen för hanterad inmatning. Felmeddelande: '<errorMessage>'.
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Det gick inte att ändra replikeringspublikationen för <entityType> '<entityName>'
Felmeddelande: <errorMessage>
Mer information finns i INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Det gick inte att skapa replikeringspublikationen för <entityType> '<entityName>'
Felmeddelande: <errorMessage>
För mer information, se INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Det gick inte att ta bort replikeringspublikationen för <entityType> '<entityName>'
Felmeddelande: <errorMessage>
Mer information finns i INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Det gick inte att skapa replikeringsplatsen för <entityType> '<entityName>' på grund av att replikeringsplatsen används av en annan PID.
Felmeddelande: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Det gick inte att skapa replikeringsplatsen för <entityType> '<entityName>'
Felmeddelande: <errorMessage>
Mer information finns i INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
Användaren har inte de behörigheter som krävs för att komma åt det här objektet eller köra den lagrade proceduren. Se till att alla nödvändiga privilegier beviljas. Se följande dokumentation: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
Det finns inga tabeller tillgängliga för replikering från källan.
Kontrollera att tabellerna är korrekt markerade och definierade i inmatningspipelinen
och användaren har nödvändig katalog- och schemaåtkomst.
INGESTION_GATEWAY_TABELL_BORTTAGEN
Källtabellen <entityName> har tagits bort från källan. Felmeddelande: <errorMessage>
INGESTION_GATEWAY_TABLE_OMDÖPT
Källtabellen '<entityName>' har bytt namn i källan. Felmeddelande: <errorMessage>
INGESTION_GATEWAY_TABELL_HOPPAD_PÅ_GRUND_AV_OSUPPORTED_KOLUMN_DATATYP
<entityName>Tabellen har hoppats över på grund av datatypskolumner som inte stöds. Lös problemet och uppdatera tabellen i pipelinen för hanterad inmatning. Felmeddelande: '<errorMessage>'.
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
<entityName>Tabellen har hoppats över på grund av oväntad UOID som tilldelats till kolumner. Utför en fullständig uppdatering för att lösa problemet. Fel: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
Tabellen '<entityName>' har hoppats över på grund av ett oväntat tilldelat UOID. Utför en fullständig uppdatering för att lösa problemet. Fel: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Anslutningen misslyckades på grund av ett felaktigt värdnamn <host> och/eller en port <port> för källdatabasen.
Mer information finns i INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Tabelländring som inte kan spåras har identifierats för tabellen <entityName>, orsak: <errorMessage>.
Detta kan orsakas av en trunkering av tabell, rullning av CDC-logg eller andra åtgärder som inte kan spåras.
Tabellen kommer att utelämnas från bearbetningen. Om du vill återaktivera bearbetningen måste du uppdatera tabellen fullständigt.
INMATNINGSGATEWAY_XA_TRANSAKTION_INTE_STÖDDS
Det gick inte att replikera <entityType> eftersom<entityName> det är en del av en XA-transaktion.
Felmeddelande: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC kommandot är ogiltigt.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: ingen tilldelad
Ett värde av ogiltig typ skickades till parametern '<paramName>'. Förväntade <expectedType>.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Tabellalternativen som angetts för tabellen <table> är ogiltiga eftersom
Mer information finns i INVALID_COMPATIBILITY_OPTIONS
INVALID_DECORATOR_USAGE
SQLSTATE: ingen tilldelad
Det första positionsargumentet som skickas till @<decoratorName> måste vara anropsbart. Lägg antingen till @<decoratorName> utan parametrar i funktionen eller skicka alternativ till @<decoratorName> med hjälp av nyckelordsargument (till exempel <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
Ogiltigt målpipeline-ID: '<pipelineId>'. Pipeline-ID:arna måste vara giltiga UUID:er.
Kontrollera att du använder rätt pipeline-ID, inte pipelinenamnet.
INVALID_EVENT_LOG_CONFIGURATION
Ogiltig händelseloggkonfiguration hittades i pipelinespecifikationen: <message>
INVALID_NAME_IN_USE_COMMAND
Ogiltigt namn i<name><command> kommandot . Orsak: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Du kan bara ange "pipeline_id" och "pipeline_type" när du anropar "dry_run" för en DBSQL pipeline.
INVALID_REFRESH_SELECTION
Mer information finns i INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Uppdateringsval stöds inte för kontinuerligt läge.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh ska inte anges till true för en begäran om uppdateringsval.
INVALID_ROOT_PATH
Ogiltigt root_path:<rootPath> endast absoluta katalogsökvägar stöds för närvarande. Katalogsökvägar måste börja med '/' och slutar inte med '/'.
INVALID_SCHEMA_NAME
Ogiltigt schema '<schemaName>' anges i pipelineinställningen. Orsak: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: ingen tilldelad
snapshot_and_version för flöde med målet <target> returnerade en typ som inte stöds.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
Konfigurationen av utlösarintervallet som anges i <configurationType> är ogiltig
JIRA_ÅTKOMST_FÖRBJUDET
Den anslutande användaren har inte åtkomst. Kontrollera användarens behörigheter igen och försök igen.
JIRA_ADMIN_PERMISSION_MISSING
Ett fel uppstod när Jira-API:er anropas. Se till att ge den anslutande användaren jira-administratörsbehörigheter för din Jira-instans.
JIRA_AUKTORISATION_SMISSLYCKADES
Auktoriseringen misslyckades när Jira-API:er anropas. Autentisera om UC-anslutningen som skapats och försök igen.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Ett fel uppstod i Jira-anslutningsappen.
Ett problem uppstod vid försök att parsa entitetsmappningen för entitetstypen: <entityType>. Kontrollera om din entitet är en del av de typer som stöds.
Om felet kvarstår kan du skicka ett ärende.
JIRA_SITE_MISSING
Det gick inte att hitta cloudId som motsvarar den angivna Jira-domänen <domain>.
Kontrollera att den anslutande användaren kan komma åt den här webbplatsen.
JOB_DETAILS_DO_NOT_MATCH
Om både "update_cause_details.job_details" och "job_task" anges måste de matcha, men de är <details> och <jobTask>
JOB_TASK_DETAILS_MISSING
Om "orsak" är JOB_TASK måste antingen "job_task" eller "update_cause_details.job_details" anges.
INAKTIVERAD_SKAPANDE_AV_LEGACY_PIPELINE
Att skapa pipelines i äldre publiceringsläge är inaktiverat på arbetsytor som standard. Kontakta Databricks-supporten om ett undantag krävs.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Det går inte att referera till datauppsättningar med hjälp av LIVE virtuellt schema utanför frågedefinitionen för datamängden (dvs. @dlt.table anteckning).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Det går inte att referera till datauppsättningar med hjälp av LIVE virtuellt schema <identifier> utanför datauppsättningens frågedefinition (dvs. @dlt.table anteckning).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Referera till datauppsättningar med hjälp av LIVE virtuellt schema i spark.sql(...) API:et får inte anropas utanför frågedefinitionen för datauppsättningen (dvs. @dlt.table anteckning). Det kan bara anropas i frågedefinitionen för datauppsättningen.
MATERIALISERAD_VY_ÅTERGAV_STRÖMMANDE_DATAFRAME
SQLSTATE: ingen tilldelad
Frågefunktionen för den materialiserade vyn<datasetName> returnerade en strömmande DataFrame.
Den måste returnera en dataram som inte strömmas.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Maximalt antal återförsök har uppnåtts. Antal återförsök:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
Det går inte att starta en <definitionType> pipeline från UC-definitionen.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Den lagrade och uppdaterade definitionen måste vara av samma pipelinetyp, men fick <stored> och <updated>.
MESA_PIPELINE_MISSING_DEFINITION
Pipelinen har ingen giltig definition i UC, men en uppdatering begärs.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Oväntat saknad pipelinedefinition från UC.
METASTORE_OPERATION_TIMED_OUT
Det tog längre tid än <tableName>att uppdatera metaarkivinformationen för <timeout> .
Det här problemet kan vara tillfälligt eller kan tyda på buggar i den konfigurerade metaarkivklienten. Prova att starta om pipelinen och rapportera det här problemet om det kvarstår.
SAKNAR_KATALOG_ELLER_SCHEMA_BEHÖRIGHET
Användare '<userName>' har inte behörighet för '<schemaName>'. Detaljer: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
<userName>Användaren har inte behörighet att skapa schema i katalogen<catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
<userName>Användaren har inte behörighet att skapa en tabell i schemat<schemaName>
MISSING_RUN_AS_USER
Ingen användare angavs för körningen vid uppdateringen.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' innehåller redan en AUTO CDC FROM SNAPSHOT fråga '<flowName>'. Det här API:et stöder för närvarande bara ett flöde per mål.
MUTUALLY_EXCLUSIVE_OPTIONS
Ömsesidigt uteslutande alternativ <options>. Ta bort något av de här alternativen.
NEGATIVE_VALUE
SQLSTATE: ingen tilldelad
Värdet för <arg_name> måste vara större än eller lika med 0, fick '<arg_value>.'
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
<tableName>Tabellen hanteras redan av pipelinen <otherPipelineId>.
Om du vill att tabellen ska<tableName> hanteras av den här pipelinen –
Ta bort tabellen från pipelinen '
<otherPipelineId>'.Starta en fullständig uppdatering för den här pipelinen.
Om du vill fortsätta att hantera tabellen från flera pipelines inaktiverar du den här kontrollen genom att ange konfigurationen pipelines.tableManagedByMultiplePipelinesCheck.enabled till false i pipelineinställningarna.
Detta rekommenderas inte eftersom samtidiga åtgärder i tabellen kan vara i konflikt med varandra och leda till oväntade resultat.
NOTEBOOK_NAME_LIMIT_REACHED
Ogiltig notebook-sökväg: ...<nameStart><nameEnd>. Det är längre än <maxNotebookPathLength> tecken.
NOTEBOOK_NOT_FOUND
Det går inte att komma åt anteckningsboken<notebookPath>. Den finns antingen inte eller så saknar den identitet som används för att köra den här pipelinen <identity>de behörigheter som krävs.
NOTEBOOK_PIP_INSTALL_ERROR
Det gick inte att köra '<pipInstallCommand>' från anteckningsboken: <notebookPath>. Kontrollera drivrutinens stdout-loggar i klustret för mer information.
NOTIFICATIONS_DUPLICATE_ALERTS
Duplicerade meddelanden '<alertsDuplicates>' angivna i [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Duplicerade e-postadresser '<emailRecipientsDuplicates>' angivna i [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Ogiltiga aviseringar har angetts för att få meddelanden om: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Ogiltig e-postadress som angetts för att ta emot meddelanden: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Ange minst en mottagare och en avisering i <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: ingen tilldelad
Antingen source eller snapshot_version måste anges för create_auto_cdc_flow_from_snapshot med målet .<target>
NO_TABLES_IN_PIPELINE
Pipelines förväntas ha minst en definierad tabell, men i er pipeline hittades inga tabeller.
Kontrollera att du har inkluderat och delat om 'Kör som' är konfigurerad, de förväntade källfilerna eller katalogerna, och att källkoden innehåller tabelldefinitioner (till exempel, CREATE MATERIALIZED VIEW i SQL-kod och @dlt.table i Python-kod).
Observera att endast tabeller räknas mot den här kontrollen. Du kan också stöta på det här felet om du bara inkluderar vyer eller flöden i din pipeline.
OWNER_IS_MISSING
Ägaren finns inte.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Du kan ange ett <name> eller sidnumrering, men inte båda.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition stöder endast fältet schedule , men den angivna definitionen hade andra ifyllda fält: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Beständiga vyer stöder inte läsning från strömmade datakällor.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
Den bevarade vyn <persistedViewName> kan inte referera till en tillfällig vy <temporaryViewName> som inte är tillgänglig utanför pipelineomfånget. Gör antingen den bevarade vyn tillfällig eller bevara den tillfälliga vyn.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
Pipelinen kopieras redan till pipeline med ID '<pipelineId>'.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
Pipelinen med ID:t<pipelineId> kan inte klonas under en aktiv uppdatering.
PIPELINE_CLONING_INVALID_FIELDS
Begäran inkluderade pipelinespecifikation med ogiltiga fält för kloning. Tillåtna fält är: namn, katalog, mål, konfiguration.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
Pipelinen '<pipelineId>' med ID publicerar inte till ett målschema. Källpipelinen måste publicera till ett målschema som ska klonas. Försök igen när du har angett fältet "mål" i pipelinespecifikationen och kört en ny uppdatering för att publicera till ett målschema.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
Pipelinen med ID '<pipelineId>' är redan en UC-pipeline. UC-pipelines kan inte klonas.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Inget angivet klonläge.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Ingen angiven målkatalog för kloning.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
Det går inte att skapa pipeline för den här arbetsytan.
PIPELINE_DOES_NOT_EXIST
Pipelinen med ID :<pipelineId>t finns inte.
Mer information finns i PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
Användningen av miljö i DLT är inte aktiverad.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Pipelinens miljö stöder för närvarande inte miljöversioner.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
Pipelinen kunde inte uppdatera UC-tabellen (<tableName>) på grund av samtidiga ändringar efter <attempts> försök.
Kontrollera att det inte finns några externa processer som ändrar tabellen, försöker uppdatera igen och kontakta Databricks-supporten om problemet kvarstår.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
Tabellen <tableName> är inte i det nödvändiga tillståndet, tabellen har inte uppdaterats nyligen. Pipelinen med ID '<pipelineId>' måste köras en gång till och sedan upprepa operationen.
PIPELINE_FOR_TABLE_NOT_FOUND
Det går inte att hitta pipelinen med ID:t ,<pipelineId> som hanterar tabellen <tableName>. Kontrollera att du är i samma arbetsyta som pipelinen, att du är ägare till pipelinen och att pipelinen har körts minst en gång.
PIPELINE_GLOB_INCLUDES_CONFLICTS
Antingen glob, notebook eller filfält under bibliotek i pipeline-inställningarna ska anges. Ändra inställningarna för pipelinen.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Att använda glob-fältet för att inkludera källfiler är en förhandsversionsfunktion och är inaktiverad.
Välj om varje källfil som ska inkluderas i pipelineprocessen för att åtgärda det här felet.
Kontakta Databricks-supporten om du vill veta mer om den här funktionen och registrera dig i förhandsversionen.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Specialtecken <specialChar> är reserverade och bör inte användas i den inkluderade sökvägen '<path>' i pipelineinställningarna. Ta bort dessa tecken för att åtgärda felet
PIPELINE_NAME_LIMIT_REACHED
Namnet får inte vara längre än <maxPipelineNameLength> tecken.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
Pipelinen kunde inte analysera källtabellerna (<tables>) på grund av fel som inte kan försökas igen efter partiell körning.
Ingen ny pipelineuppdatering kommer att skapas.
<flowErrors>
Kontrollera händelseloggen och åtgärda problemen i enlighet med detta.
PIPELINE_EJ_BERÄTTIGAD_TILL_ÅTERSTÄLLNING
<pipelineId>Pipelinen är förbi återställningsfönstret.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Pipelinen med ID:t<pipelineId> , som hanterar tabellen <tableName>, använder inte direktpubliceringsläget.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Tabellen är inte redo för uppdatering ännu
Mer information hittar du i PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Du får inte utföra den här åtgärden. Du är inte ägare till pipelinen med ID:t <pipelineId>, som hanterar tabellen <tableName>.
PIPELINE_RETRYABLE_ANALYSIS
Pipelinen kunde inte analysera källtabellerna (<tables>) på grund av åtgärdbara fel efter delvis utförande.
En ny pipelineuppdatering skapas för att försöka bearbeta igen. Om felet kvarstår kontrollerar du händelseloggen och åtgärdar problemen i enlighet med detta.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' kan inte ändras av användare. Om användarna vill lägga till eller ändra <settingName>använder du fältet "<editableFieldName>" i stället.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
Pipelineinställningarna ändrades samtidigt.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Konfigurationerna <configurations> stöds inte av Lakeflow Deklarativa Pipelinear. Ta bort de här konfigurationerna.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Det går inte att starta en uppdatering med inställningen "utveckling".
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Pipelinan måste ha exakt en tabell, men fann <tablesSize> tabeller: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
Antalet källfiler, inklusive filer som deklarerats i mappar, överskrider gränsen <limit>för .
Ta bort eller sammanfoga onödiga filer och ändra motsvarande pipelinespecifikation om det behövs,
eller kontakta Databricks-supporten för att begära en gränsökning.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
Mappen "<folder_path>" överskrider den högsta tillåtna katalogkapslingsnivån för <limit>. Minska mappkapslingsnivån eller kontakta Databricks-supporten för att begära en gränsökning.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
Det är inte tillåtet att ändra följande parameter <param> i pipelineinställningarna
PIPELINE_TYPE_NOT_SUPPORTED
Pipelinetyp '<pipelineType>' stöds inte.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Pipelinen med ID:t<pipelineId> , som hanterar tabellen <tableName>, är inte en ETL-pipeline.
PIPELINE_TYPE_QUOTA_EXCEEDED
Det går inte att starta uppdateringen '<updateId>' eftersom gränsen för aktiva pipelines av typen '<pipelineType>' har nåtts.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
Pipelinen med ID '<pipelineId>', som hanterar tabellen <tableName>, körs. Stäng av pipelinen innan du kör operationen.
PIPELINE_WORKSPACE_LIMIT_REACHED
Skapande av pipelines av typen '<pipelineType>' blockeras eftersom arbetsytan '<orgId>' redan har '<countLimit>' pipelines. Ta bort oanvända pipelines.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Hittade celler innehållande %pip install som inte är överst i notebook-filen för "<notebookPath>"
Flytta alla %pip installationsceller till början av notebooken.
PY4J_BLOCKED_API
SQLSTATE: ingen tilldelad
Du använder ett Python-API som inte stöds i den aktuella miljön.
Information om alternativ finns i Databricks-dokumentationen.
<additionalInfo>
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Fel uppstod i frågebaserad inmatningsanslutning för <sourceName>.
För mer information, se QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Det går inte att referera till DLT-datauppsättningen <identifier> utanför frågedefinitionen för datauppsättningen (dvs. @dlt.table anteckning). Läs den i stället i frågedefinitionen för datauppsättningen.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
Uppdateringen måste initieras i arbetsytan <homeWorkspaceId>, där resursen skapades.
Försöket att uppdatera gjordes i arbetsytan <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
Det går inte att lägga till <type> i en tabell som redan har <existingType>. Ta bort det befintliga schemat eller använd ALTER TABLE ... ... ALTER <type> för att ändra den.
REQUIRED_PARAM_NOT_FOUND
Det går inte att hitta den obligatoriska parametern <param> .
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG "<reservedKeyword>" är olagligt eftersom "<reservedKeyword>" är ett reserverat nyckelord i DLT.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA "<reservedKeyword>" är olagligt eftersom "<reservedKeyword>" är ett reserverat nyckelord i DLT.
RESURSER HÅLLER PÅ ATT TILLDELAS
Pipelineresurser etableras för pipelinen '<pipelineId>'.
RESTORE_NON_DELETED_PIPELINE
Pipelinen '<pipelineId>' är inte borttagen. Återställning gäller endast för borttagna pipelines.
RESTORE_PIPELINE_DISABLED
RestorePipeline är inte aktiverat för pipelinetyp <pipelineType>
Kontakta Databricks-supporten om du vill ha hjälp med att återställa pipelinen<pipelineId>.
ROOT_PATH_NOT_FOUND
Det går inte att komma åt rotsökvägen '<rootPath>'. Kontrollera att du har de åtkomstbehörigheter som krävs.
RUN_AS_USER_NOT_FOUND
Den angivna 'kör som användare'<runAsUserId> för uppdateringen finns inte på arbetsytan.
SAAS_CONNECTION_ERROR
Det gick inte att upprätta en anslutning till den <sourceName> källan. Felkod: <saasConnectionErrorCode>.
Mer information finns i SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
Uppdateringstoken för anslutningen <connectionName> har upphört att gälla. Redigera anslutningen, autentisera och kör pipelinen igen.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
En schemaändring har inträffat i tabell <tableName> för den <sourceName> källan.
Mer information finns i SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Ett fel uppstod i <sourceName> API-anropet. Typ av käll-API: <saasSourceApiType>. Felkod: <saasSourceApiErrorCode>.
Prova att uppdatera måltabellen. Om problemet kvarstår kan du skicka ett ärende.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Fel som inte stöds inträffade i datakällan <sourceName>.
Mer information finns i SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Vi har upptäckt inkompatibla schemaändringar när pipelinen initieras:
<details>
Utför en fullständig uppdatering av de berörda tabellerna.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Ett fel uppstod när indata skapades för partiell analys. Ingen ny pipelineuppdatering kommer att skapas.
Kontrollera händelseloggen och åtgärda problemen i enlighet med detta.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
Källtabellens (<table>) analyserade schema har avvikit från det förväntade schemat.
Försök igen med pipelineuppdateringen och se om problemet är löst.
Om problemet kvarstår ska du utföra en fullständig uppdatering av tabellerna som nämns ovan
Förväntat schema:
<expectedSchema>
Faktiskt schema:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
Den angivna anslutnings-<connectionName> är inte tillgänglig. Kontrollera anslutningen och försök igen.
Mer information finns i SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec har en tom sträng i katalogfältet.
Ta bort den tomma strängen eller lägg till katalognamnet. (Om det här schemat inte tillhör en katalog i källan ska du inte ange fältet.)
Information om schemaspecifikation:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec har en tom sträng i schemafältet.
Ta bort den tomma strängen eller lägg till schemanamnet. (Om den här tabellen inte tillhör ett schema i källan ska du inte ange fältet.)
Information om schemaspecifikation:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Minst en av källkatalogen och källschemat måste finnas. Men båda är tomma.
Information om schemaspecifikation:
<schemaSpec>
SEKVENS_EFTER_KOLUMN_INTE_HITTAD
Pipelinedefinitionen innehåller sequence_by kolumner (<columnNames>) som inte finns i källtabellen <qualifiedTableName><sourceType>. Ta bort dessa kolumner från fältet sequence_by.
SERVERLÖS_BUDGETPOLICY_OCH_ANVÄNDNINGSPOLICY_BÅDA_SATTA
Det går inte att ange både budget_policy_id och usage_policy_id. Ta bort budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
Den angivna budgetpolicyn med ID:t <budgetPolicyId> kan inte användas på den här arbetsytan på grund av begränsningar i bindningen mellan policy och arbetsyta.
SERVERLESS_BUDGET_POLICY_IS_INVALID
Serverlös budgetpolicy med id '<budgetPolicyId>' är ogiltig.
SERVERLESS_BUDGET_POLICY_MISSING
Serverlös budgetprincip med ID<budgetPolicyId> finns inte.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
Serverlös budgetprincip är inte aktiverad. Kontakta Databricks-supporten.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
Serverlös budgetprincip är inte aktiverad för det här kontot. Användaren kan inte ange en budgetprincip för den här pipelinen. Kontoadministratören bör försöka registrera sig via funktionsförhandsgranskningsportalen. Om problemet kvarstår kontaktar du Databricks-supporten.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
Serverfri budgetpolicy kan inte tilldelas till en icke-serverfri pipeline.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
Serverlös budgetprincip stöds inte för pipelinetypen <pipelineType>.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
Användaren har inte behörighet att använda en serverlös budgetpolicy med ID '<budgetPolicyId>'.
SERVERLESS_NOT_AVAILABLE
Serverlös beräkning är inte tillgänglig. Kontakta Databricks för mer information.
SERVERLESS_NOT_ENABLED
Du kan inte använda serverlös beräkning med Lakeflow Declarative Pipelines. Kontakta Databricks för att aktivera den här funktionen för din arbetsyta.
SERVERLESS_NOT_ENABLED_FOR_USER
Serverlös beräkning är inte aktiverat för anroparen. Kontakta administratören för arbetsytan för att aktivera den här funktionen.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
Serverlös beräkning är inte tillgänglig för den här arbetsytan och/eller regionen. Kontakta Databricks för mer information.
SERVERLESS_REQUIRED
Du måste använda serverlös beräkning på den här arbetsytan.
SERVICENOW_CONNECTION_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Mer information finns i SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
För närvarande kan inmatningsflödet inte mata in tabellen '<tableName>' eftersom markörnyckeln i en rad innehåller ett tomt fält.
Ta bort den här tabellen om du vill fortsätta köra pipelinen. Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Det gick inte att ansluta till ServiceNow-instansen. Instansen verkar vara viloläge eller inaktiv.
Logga in på serviceNow-administratörsportalen och vänta en stund tills instansen har vaknat helt.
Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Det gick inte att ansluta till ServiceNow-instansen. Instansen är offline.
Logga in på serviceNow-administratörsportalen och vänta en stund tills instansen återställs.
Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Det misslyckades med att fråga schemat för tabellen '<tableName>'. Tabellen finns inte i ServiceNow-kontot för den här användaren.
Kontrollera tabellnamnet för eventuella stavfel och se till att användaren har de behörigheter som krävs för att komma åt tabellen.
Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Det gick inte att ansluta till ServiceNow-instansen. Instansen har begränsningar för åtkomstkontroll för IP-adresser.
Lös problemet genom att antingen inaktivera IP-adressbegränsningarna genom att gå till ServiceNow >> All >> System Security >> IP-adressåtkomstkontroll eller använda serverlösa stabila IP-adresser
Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Ogiltig SERVICENow API-slutpunkts-URL har identifierats. URL-strukturen matchar inte det förväntade ServiceNow-formatet.
Kontrollera konfigurationen av ServiceNow-instansen i autentiseringsuppgifterna för UC-anslutningen.
Mer information finns i SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Detta händer ofta när datahämtningen för en tabell tar för lång tid. Som ett första steg kan du samarbeta med ServiceNow-administratören för att aktivera indexering på markörkolumnen.
Markörkolumnen är markerad i följande lista i ordning efter tillgänglighet och inställningar: sys_updated_on (första val), sys_created_on (andra val), sys_archived (tredje val)
Anvisningar om hur du aktiverar indexering i ServiceNow finns här: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Vi rekommenderar också att du ökar tidsgränsen för REST API-frågan till mer än 60 sekunder för att ge mer tid att hämta poster.
Försök sedan med inmatningspipelinen igen. Om problemet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
När du hämtar tabellschemat med icke-administratörsbehörighet är internal_type för schemakolumnerna inte tillgängliga.
Lös problemet genom att ge den aktuella användaren läsbehörighet för tabellen "sys_glide_object".
Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Ett fel uppstod i ServiceNow när tabellschemat hämtades.
Två motstridiga datatyper hittades för fältet "<fieldName>": "<firstDataType>" och "<secondDataType>".
Ta bort den här tabellen om du vill fortsätta köra pipelinen. Om felet kvarstår kan du skicka ett ärende.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ett fel uppstod i ServiceNow. Typ av käll-API: <saasSourceApiType>.
Mer information finns i SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType> ... SET TBLPROPERTIES stöds inte. Ändra tabellegenskaperna genom att ändra den ursprungliga definitionen och köra en uppdatering.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Inmatning för objekt <objName> är ofullständig eftersom Salesforce API-frågejobbet tog för lång tid, misslyckades eller avbröts manuellt.
Mer information finns i SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Inmatningen för objektet <objName> misslyckades eftersom Salesforce bulk-API-frågejobbet inte kunde hittas.
Detta beror troligen på att jobbet har tagits bort i Salesforce-användargränssnittet eller på att det har gått mer än 7 dagar sedan den senaste pipelineuppdateringen, varefter Salesforce automatiskt tar bort jobbet
Om du vill utlösa ett nytt massjobb utför du ett FULL REFRESH på den specifika måltabellen.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Ett fel uppstod i Salesforce API-anropet: API-gränsen överskreds
Vänta tills API-gränserna har återställts. Försök sedan uppdatera måltabellen.
Om felet kvarstår kan du skicka ett ärende.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Inmatning för objekt <objName> är ofullständig eftersom skapandet av Salesforce-bulk-API-frågejobbet misslyckades. Felkod: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
Inmatningen för Salesforce-objektet '<objName>' misslyckades eftersom Salesforce<saasSourceApiType> returnerade felaktiga poster.
Mer information finns i stacktrace.
Verifiera data i Salesforce och kör pipelinen igen.
SINKS_NOT_SUPPORTED_IN_SEG
DLT-sänkor i pipeline stöds inte i arbetsytor med aktiverad kontroll för serverlös utgående trafik. DLT-sjunkor som stöds är Kafka och Delta.
Följande sänkor som inte stöds hittades: <sinkNames>, deras motsvarande format är: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Det gick inte att läsa den beroende datamängden<sourceTableName> eftersom den inte har materialiserats. Kör hela pipelinen för att materialisera alla beroende datauppsättningar.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Det går inte att skapa en fristående PRIVATE MV/ST. Ta bort modifieraren PRIVATE
START_PYTHON_REPL_TIMED_OUT
Timeout i väntan på att Python REPL ska starta. Det tog längre tid än <timeoutSeconds> sekunder.
STREAMING_TARGET_NOT_DEFINED
Det går inte att hitta måltabellen <target><command> för kommandot. Måltabellen <target> har inte definierats i pipelinen.
SYNCED_TABLE_USER_ERROR
Synkroniserad tabellpipeline: användarfel.
För mer information, se SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
Tabellen <tableName> ändrades utanför den här transaktionen och den här transaktionen har återställts. Försök att utföra åtgärden igen.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Pipelineuppdatering för pipeline: <pipelineId> identifierade en cyklisk kedja av främmande nyckelbegränsningar: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec saknar en av källkatalogen och/eller källschemat.
Detaljer om tabellspecifikation
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec har en tom sträng i katalogfältet.
Ta bort den tomma strängen eller lägg till katalognamnet. (Om den här tabellen inte tillhör en katalog i källan ska du inte ange fältet.)
Detaljer om tabellspecifikation
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec har en tom sträng i schemafältet.
Ta bort den tomma strängen eller lägg till schemanamnet. (Om den här tabellen inte tillhör ett schema i källan ska du inte ange fältet.)
Detaljer om tabellspecifikation
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
Tabellnamnet är tomt. Ange ett tabellnamn.
Detaljer om tabellspecifikation
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
Schemautveckling kan inte aktiveras på grund av att metadata saknas. Utlös en fullständig uppdatering.
Orsak: Tabelltoken för ögonblicksbilder måste definieras när schemautvecklingen är aktiverad.
BORTTAGEN_PIPELINE_I_ARBETSYTAN
Det går inte att starta rörledningen eftersom den har skräpats eller tagits bort.
TRIGGER_INTERVAL_VALUE_INVALID
Utlösarintervallet måste vara en positiv varaktighet, det maximala acceptabla värdet är 2 147 483 647 sekunder. Mottagen: <actual> sekunder.
UTLÖSARE_INTE_AKTIVERAD
Utlösare är inte aktiverade för den här arbetsytan. Aktivera Tabellutlösare på sidan Förhandsversioner.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
Källan <source> är en vy som läser från en filplats som för närvarande inte stöds av triggern.
TRIGGER_REQUEST_SERIALIZATION_ERROR
Det uppstod ett problem med att bearbeta din begäran. Kontakta Databricks-supporten.
UTLÖSARE_SÄKRINGSBAR_TYP_INGEN_SUPPORT
Utlösarkonfigurationen misslyckades: tabelltypen stöds inte. Se dokumentationen för typer som stöds.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
Källan <source> med typen <type> stöds för närvarande inte av utlösaren.
TRIGGER_STATE_SERIALIZATION_ERROR
Det uppstod ett problem med att bearbeta din begäran. Kontakta Databricks-supporten.
GRÄNS FÖR TRIGGER_TABELL ÖVERSKRIDEN
Utlösarkonfigurationen misslyckades: utlösaren innehåller fler tabeller än den tillåtna gränsen. Mer information om tabellgränser och hur du löser problemet finns i dokumentationen.
TRIGGERTABELLTYP_EJ_STÖDD
Utlösarkonfigurationen misslyckades: tabelltypen stöds inte. Se dokumentationen för typer som stöds.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Det går inte att rensa målschemafältet för UC-pipelines. Orsak: <reason>.
UC_NOT_ENABLED
Det går inte att använda UC-katalogen i DLT.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
UC-aktiverade pipelines kan inte publicera till Hive Metastore. Välj en annan målkatalog.
UC_TARGET_SCHEMA_REQUIRED
Målschemafältet är obligatoriskt för UC-pipelines. Orsak: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Det gick inte att härleda schemat för tabellen <tableName> från dess överordnade flöden.
Ändra de flöden som skriver till den här tabellen för att göra deras scheman kompatibla.
Härledt schema hittills:
<inferredDataSchema>
Inkompatibelt schema:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Oväntat fel vid kontroll av schemabehörigheter för pipeline-<pipelineId>. Kontakta Databricks-supporten.
UNIFORM_KOMPATIBILITET_KAN_INTE_ANGES_MED_ROW_FILTERS_ELLER_COLUMN_MASKS
Enhetlig kompatibilitet kan inte ställas in på materialiserade vyer eller strömmande tabeller som har ett radfilter eller kolumnmasker tillämpade.
UNITY_CATALOG_INITIALIZATION_FAILED
Ett fel uppstod när Unity Catalog konfigurerade pipelinen i klustret <clusterId>.
Kontrollera att konfigurationen av Unity-katalogen är korrekt och att nödvändiga resurser (till exempel katalog, schema) finns och är tillgängliga.
Kontrollera också att klustret har rätt behörighet att komma åt Unity Catalog.
Detaljer: <ucErrorMessage>
UNRESOLVED_SINK_PATH
Lagringsvägen för sink <identifier> kan inte lösas. Kontakta Databricks-supporten.
UNRESOLVED_TABLES_FOR_MAINTENANCE
Följande tabeller hittades i pipelinedefinitionen men kunde inte lösas under underhåll. Kör en pipelineuppdateringskörning med den senaste pipelinedefinitionen för att materialisera alla tabeller i pipelinedefinitionen och avblockera underhåll, eller kontakta Databricks-supporten om problemet kvarstår.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Det går inte att lösa lagringssökvägen för tabell <identifier>. Kontakta Databricks-supporten.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType> ... <command> stöds inte.
UNSUPPORTED_CHANNEL_FOR_DPM
Kanal som inte stöds för direktpubliceringsläge. Förvänta dig antingen 'CURRENT' eller 'PREVIEW' kanal, men fick 'PREVIOUS'
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> stöds endast i direkt-publiceringsläge aktiverade Lakeflow deklarativa pipelines
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' stöds inte i frågedefinitionen. Flytta kommandot utanför frågedefinitionen. Om det är en DLT-pipeline i Python flyttar du "<command>" utanför @dlt.table()/@dlt.view() dekoratören. Om det är en DLT-pipeline i Scala flyttar du metoden "<command>" utanför "query".
UNSUPPORTED_CUSTOM_DBR_VERSION
Anpassad DBR-version '<v>' stöds inte i arbetsytor för SHIELD och HIPAA. Förväntade en av [<supportedDbrVersions>]
Ej understödd anpassad schemapreview
Den privata förhandsversionen av det anpassade schemat är inaktiverad.
Skapa en ny pipeline med standardpubliceringsläget med hjälp av schemat i pipelinespecifikationen och flytta datauppsättningarna från den här pipelinen till den nya pipelinen.
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW_ENABLEMENT
Den privata förhandsversionen av det anpassade schemat är inaktiverad och du kan inte skapa
Ta bort <sparkConfKeys> från pipelinekonfigurationen
UNSUPPORTED_DBR_VERSION
DBR-versionen '<v>' stöds inte. Förväntade en av [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> stöds inte på din arbetsyta. Kontakta Databricks-supporten för att aktivera den här funktionen för din arbetsyta.
UNSUPPORTED_LANGUAGE
Det gick inte att läsa in <language> notebook '<notebookPath>'. Endast <supportedLanguages> notebooks stöds för närvarande.
UNSUPPORTED_LIBRARY_FILE_TYPE
Filen på <path> har inte .py eller .sql suffix. Endast Python- och SQL-filer stöds i pipelines.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Språket <language> stöds inte för anteckningsboken <path>. Endast Python och SQL stöds i pipelines
UNSUPPORTED_LIBRARY_OBJECT_TYPE
Det som ingår i sökvägen <path> är av typen <objectType> som inte stöds. För närvarande kan endast anteckningsböcker och filer användas som bibliotek. Lös problemet genom att ta bort objektet som inte stöds eller uppdatera biblioteken som konfigurerats för den här pipelinen så att endast objekttyper som stöds ingår.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Ogiltig definition av hanterad inmatningspipeline, källtyp som inte stöds: <sourceType>.
UNSUPPORTED_SAAS_INGESTION_TYPE
Den angivna inmatningstypen <ingestionType> stöds inte.
Kontakta Databricks-supporten om problemet kvarstår.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' stöds inte i spark.sql("...") API i DLT Python. Kommando som stöds: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
SQL-instruktionen stöds inte för <datasetType> "<datasetName>": <operation> stöds inte.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Endast DBSQL pipelines kan ha uppdaterad definition.
USE_CATALOG_IN_HMS
ANVÄND CATALOG stöds endast i UC-aktiverade deklarativa pipelines för Lakeflow
VIEW_TEXT_NOT_SAVED_IN_UC
Det går inte att uppdatera tabellen <tableName> eftersom den inte har någon fråga sparad i Unity Catalog. Kontakta Databricks-supporten.
WORKDAY_RAPPORTKOPPLARE_OTILLRÄCKLIG_OAUTH_OMFATTNING_FEL
Ett fel uppstod i Workday Reports. Typ av käll-API: <saasSourceApiType>.
Det gick inte att hämta data för rapporten<reportUrl> . OAuth-klienten har inte tillräcklig omfångsåtkomst för att hämta rapporten.
Lös problemet genom att se till att OAuth-klienten har de nödvändiga omfång som konfigurerats i Workday.
Om felet kvarstår kan du skicka ett ärende.
WORKDAY_RAPPORTER_KONNEKTOR_SAKNAR_NÖDVÄNDIGA_PARAMETRAR_FEL
Ett fel uppstod i Workday Reports. Typ av käll-API: <saasSourceApiType>.
Rapport-URL:en<reportUrl> saknar den obligatoriska parametern: '<missingParam>'.
Kontrollera att alla obligatoriska rapportparametrar ingår i URL:en.
Kontrollera konfigurationen av Workday-rapporten för att identifiera vilka parametrar som är obligatoriska.
Om problemet kvarstår kan du skicka ett ärende.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Ett fel uppstod i Workday Reports. Typ av käll-API: <saasSourceApiType>.
Rapport-URL:en är<reportUrl> felaktig. Kontrollera om det finns skrivfel i bas-URL:en eller rapportnamnet för att lösa problemet.
Om problemet kvarstår kan du skicka ett ärende.
WORKDAY_REPORTS_CONNECTOR_RAPPORT_STORLEK_ÖVERSKRIDITS_FEL
Ett fel uppstod i Workday Reports. Typ av käll-API: <saasSourceApiType>.
Rapportens storlek med URL:en<reportUrl> är större än 2 GB. Kontrollera att rapportstorleken inte överskrider den här gränsen.
Om problemet kvarstår kan du skicka ett ärende.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ett fel uppstod i Workday Reports. Typ av käll-API: <saasSourceApiType>.
För mer information, se WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
Url:en för Workday-rapporten är tom. Minst en rapport måste tillhandahållas.
WORKSPACE_QUOTA_EXCEEDED
Det går inte att starta uppdateringen '<updateId>' eftersom det redan finns '<maxActiveUpdates>' aktiva pipelines som körs i den här arbetsytan.
Installation
FEL_BASMILJÖ_FILINTE_HITTAD
SQLSTATE: ingen tilldelad
YAML-filen för basmiljön saknas. Kontrollera att filen finns i den angivna sökvägen.
Beskrivning: Inträffar när den nödvändiga YAML-filen för basmiljön inte kan hittas på den förväntade platsen.
Föreslagen åtgärd: Kontrollera att YAML-basmiljön finns i den angivna sökvägen och försök installera igen.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: ingen tilldelad
Det gick inte att läsa basmiljöfilen på grund av felaktig syntax eller format för YAML-filen. Granska filinnehållet.
Beskrivning: Inträffar när YAML-filen för basmiljön innehåller syntax- eller formatfel.
Föreslagen åtgärd: Verifiera och åtgärda YAML-syntaxen i miljöfilen och försök sedan installera igen.
FEL_ANSLUTNING_AVVISADE
SQLSTATE: ingen tilldelad
Det går inte att ansluta till paketlagringsplatsen. Kontrollera nätverksanslutningen, brandväggsinställningarna eller lagringsplatsens tillgänglighet.
Beskrivning: Inträffar när pip inte kan upprätta en anslutning till fjärrpaketlagringsplatsen på grund av nätverksproblem, brandväggsbegränsningar eller stilleståndstid för lagringsplatsen.
Föreslagen åtgärd: Kontrollera nätverksanslutningen, kontrollera brandväggs- eller proxyinställningarna, bekräfta att lagringsplatsens URL är tillgänglig och försök igen senare om lagringsplatsen kanske inte är tillgänglig för tillfället.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: ingen tilldelad
Det installerade paketet är inte kompatibelt med Databricks-kärnpaket. Justera paketversionerna med de förinstallerade biblioteksversionerna och försök sedan installera igen.
Beskrivning: Inträffar när en Databricks-kärnberoendeversion (till exempel pyspark) ändras.
Föreslagen åtgärd: Justera de installerade paketversionerna med de förinstallerade biblioteken och försök installera igen.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: ingen tilldelad
CRAN-paketet är inte tillgängligt för den förinstallerade R-versionen på den här beräkningen.
Beskrivning: Inträffar när ett R-paket inte har publicerats för den installerade R-versionen på beräkningen.
Föreslagen åtgärd: Växla till en beräkning med en kompatibel R-version eller välj en annan paketversion.
ERROR_DBFS_DISABLED
SQLSTATE: ingen tilldelad
Offentlig DBFS-rotåtkomst är inaktiverad. Använd ett alternativt lagringsutrymme.
Beskrivning: Inträffar vid försök att installera bibliotek från DBFS, men den offentliga DBFS-roten är inaktiverad på arbetsytan.
Föreslagen åtgärd: Använd alternativa lagringsplatser som UC-volymer, arbetsytefiler eller fjärrlagring.
FEL_KATALOG_INTE_INSTALLERBAR
SQLSTATE: ingen tilldelad
Katalogen är oinstallerad på grund av en ogiltig Python-paketstruktur. Kontrollera att katalogen är korrekt konfigurerad.
Beskrivning: Inträffar när pip-installationen körs mot en katalog utan en giltig Python-paketstruktur.
Föreslagen åtgärd: Se till att katalogen innehåller en setup.py eller pyproject.toml och försök igen, eller paketera den som ett hjul.
FEL_DUBBELINSTALLATION
SQLSTATE: ingen tilldelad
Duplicerad paketinstallation har identifierats. Prova att ta bort den duplicerade paketposten för paketet och starta om klustret.
Beskrivning: Inträffar när samma paket redan har installerats i klustret och en duplicerad installation görs.
Föreslagen åtgärd: Ta bort de duplicerade paketposterna och starta om klustret.
Felkod: Funktion inaktiverad
SQLSTATE: ingen tilldelad
Unity Catalog-volymer är inaktiverade på arbetsytan. Kontakta arbetsytans administratör för att aktivera den här funktionen.
Beskrivning: Inträffar när Unity Catalog-volymer inaktiveras på arbetsytan, vilket förhindrar installation från UC-volymer.
Föreslagen åtgärd: Kontakta arbetsyteadministratören om du vill aktivera Unity Catalog-volymer eller använda alternativ lagring.
FEL_HASH_ÖVERENSSTÄMMER_INTE
SQLSTATE: ingen tilldelad
Paket hash-misspassning upptäckt. Det nedladdade paketets hash matchar inte den förväntade hashen.
Beskrivning: Inträffar när hashen för ett nedladdat paket inte matchar den förväntade hashen.
Föreslagen åtgärd: Försök installera igen, starta om klustret och/eller flytta stora paketinstallationer till Arbetsytefiler, UC-volymer eller en privat PyPI-lagringsplats.
ERROR_INVALID_FILE
SQLSTATE: ingen tilldelad
Det går inte att installera den angivna filen på grund av en felaktig filtyp. Kontrollera att du använder den giltiga filtypen som stöds.
Beskrivning: Inträffar när den angivna biblioteksfilen inte kan installeras på grund av felaktig filtyp eller felaktigt format.
Föreslagen åtgärd: Använd en biblioteksfiltyp som stöds (till exempel hjul, jar) och verifiera sökvägens giltighet.
FEL_OGILTIGT_KRAV
SQLSTATE: ingen tilldelad
Felaktig syntax eller felaktiga poster i kravfilen eller paketberoenden. Kontrollera och korrigera innehållet i kravfilen och paketberoenden.
Beskrivning: Ogiltigt eller felaktigt kravformat som identifierats i din kravfil eller i ett pakets beroendespecifikationer.
Föreslagen åtgärd: Använd rätt format (till exempel "library-name==version") i kravfiler, kontrollera att paketberoendeformat är giltiga och sök efter typfel eller versionsspecificerare som inte stöds.
FEL_OGILTIG_SKRIPTINTRÄDESPUNKT
SQLSTATE: ingen tilldelad
Ogiltig startpunkt för skript. Kontrollera paketets startpunkter eller filen setup.py.
Beskrivning: Inträffar när den angivna startpunkten för konsolskriptet inte finns i paketmetadata.
Föreslagen åtgärd: Verifiera startpunktens namn i setup.py eller pyproject.toml eller kontakta paketunderhållaren.
ERROR_INVALID_STORAGE_CONFIGURATION
SQLSTATE: ingen tilldelad
Ogiltigt lagringskonfigurationsvärde har identifierats för molnlagringskontot. Kontrollera lagringskonfigurationen, kontoinställningarna och autentiseringsuppgifterna.
Beskrivning: Inträffar när konfigurationen av molnlagringskontot är felaktigt formaterad eller inkorrekt.
Föreslagen åtgärd: Korrigera lagringskonfigurationen för kontot och försök installera igen.
FEL_OGILTIG_ANVÄNDARINMATNING
SQLSTATE: ingen tilldelad
Ogiltig paketsyntax eller angivna argument. Kontrollera att indata och alternativ för biblioteksinstallation är giltiga.
Beskrivning: Inträffar när pip anropas med ogiltiga alternativ eller argument.
Föreslagen åtgärd: Verifiera pip-alternativ och kommandosyntax, korrigera indata och försök installera igen.
ERROR_INVALID_WHEEL
SQLSTATE: ingen tilldelad
Skadad, felaktig eller ogiltig hjulfil identifierad. Kontrollera hjulfilen eller försök installera igen.
Beskrivning: Inträffar när pip stöter på en skadad, ofullständig eller felaktig hjulfil under installationen.
Föreslagen åtgärd: Rensa pip-cachen, ladda ned eller återskapa hjulet igen, måla om och verifiera dess integritet innan du försöker igen.
ERROR_JAR_EVICTED
SQLSTATE: ingen tilldelad
JAR-paketet avlägsnades av lösaren på grund av versionskonflikter. Lös konflikter med beroendeversioner.
Beskrivning: Inträffar när Maven-beroendelösning evikter en jar-fil på grund av versionkonflikter med andra beroenden.
Föreslagen åtgärd: Lös konflikter i beroendekonfigurationen eller använd explicita versionsåtaganden.
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: ingen tilldelad
Det går inte att matcha Maven-bibliotekskoordinater. Verifiera biblioteksinformation, lagringsplatsåtkomst eller Maven-lagringsplatstillgänglighet.
Beskrivning: Inträffar när Maven inte kan hitta eller lösa det angivna biblioteket på grund av felaktiga koordinater, nätverksproblem eller avbrott i lagringsplatsen.
Föreslagen åtgärd: Verifiera groupId:artifactId:versionsformatet, kontrollera lagringsplatsens URL:er och autentiseringsuppgifter, prova alternativa lagringsplatser eller försök igen senare om lagringsplatsen kanske inte är tillgänglig för tillfället.
FEL_INGEN_PASSANDE_DISTRIBUTION
SQLSTATE: ingen tilldelad
Det går inte att ladda ned eller komma åt de angivna molnlagringstillgångarna, vanligtvis på grund av felkonfigurationer, saknade beroenden eller anslutningsproblem. Granska konfigurationen av molnlagring.
Beskrivning: Inträffar när klustret inte kan ladda ned eller installera biblioteksfiler från molnlagring, vanligtvis på grund av felkonfigurationer, saknade beroenden eller nätverksproblem.
Föreslagen åtgärd: Kontrollera att URI:er för molnlagring är korrekta, att autentiseringsuppgifterna är giltiga och att alla nödvändiga nätverksproxyservrar eller bibliotek är korrekt konfigurerade och försök sedan installera igen.
ERROR_NO_SUCH_FILE_OR_DIRECTORY
SQLSTATE: ingen tilldelad
Biblioteksfilen finns inte eller så har användaren inte behörighet att läsa biblioteksfilen. Kontrollera om biblioteksfilen finns och att användaren har rätt behörighet att komma åt filen.
Beskrivning: Inträffar när den angivna filen saknas eller inte är tillgänglig vid den angivna sökvägen under biblioteksinstallationen.
Föreslagen åtgärd: Kontrollera att filen finns på den angivna sökvägen, korrigera sökvägen eller ladda upp den saknade filen och se till att det finns rätt behörigheter.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Biblioteksinstallationen stöds inte för den här filtypen från det begärda filsystemet. Kontrollera bibliotekstypen och läs användarhandboken om det bibliotek som stöds för den aktuella beräkningen.
Beskrivning: Inträffar när målfilsystemet, filtypen eller beräkningstypen inte stöder den begärda åtgärden under installationen.
Föreslagen åtgärd: Använd ett filsystem som stöds, filtyp eller beräkningstyp eller justera installationsmålet till en plats som stöds.
FEL_BEHÖRIGHET_AVSLAGEN
SQLSTATE: ingen tilldelad
Användaren har inte tillräcklig behörighet för att installera paketet. Kontrollera användarens behörigheter för fil- och katalogåtkomst.
Beskrivning: Inträffar när den installerande användaren saknar behörighet att läsa eller skriva en fil eller katalog under installationen.
Föreslagen åtgärd: Verifiera och bevilja rätt behörigheter för målkatalogen eller kontakta systemadministratören.
ERROR_PIP_CONFIG
SQLSTATE: ingen tilldelad
Användaren försökte installera ett Python-bibliotek, men klustrets eller arbetsytans pip-konfigurationsfil har syntaxfel eller är felaktigt formaterad. Kontrollera och åtgärda pip-konfigurationsfilen.
Beskrivning: Inträffar när pip-konfigurationsfilen har syntaxfel eller är felaktigt formaterad.
Föreslagen åtgärd: Åtgärda syntaxfelen i pip-konfigurationsfilen, ta bort konfigurationsfilen för att använda standardinställningarna, starta om klustret och försök installera igen.
ERROR_REQUIREMENTS_FILE_INSTALLATION
SQLSTATE: ingen tilldelad
requirements.txt filer som innehåller en Unity Catalog-volym eller arbetsytefilreferens stöds inte i icke-UC-aktiverade kluster. Använd ett UC-aktiverat kluster för att installera requirements.txt som refererar till en UC-volym eller arbetsytefil.
Beskrivning: Inträffar när requirements.txt innehåller UC-volymer eller filreferenser för arbetsytor i ett kluster som inte är UC-aktiverat.
Föreslagen åtgärd: Använd ett UC-aktiverat kluster för requirements.txt som refererar till arbetsytor eller UC-filer, eller ta bort dessa referenser.
ERROR_REQUIRE_HASHES
SQLSTATE: ingen tilldelad
Hashvärden saknas när pip körs i --require-hashes-läge och ett krav saknar en hash. Åtgärda hash-krav eller inaktivera hash-kontroll.
Beskrivning: Inträffar när pip körs i --require-hashes-läge och ett krav saknar en hash.
Föreslagen åtgärd: Lägg till hashvärden för alla paket i requirements.txt eller ta bort flaggan --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: ingen tilldelad
Det gick inte att starta om Python-processen. Detta kan bero på att du uppdaterar versionen av ett paket som står i konflikt med de förinstallerade körningsbiblioteken. Kontrollera och justera paketberoendena och deras versioner.
Beskrivning: Inträffar när Python-miljön inte kan startas om efter biblioteksinstallationen, ofta på grund av konflikter mellan installerade paket och förinstallerade Databricks Runtime-bibliotek.
Föreslagen åtgärd: Justera installerade paketversioner med förinstallerade Databricks Runtime-bibliotek för att undvika konflikter och Python-omstartsfel.
ERROR_RESTART_SCALA
SQLSTATE: ingen tilldelad
Det gick inte att starta om Scala-processen. Detta kan bero på att Scala-versionen inte matchar i scala JARs (till exempel att köra 2.12 jar på en 2.13-kernel). Kontrollera och justera Scala-versionerna.
Beskrivning: Inträffar när Scala-miljön inte kan startas om, ofta på grund av konflikter med Scala-versionsmatchningsfel i scala JARs.
Föreslagen åtgärd: Justera JAR scala-versioner med kernel scala-version för att undvika konflikter och Scala-omstartsfel.
ERROR_S3_FORBIDDEN
SQLSTATE: ingen tilldelad
Åtkomst nekad till S3-resurs. Kontrollera IAM-behörigheter och policyer för lagringshinkar.
Beskrivning: Klustrets AWS-autentiseringsuppgifter har inte tillräcklig behörighet för att komma åt den angivna S3-resursen.
Föreslagen åtgärd: Verifiera och uppdatera S3-bucketprinciperna eller IAM-rollerna för att ge nödvändig läsåtkomst till klustret.
ERROR_SETUP_PY_FAILURE
SQLSTATE: ingen tilldelad
Python-paketets setup.py kördes inte korrekt på grund av kompatibilitetsproblem, saknade beroenden eller konfigurationsfel. Kontrollera installationsfilen för dina beroenden.
Beskrivning: Inträffar när paketets setup.py skript misslyckas på grund av kompatibilitetsproblem, saknade beroenden eller konfigurationsfel.
Föreslagen åtgärd: Uppdatera paketversioner, installera saknade beroenden, ersätt inaktuella paket och verifiera setup.py skriptet.
ERROR_SSL_VIOLATION (SSL-fel)
SQLSTATE: ingen tilldelad
Pip stötte på problem med SSL-handtryckning eller certifikatverifiering. Granska SSL-konfigurationerna och certifikaten på din beräknings- eller arbetsyta.
Beskrivning: Inträffar när pip stöter på problem med SSL-handskakning eller certifikatverifiering vid anslutning till paketlagringsplatser.
Föreslagen åtgärd: Kontrollera att SSL-certifikat är giltiga, konfigurera betrodda värdar i pip eller kontrollera nätverks-SSL-inställningen.
ERROR_UC_ASSET_NOT_FOUND (Resursen kunde inte hittas)
SQLSTATE: ingen tilldelad
Unity Catalog-objektet hittades inte. Kontrollera att katalog, schema och volym finns.
Beskrivning: Inträffar när den angivna Unity Catalog-volymen, katalogen eller schemat inte finns eller är otillgänglig
Föreslagen åtgärd: Kontrollera att objektsökvägen för Unity Catalog är korrekt och att objektet finns i ditt konto.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: ingen tilldelad
Bibliotekstypen stöds inte för den här beräkningen. Kontrollera vilka bibliotek som stöds för beräkningstypen.
Beskrivning: Inträffar när du försöker installera en bibliotekstyp som inte är kompatibel med den valda beräkningen.
Föreslagen åtgärd: Använd en bibliotekstyp som stöds för den här beräkningen eller växla till en beräkning som stöder den här libraryType.
ERROR_UNSUPPORTED_PYTHON_VERSION - Ogiltig eller ej stödd Python-version
SQLSTATE: ingen tilldelad
Python-biblioteket är inte kompatibelt med Python-versionen på den här beräkningen. Använd en beräkning med en kompatibel Python-version.
Beskrivning: Inträffar när ett pakets python_requires villkor inte matchar Python-versionen som körs på beräkningen.
Föreslagen åtgärd: Installera en paketversion som stöder den aktuella Python-versionen eller ändra beräkningsversionen.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: ingen tilldelad
Installationen misslyckas när spark.ssl.enabled-konfigurationen är aktiverad, vilket inte stöds för biblioteksinstallation. Inaktivera SSL-konfiguration och starta om klustret.
Beskrivning: Inträffar när konfigurationen spark.ssl.enabled är aktiverad, vilket inte stöds för biblioteksinstallation.
Föreslagen åtgärd: Inaktivera SSL-konfiguration (till exempel ange spark.ssl.enabled=false eller ange spark.databricks.libraries.ignoreSSL=true) och starta om klustret.
ERROR_USER_NOT_FOUND_IN_WORKSPACE
SQLSTATE: ingen tilldelad
Biblioteksinstallationen misslyckades eftersom användaren inte hittades på arbetsytan. Detta inträffar vanligtvis när en användare har tagits bort från arbetsytan men deras token fortfarande används.
Beskrivning: Inträffar när en användares åtkomsttoken används men användaren inte längre finns på den angivna arbetsytan.
Föreslagen åtgärd: Se till att användaren har åtkomst till arbetsytan eller uppdatera klusterkonfigurationen så att den använder en giltig användares autentiseringsuppgifter.
ERROR_VOLUME_PERMISSION_DENIED - Åtkomst nekad till volym på grund av behörighetsbegränsningar.
SQLSTATE: ingen tilldelad
Otillräcklig behörighet på Unity Catalog-volymen. Kontrollera åtkomsträttigheterna för UC-volymen eller begär åtkomst till UC-volymägaren.
Beskrivning: Inträffar när användaren saknar behörighet på den angivna UC-volymen.
Föreslagen åtgärd: Begär LÄS-behörigheter på Unity Catalog-volymen från volymägaren eller administratören.
ERROR_WHEEL_BUILD
SQLSTATE: ingen tilldelad
Pip kunde inte skapa hjulet på grund av saknade byggberoenden eller fel. Kontrollera hjulpaketets innehåll och beroenden.
Beskrivning: Inträffar när pip inte kan skapa ett hjul för paketet på grund av saknade byggberoenden eller fel.
Föreslagen åtgärd: Se till att byggverktyg och huvuden är installerade eller installera ett fördefiniert hjul med --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: ingen tilldelad
Hjulet är inte kompatibelt med den aktuella beräkningen på grund av felmatchning av plattformstagg eller en ogiltig hjulfil. Kontrollera hjulpaketets innehåll, beroenden och deras kompatibilitet med beräkningen.
Beskrivning: Inträffar när hjulfilen är ogiltig eller plattformsetiketter inte matchar.
Föreslagen åtgärd: Använd ett hjul som skapats för den aktuella plattformen eller återskapa hjulet med lämpliga taggar.
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE: ingen tilldelad
Det går inte att ladda ned eller komma åt de angivna molnlagringstillgångarna, vanligtvis på grund av felkonfigurationer eller anslutningsproblem. Granska konfigurationen av molnlagring.
Beskrivning: Inträffar när beräkningen inte kan ladda ned eller installera biblioteksfiler från molnlagring, vanligtvis på grund av felkonfigurationer eller nätverksproblem.
Föreslagen åtgärd: Kontrollera att URI:er för molnlagring är korrekta, att autentiseringsuppgifterna är giltiga och att alla nödvändiga nätverksproxyservrar eller bibliotek är korrekt konfigurerade och försök sedan installera igen.
FAULT_DBR_VERSION_EOS
SQLSTATE: ingen tilldelad
Databricks Runtime-versionen på beräkningen har nått slutet av supporten och stöds inte längre. Använd en Databricks-körningsversion som stöds.
Beskrivning: Inträffar när biblioteket är installerat på en Databricks Runtime-version som inte längre tar emot uppdateringar eller support.
Föreslagen åtgärd: Uppgradera klustret till en Databricks Runtime-version som stöds och försök installera igen.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: ingen tilldelad
Biblioteksinstallationen blockeras på grund av att den saknas i listan över tillåtna. Detta kan inträffa om ett bibliotek tas bort från listan över tillåtna när det har lagts till i ett kluster. Kontrollera listan över tillåtna bibliotek, be administratören att lägga till bibliotek i listan över tillåtna eller ta bort obehöriga paket från klustret.
Beskrivning: Inträffar när ett eller flera begärda bibliotek inte godkänns i metaarkivets tillåtna lista och blockeras från installationen. Detta kan också inträffa om ett bibliotek tidigare tilläts men senare togs bort från listan över tillåtna.
Föreslagen åtgärd: Kontrollera listan över tillåtna metaarkiv, be administratören att lägga till de bibliotek som saknas i listan över tillåtna eller ta bort otillåtna bibliotek från klustret.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: ingen tilldelad
Databricks Runtime-versionen i klustret har nått slutet av supporten och stöds inte längre. Använd en Databricks-körningsversion som stöds.
Beskrivning: Inträffar när biblioteket är installerat på en Databricks Runtime-version som inte längre tar emot uppdateringar eller support.
Föreslagen åtgärd: Ändra klustret så att det använder en Databricks Runtime-version som stöds och försök installera igen.
FEL_POLLER_BIBLIOTEK_LAGRINGSFORMAT_STÖDS_INTE
SQLSTATE: ingen tilldelad
Den valda Databricks Runtime-versionen kanske inte stöder vissa bibliotekslagringsformat, till exempel gs:// eller abfss:// sökvägar. Uppgradera Databricks Runtime eller läs användarhandboken om funktionerna för olika Databricks Runtime-versioner.
Beskrivning: Inträffar när Databricks Runtime-versionen inte stöder det angivna bibliotekets lagringsformat eller protokoll.
Föreslagen åtgärd: Använd ett lagringsschema som stöds eller uppgradera till en Databricks Runtime-version som stöder önskat lagringsformat.
FELPOLLER_UNITY_KATALOG_EJ_TILLGÄNGLIG_FEL
SQLSTATE: ingen tilldelad
Biblioteksinstallationen kräver Unity Catalog men Unity Catalog är inte tillgänglig i klustret eller arbetsytan. Kontakta arbetsytans administratör för att aktivera den här funktionen.
Beskrivning: Inträffar när en biblioteksinstallation kräver Unity Catalog men Unity Catalog inte är tillgänglig på arbetsytan.
Föreslagen åtgärd: Begär administration för att aktivera Unity Catalog på din arbetsyta eller använda ett kluster som stöder Unity Catalog.
Fel_storage_åtkomstfel
SQLSTATE: ingen tilldelad
Det går inte att komma åt molnlagringsresurser på grund av problem med autentiseringsuppgifter, nätverk eller behörigheter. Kontrollera åtkomstkonfigurationen för molnlagring.
Beskrivning: Inträffar när beräkningen inte kan komma åt molnlagringsresurserna på grund av problem med autentiseringsuppgifter, nätverk eller behörigheter.
Föreslagen åtgärd: Verifiera autentiseringsuppgifter för lagring, nätverksanslutning och åtkomstbehörigheter och försök sedan installera igen.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: ingen tilldelad
DBR-version <abacDBRMajorVersion>.
<abacDBRMinorVersion> eller högre krävs för att fråga tabell <tableFullName>, eftersom den skyddas av en ABAC-princip.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: ingen tilldelad
Autentiseringsuppgifter för Azure Entra (även kallat Azure Active Directory) saknas.
Kontrollera att du antingen är inloggad med ditt Entra-konto
eller har konfigurerat en personlig åtkomsttoken för Azure DevOps (PAT) i Användarinställningar > Git-integrering.
Om du inte använder en PAT och använder Azure DevOps med repos-API:et,
du måste använda en Azure Entra-åtkomsttoken.
Se https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token för steg för att hämta en Azure Entra-åtkomsttoken.
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: ingen tilldelad
Ett fel uppstod med dina autentiseringsuppgifter för Azure Entra (Azure Active Directory). Prova att logga ut från
Entra (https://portal.azure.com) och logga in på nytt.
Du kan alternativt besöka Användarinställningar > för Git-integrering för att ange
upp en personlig åtkomsttoken för Azure DevOps.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: ingen tilldelad
Ett fel uppstod med dina Azure Active Directory-autentiseringsuppgifter. Prova att logga ut från
Azure Active Directory (https://portal.azure.com) och logga in på nytt.
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: ingen tilldelad
Ett fel uppstod med Azure Workload Identity med Azure Exception: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: ingen tilldelad
Det går inte att begära generering av autentiseringsuppgifter för säker delning av renrumsdelta.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
Skyddsbara <securableName> med typ <securableType> och typ <securableKind> hanteras av renrumssystemet, användaren har inte åtkomst.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: ingen tilldelad
Begränsning med namnet <constraintName> finns redan, välj ett annat namn.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Villkor <constraintName> finns inte.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: ingen tilldelad
Det gick inte att läsa fjärrlagringsplatsen (<repoUrl>).
Gå till din fjärranslutna Git-provider för att se till att:
Url:en för din fjärranslutna Git-lagringsplats är giltig.
Din personliga åtkomsttoken eller ditt applösenord har rätt lagringsplatsåtkomst.
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: ingen tilldelad
Det gick inte att lösa värdnamn för <repoUrl>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: ingen tilldelad
Parametern beginning_of_time kan inte vara sann.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: ingen tilldelad
Det gick inte att hitta begärda objekt för fortsättningstoken.
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: ingen tilldelad
Fortsättningstoken är ogiltig. Orsak: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: ingen tilldelad
Ogiltigt värde <value> för parametern max_objects, förväntat värde i [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: ingen tilldelad
Prenumerations-ID är ogiltigt. Orsak: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: ingen tilldelad
Ogiltigt URI-format. Förväntade en volym (till exempel "/Volumes/catalog/schema/volume") eller molnlagringsväg (till exempel "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: ingen tilldelad
Måste ange ett Kafka-ämne
CSMS_LOCATION_ERROR
SQLSTATE: ingen tilldelad
Det gick inte att lista objekt. Det finns problem på den plats som måste lösas. Detaljer: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: ingen tilldelad
Ingen plats hittades för uri-<path>
CSMS_METASTORE_ID_MISSING
SQLSTATE: ingen tilldelad
Måste ange ett metadatalager UUID
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: ingen tilldelad
Det går inte att fastställa ett metaarkiv för begäran.
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: ingen tilldelad
CSMS kunde inte lösa det lokala shardnamnet
CSMS_SERVICE_DISABLED
SQLSTATE: ingen tilldelad
Tjänsten är inaktiverad
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: ingen tilldelad
Shard-namnet saknas från en rpc-begäran till CSMS
Prenumerations-ID för CSMS saknas i begäran (CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST)
SQLSTATE: ingen tilldelad
Prenumerations-ID saknas i begäran.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: ingen tilldelad
Prenumerationen med ID <id> hittades inte.
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: ingen tilldelad
Unity-katalogen är inaktiverad för den här arbetsytan
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: ingen tilldelad
Unity Catalog-entiteten hittades inte. Kontrollera att katalogen, schemat, volymen och/eller den externa platsen finns.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Den externa platsen Unity Catalog finns inte.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: ingen tilldelad
URI överlappar andra volymer
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Det går inte att fastställa ett metaarkiv för begäran. Metabutik finns inte
Åtkomst till tabell baserad på CSMS Unity Catalog-sökväg med filter är inte tillåtet
SQLSTATE: ingen tilldelad
URI pekar på tabell med filter på radnivå eller kolumnmask. Sökvägsbaserad åtkomst till den här tabellen är inte tillåten.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
Behörighet nekad
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Unity Catalog-tabellen finns inte.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Unity Catalog-volymen finns inte.
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: ingen tilldelad
Osupporterat skyddsobjekt
CSMS_URI_MISSING
SQLSTATE: ingen tilldelad
Måste ange URI
CSMS_URI_TOO_LONG
SQLSTATE: ingen tilldelad
Angivet URI är för långt. Maximal tillåten längd är <maxLength>.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: ingen tilldelad
Det går inte att komma åt Databricks Standard Storage med klassisk beräkning. Använd serverlös beräkning för att komma åt data i Standardlagring
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: ingen tilldelad
Åtgärden misslyckades eftersom länkade autentiseringsuppgifter för GitHub-appen inte kunde uppdateras.
Försök igen eller gå till Användarinställningar > Git-integrering och försök länka om ditt Git-providerkonto.
Om problemet kvarstår kan du skicka in ett supportärende.
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: ingen tilldelad
Länken till ditt GitHub-konto har inte åtkomst. Så här åtgärdar du det här felet:
- En administratör för lagringsplatsen måste gå till https://github.com/apps/databricks/installations/new och installera Databricks GitHub-appen på lagringsplatsen.
Alternativt kan en GitHub-kontoägare installera appen på kontot för att ge åtkomst till kontots lagringsplatser.
- Om appen redan är installerad måste administratören se till att om de använder begränsad åtkomst med alternativet "Välj endast lagringsplatser" har de inkluderat åtkomst till den här lagringsplatsen genom att välja den.
Mer information finns i https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Om problemet kvarstår kan du skicka in ett supportärende.
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: ingen tilldelad
Länkade autentiseringsuppgifter för GitHub-appen upphörde att gälla efter 6 månaders inaktivitet.
Gå till Användarinställningar > Git-integrering och försök länka om dina autentiseringsuppgifter.
Om problemet kvarstår kan du skicka in ett supportärende.
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: ingen tilldelad
Länken till ditt GitHub-konto har inte åtkomst. Så här åtgärdar du det här felet:
GitHub-användare
<gitCredentialUsername>bör gå till https://github.com/apps/databricks/installations/new och installera appen på kontot<gitCredentialUsername>för att tillåta åtkomst.Om användaren
<gitCredentialUsername>redan har installerat appen och använder begränsad åtkomst med alternativet "Välj endast lagringsplatser" bör de se till att de har inkluderat åtkomst till den här lagringsplatsen genom att välja den.
Mer information finns i https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Om problemet kvarstår kan du skicka in ett supportärende.
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: ingen tilldelad
Länken till ditt GitHub-konto har inte åtkomst. Så här åtgärdar du det här felet:
En ägare av GitHub-organisationen
<organizationName>bör gå till https://github.com/apps/databricks/installations/new och installera appen i organisationen<organizationName>för att tillåta åtkomst.Om appen redan är installerad i GitHub-organisationen
<organizationName>måste en ägare till den här organisationen se till att om du använder begränsad åtkomst med alternativet "Välj endast lagringsplatser" har de inkluderat åtkomst till den här lagringsplatsen genom att välja den.
Mer information finns i https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Om problemet kvarstår kan du skicka in ett supportärende.
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: ingen tilldelad
Länken till ditt GitHub-konto har inte åtkomst. Så här åtgärdar du det här felet:
Gå till https://github.com/apps/databricks/installations/new och installera appen på ditt konto
<gitCredentialUsername>för att tillåta åtkomst.Om appen redan är installerad och du använder begränsad åtkomst med alternativet Välj endast lagringsplatser kontrollerar du att du har inkluderat åtkomst till den här lagringsplatsen genom att välja den.
Mer information finns i https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
Om problemet kvarstår kan du skicka in ett supportärende.
GIT_CLUSTER_NOT_READY
SQLSTATE: ingen tilldelad
Git-klustret är inte redo.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: ingen tilldelad
Ogiltiga autentiseringsuppgifter för Git-providern för lagringsplatsens URL <repoUrl>.
Din aktuella Git-autentiseringsuppgifter är <gitCredentialProvider> och användarnamnet är <gitCredentialUsername>.
Gå till Användarinställningar > Git-integrering för att visa dina autentiseringsuppgifter.
Gå till din fjärranslutna Git-provider för att se till att:
Du har angett rätt e-postadress eller användarnamn för Git-användaren med dina autentiseringsuppgifter för Git-providern.
Ditt token- eller applösenord har rätt lagringsplatsåtkomst.
Din token har inte upphört att gälla.
Om du har aktiverat enkel inloggning med git-providern måste du auktorisera din token.
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: ingen tilldelad
Ogiltiga autentiseringsuppgifter för personlig åtkomsttoken hos Git-leverantören för lagringsplatsens URL <repoUrl>.
Din aktuella Git-autentiseringsuppgifter är <gitCredentialProvider> och användarnamnet är <gitCredentialUsername>.
Gå till Användarinställningar > Git-integrering för att visa dina autentiseringsuppgifter.
Gå till din fjärranslutna Git-provider för att se till att:
Du har angett rätt e-postadress eller användarnamn för Git-användaren med dina autentiseringsuppgifter för Git-providern.
Ditt token- eller applösenord har rätt lagringsplatsåtkomst.
Din token har inte upphört att gälla.
Om du har aktiverat enkel inloggning med git-providern måste du auktorisera din token.
GIT_CREDENTIAL_MISSING
SQLSTATE: ingen tilldelad
Inga Git-autentiseringsuppgifter är konfigurerade, men autentiseringsuppgifter krävs för det här arkivet (<repoUrl>).
Gå till Användarinställningar > Git-integrering för att konfigurera dina Git-autentiseringsuppgifter.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: ingen tilldelad
Skrivåtkomst till <gitCredentialProvider> lagringsplats (<repoUrl>) har inte beviljats.
Kontrollera att du (<gitCredentialUsername>) har skrivåtkomst till den här fjärrlagringsplatsen.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: ingen tilldelad
Felaktig Git-autentiseringsprovider för lagringsplats.
Din aktuella Git-autentiseringsprovider (<gitCredentialProvider>) matchar inte den för lagringsplatsens Git-provider <repoUrl>.
Prova en annan lagringsplats eller gå till Användarinställningar > Git-integrering för att uppdatera dina Git-autentiseringsuppgifter.
GIT_FILE_NAME_TOO_LONG
SQLSTATE: ingen tilldelad
Fil- eller mappnamn i sökvägen <path> överskrider maxvärde på <maxComponentBytes> byte per komponent.
Unix-baserade system stöder endast upp till <maxComponentBytes> byte per fil- eller mappnamn.
Kränkningar: <violations>
Förkorta de förargliga komponenterna för att kunna fortsätta.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: ingen tilldelad
Git-proxyklustret är inte klart.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: ingen tilldelad
Det gick inte att ansluta till Git-proxyn. Kontrollera om Git-proxyn är igång.
Fel: <error>
GIT_SECRET_IN_CODE
SQLSTATE: ingen tilldelad
Hemligheter som hittades i commiten. Detalj: <secretDetail>. Så här åtgärdar du det här felet:
Ta bort hemligheten och försök att checka in igen.
Om problemet kvarstår kan du skicka in ett supportärende.
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: ingen tilldelad
Azure Storage-kontot har inte hierarkiskt namnområde aktiverat.
INVALID_FIELD_LENGTH
SQLSTATE: ingen tilldelad
<rpcName> <fieldName> för lång. Maximal längd är <maxLength> tecken.
INVALID_PARAMETER_VALUE
SQLSTATE: ingen tilldelad
<msg>
Mer information finns i INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: ingen tilldelad
Task Framework: Det gick inte att hitta aktivitetskörningens utdata för aktiviteten med runId <runId> och orgId <orgId>.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: ingen tilldelad
Uppgiftsramverk: Aktivitetskörningstillstånd för aktivitet med runId <runId> och orgId <orgId> kunde inte hittas.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
RPC ClientConfig för aktivitet med ID <taskId> finns inte.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: ingen tilldelad
Uppgift med ID <taskId> finns inte.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: ingen tilldelad
Uppgiftsregister: Ett jobbuppdrag som inte stöds eller är okänt med klass <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: ingen tilldelad
Sökvägsbaserad åtkomst till extern ytlig kloningstabell <tableFullName> stöds inte. Använd tabellnamn för att komma åt den grunda klonen i stället.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: ingen tilldelad
Det går inte att hitta tabellen Fabric som finns på URL:en<url>. Använd kommandot REFRESH FOREIGN CATALOG för att fylla i Fabric-tabeller.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: ingen tilldelad
Sökvägsbaserad åtkomst till tabell <tableFullName> med radfilter eller kolumnmask som inte stöds.
PERMISSION_DENIED
SQLSTATE: ingen tilldelad
<principalName> har inte <msg> på <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: ingen tilldelad
Det går inte att parsa begäran om att ta bort objekt: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: ingen tilldelad
Det går inte att ta bort objekt <resourceName> som inte finns i papperskorgen
REDASH_PERMISSION_DENIED
SQLSTATE: ingen tilldelad
Det gick inte att hitta eller ha behörighet att komma åt resurs <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: ingen tilldelad
Det går inte att hitta resursen från fråge-ID <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: ingen tilldelad
Det går inte att skapa ett nytt frågefragment
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: ingen tilldelad
Kvoten för antalet frågefragment har nåtts. Den aktuella kvoten är <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: ingen tilldelad
Den angivna utlösaren <trigger> används redan av ett annat frågefragment på den här arbetsytan.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: ingen tilldelad
Den begärda resursen <resourceName> finns inte
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: ingen tilldelad
Det går inte att parsa begäran om att ta bort objekt: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: ingen tilldelad
Det går inte att återställa objekt <resourceName> som inte finns i papperskorgen
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: ingen tilldelad
Det går inte att slänga ett redan borttaget objekt <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: ingen tilldelad
Det gick inte att generera resursnamnet från ID-<id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: ingen tilldelad
Det går inte att skapa ny visualisering
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: ingen tilldelad
Det gick inte att hitta visualisering <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: ingen tilldelad
Kvoten för antalet visualiseringar i frågan <query_id> har nåtts. Den aktuella kvoten är <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: ingen tilldelad
Fjärrlagringsplatsen (<repoUrl>) hittades inte.
Din aktuella Git-autentiseringsuppgifter är <gitCredentialProvider> och användarnamnet är <gitCredentialUsername>.
Gå till din fjärranslutna Git-provider för att se till att:
Url:en för din fjärranslutna Git-lagringsplats är giltig.
Din personliga åtkomsttoken eller ditt applösenord har rätt lagringsplatsåtkomst.
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' finns redan
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' finns inte.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: ingen tilldelad
Fråga i tabell <tableFullName> med radfilter eller kolumnmask som inte stöds i tilldelade kluster.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: ingen tilldelad
Tabell <tableFullName> delas med Delta Sharing och kan inte tillämpa trygghetssäkerhet på rad- och kolumnnivå.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: ingen tilldelad
Tjänsten <serviceName> är tillfälligt under underhåll. Försök igen senare.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: ingen tilldelad
Tabell <tableFullName> kan inte ha både rad-/kolumnsäkerhet och materialiserade vyer online.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: ingen tilldelad
För många rader att uppdatera, avbryter uppdateringen.