錯誤條件的磚

這是一個常見的列表,名叫磚返回的錯誤條件。

磚運行時和磚的SQL

AMBIGUOUS_CONSTRAINT

模棱兩可的引用約束<約束>。

ARITHMETIC_OVERFLOW

<消息>。 If necessary set to “false” (except for ANSI interval type) to bypass this error.

BUILT_IN_CATALOG

<操作>不支持內置的目錄。

CANNOT_CAST_DATATYPE

不能把< sourceType > < targetType >。

CANNOT_CHANGE_DECIMAL_PRECISION

< >價值不能被表示成小數(<精度>、<規模>)。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

CANNOT_COPY_STATE

不能複製目錄狀態像當前數據庫和臨時視圖從統一目錄遺留catalog。

CANNOT_DELETE_SYSTEM_OWNED

係統擁有< resourceType >不能刪除。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

不能放棄的約束名稱< constraintName >共享的檢查約束

和一個主鍵或外鍵約束。你可以把主鍵或

外鍵約束查詢:

ALTER TABLE . .刪除主鍵或

ALTER TABLE . .刪除外鍵. .

CANNOT_INFER_DATE

不能推斷出日期模式推理當LegacyTimeParserPolicy“遺產”。遺留日期格式化程序不支持嚴格的日期格式匹配需要避免推斷時間戳和其他non-date條目。

CANNOT_PARSE_DECIMAL

不能解析小數

CANNOT_PARSE_TIMESTAMP

<消息>。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

無法讀取敏感關鍵的<鍵>安全提供者

CANNOT_REFERENCE_UC_IN_HMS

不能引用一個統一目錄< objType >在蜂巢Metastore對象。

CANNOT_RENAME_ACROSS_METASTORE

重命名表跨metastore服務是不允許的。

CANNOT_UP_CAST_DATATYPE

不能把<表達式>從< sourceType > < targetType >。

<詳細>

CAST_INVALID_INPUT

類型的值<表達式> < sourceType >不能把< targetType >,因為它是畸形的。正確的值根據語法,或改變其目標類型。使用try_cast容忍畸形的輸入,並返回NULL。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

CAST_OVERFLOW

類型的值<價值> < sourceType >不能把< targetType >由於溢出。使用try_cast容忍溢出,返回NULL。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

CAST_OVERFLOW_IN_TABLE_INSERT

未能將< sourceType >類型的值插入到< targetType >類型列< columnName >由於溢出。使用try_cast容忍的輸入值溢出,返回NULL。

CONCURRENT_QUERY

這個查詢隻是開始的另一個實例並發會話。

CONSTRAINTS_REQUIRE_UNITY_CATALOG

隻支持統一編目表約束。

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

<計劃>無效的方案。複製到源加密目前隻支持s3 / s3n s3a / wasbs / abfss。

COPY_INTO_CREDENTIALS_REQUIRED

複製到源憑證必須指定< keyList >。

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

複製文件承諾在並發複製操作。請稍後再試。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

<計劃>無效的方案。複製到源加密目前隻支持s3 / s3n / s3a / abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

複製到加密隻支持ADLS Gen2或abfss: / /文件計劃

COPY_INTO_ENCRYPTION_REQUIRED

複製到源加密必須指定<鍵>。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

無效的< requiredKey >加密選項。複製到源加密必須指定的< requiredKey > = < keyValue >。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

複製到其他比附加數據是不允許與其他事務並發運行。請稍後再試。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

複製到未能加載狀態,最大重試超過。

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

源文件的格式必須CSV之一,JSON, AVRO,獸人,拚花,文本,或BINARYFILE。使用複製到三角洲作為源表不支持重複數據可能攝入後優化操作。這張支票可以關閉運行的SQL命令spark.databricks.delta.copyInto.formatCheck.enabled=

DATETIME_OVERFLOW

Datetime操作溢出:<操作>。

DIVIDE_BY_ZERO

除零。使用try_divide容忍除數為0,返回NULL。如果有必要< ansiConfig >設置為“false”(ANSI間隔類型除外)繞過這個錯誤。

DUPLICATE_KEY

發現重複的鍵< keyColumn >

ELEMENT_AT_BY_INDEX_ZERO

索引0是無效的。索引應當< 0或> 0(第一個元素的索引1)。

EXCEPT_NESTED_COLUMN_INVALID_TYPE

除了列< columnName > StructType解決,預期,但發現類型<數據類型>。

EXCEPT_OVERLAPPING_COLUMNS

列一個除了列表必須是不同的和重疊。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

列/字段名< objectName >除外條款無法解決。你的意思是以下之一:[< objectList >]嗎?

注意:嵌套列除外條款可能不包括限定符(表名、父struct列名,等等)在結構擴張;嚐試刪除限定符如果他們使用嵌套列。

EXT_TABLE_INVALID_SCHEME

外部表不支持<計劃>計劃。

FAILED_EXECUTE_UDF

未能執行用戶定義函數(< functionName >:(<簽名>)= > <結果>)

FAILED_RENAME_PATH

無法重命名<路徑> <定位路徑>為目的地已經存在

FORBIDDEN_OPERATION

操作<聲明>是不允許在< objectType >: <對象名>

FOREIGN_KEY_MISMATCH

父母外鍵列< parentColumns > < childColumns >孩子不匹配主鍵列。

GRAPHITE_SINK_INVALID_PROTOCOL

無效的石墨協議:<協議>

GRAPHITE_SINK_PROPERTY_MISSING

石墨水槽需要<屬性>的屬性。

GROUPING_COLUMN_MISMATCH

列的分組(<集團>)不能被發現在分組列< groupingColumns >

GROUPING_ID_COLUMN_MISMATCH

列grouping_id (< groupingIdColumn >)不匹配分組列(< groupByColumns >)

GROUPING_SIZE_LIMIT_EXCEEDED

分組集大小不能大於<最大尺寸>

INCOMPARABLE_PIVOT_COLUMN

無效的主列< columnName >。主列必須具有可比性。

INCOMPATIBLE_DATASOURCE_REGISTER

檢測到不兼容DataSourceRegister。請刪除不兼容庫從類路徑或升級。錯誤:<消息>

INCONSISTENT_BEHAVIOR_CROSS_VERSION

你可能會由於升級到一個不同的結果

更多細節見INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

> <失敗>、< functionName至少需要在大多數< maxArgs > < minArgs >參數和參數。

INDEX_OUT_OF_BOUNDS

指數< indexValue >必須在0和ArrayData的長度之間。

INSUFFICIENT_PERMISSIONS_EXT_LOC

用戶的<用戶>權限不足為外部位置的<位置>。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

存儲憑證的< credentialName >權限不足。

INTERNAL_ERROR

<消息>

INVALID_AGGREGATE_FUNCTION_USAGE_IN_SQL_FUNCTION

無效的聚合函數使用SQL函數:< functionName >

INVALID_ARRAY_INDEX

該指數< indexValue >是界外。數組有< arraySize >元素。使用try_element_at和數組索引增加1(起始數組索引為1try_element_at)容忍在無效索引訪問元素,返回NULL。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

該指數< indexValue >是界外。數組有< arraySize >元素。使用try_element_at容忍在無效索引訪問元素,返回NULL。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

INVALID_BUCKET_FILE

無效的桶文件:<路徑>

INVALID_CLONE_PATH

克隆的目標位置需要一個絕對路徑或表名。使用一個

絕對路徑,而不是<路徑>。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

列或類型的字段<名稱> <類型>雖然需要< expectedType >。

INVALID_DEST_CATALOG

目標目錄的命令必須在統一目錄同步。找到<目錄>。

INVALID_FIELD_NAME

字段名< fieldName >是無效的:<路徑>不是一個結構體。

INVALID_FRACTION_OF_SECOND

sec的分數必須是零。有效範圍是[0,60]。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

INVALID_IDENTIFIER

無效的標識符> <標識符。

INVALID_JSON_SCHEMA_MAP_TYPE

輸入模式< jsonSchema >隻能包含字符串作為一個關鍵類型的地圖。

INVALID_PANDAS_UDF_PLACEMENT

熊貓集團總不能調用UDF < functionList >連同其他non-pandas聚合函數。

INVALID_PARAMETER_VALUE

參數的值(s)的<參數> > < functionName無效:<預期>

INVALID_PRIVILEGE

特權<特權> <可到手的>是無效的。

INVALID_PROPERTY_KEY

<鍵>是一個無效的屬性鍵,請用引號,例如設置<鍵> = <值>

INVALID_PROPERTY_VALUE

<價值>是一個無效的屬性值,請使用引號,例如設置<鍵> = <值>

INVALID_S3_COPY_CREDENTIALS

複製到憑證必須包括AWS_ACCESS_KEY、AWS_SECRET_KEY AWS_SESSION_TOKEN。

INVALID_SCHEME

統一目錄不支持<名稱>作為默認文件計劃。

INVALID_SOURCE_CATALOG

源目錄內不能統一同步命令的目錄。找到<目錄>。

INVALID_SQL_FUNCTION_PLAN_STRUCTURE

無效的SQL函數計劃結構

<計劃>

INVALID_SQL_SYNTAX

無效的SQL語法:< inputString >

INVALID_TIMESTAMP_FORMAT

提供的時間戳<時間> < >格式不匹配預期的語法。

MAP_KEY_DOES_NOT_EXIST

<命令> < supportedOrNot >源表在蜂巢Metastore和目標表在統一目錄。

MANAGED_TABLE_WITH_CRED

不支持創建管理表存儲憑證。

MAP_KEY_DOES_NOT_EXIST

關鍵< keyValue >並不存在。使用try_element_at容忍不存在鍵和返回NULL。如果有必要< ansiConfig >設置為“false”繞過這個錯誤。

MISSING_NAME_FOR_CHECK_CONSTRAINT

檢查約束必須有一個名稱。

MISSING_STATIC_PARTITION_COLUMN

未知的靜態分區列:< columnName >

MODIFY_BUILTIN_CATALOG

不支持修改內置目錄< catalogName >。

MULTIPLE_LOAD_PATH

磚δ不支持多個輸入路徑的負載()API。

路徑:< pathList >。建立一個單一DataFrame通過加載

多條路徑相同的三角洲表,請加載的根本路徑

三角洲表與相應的分區過濾器。如果多條路徑

來自不同的三角洲表,請使用數據集的聯盟()/ unionByName () api

結合生成的DataFrames單獨的負載()API調用。

MULTIPLE_MATCHING_CONSTRAINTS

發現至少有兩個匹配與給定的約束條件。

MULTI_UDF_INTERFACE_ERROR

不允許實現多個UDF接口,UDF類<類名>

MULTI_VALUE_SUBQUERY_ERROR

超過一行返回的子查詢用作表達式:<計劃>

NON_LITERAL_PIVOT_VALUES

文字表達式所需主值,發現<表達式>。

NON_PARTITION_COLUMN

分區條款不能包含non-partition列:< columnName >。

NOT_A_TABLE_FUNCTION

> < functionName不是表函數。請檢查函數用法:描述函數< functionName >

NOT_A_VALID_DEFAULT_EXPRESSION

默認的表達< functionName >< parameterName >不支持因為它包含子查詢。

NOT_A_VALID_DEFAULT_PARAMETER_POSITION

在常規< functionName >參數< parameterName >用默認不能緊隨其後的參數< nextParameterName >沒有違約。

NOT_SUPPORTED_WITH_DB_SQL

<操作>不支持SQL <倉庫>。

NO_HANDLER_FOR_UDAF

沒有處理程序UDAF < functionName >。使用sparkSession.udf.register (…)。

NO_UDF_INTERFACE_ERROR

UDF類<類名>不實現任何接口UDF

NULLABLE_ARRAY_OR_MAP_ELEMENT

數組或地圖在< columnPath >包含可空元素必須非空。

NULLABLE_COLUMN_OR_FIELD

列或字段<名稱>可以為空,需要非空。

NULL_COMPARISON_RESULT

比較結果是零。如果你想處理零0(平等),您可以設置“spark.sql.legacy。allowNullComparisonResultInArraySort”到“真正的”。

OPERATION_REQUIRES_UNITY_CATALOG

操作<操作>需要統一目錄啟用。

OP_NOT_SUPPORTED_READ_ONLY

<計劃>在隻讀會話模式下不支持。

PARSE_CHAR_MISSING_LENGTH

數據類型<類型>需要長度參數,例如<類型> (10)。請指定長度。

PARSE_EMPTY_STATEMENT

語法錯誤,意想不到的空語句

PARSE_SYNTAX_ERROR

語法錯誤在或接近<錯誤> <提示>

PARTITION_METADATA

< <行動>是不允許對表的表>自存儲分區團結不支持元數據目錄。

PARTITION_SCHEMA_IN_ICEBERG_TABLES

表分區時指定的模式不能轉換冰山

PIVOT_VALUE_DATA_TYPE_MISMATCH

無效的主值<價值>:值數據類型< valueType > < pivotType >主列數據類型不匹配

RENAME_SRC_PATH_NOT_FOUND

無法重命名為<路徑>沒有發現

RESERVED_CDC_COLUMNS_ON_WRITE

寫包含保留列< columnList >所使用

內部更改數據的元數據提要。寫信給表重命名/下降

這些列或禁用更改數據以表通過設置

< config >為false。

RESET_PERMISSION_TO_ORIGINAL

未能設置原始許可<許可>回到創建路徑:<路徑>。例外:<消息>

SAMPLE_TABLE_PERMISSIONS

權限示例數據庫/表上不受支持。

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

> < functionName函數的第二個參數必須是一個整數。

SYNC_METADATA_DELTA_ONLY

維修表同步元數據命令為三角洲表僅支持。

SYNC_METADATA_NOT_SUPPORTED

維修表同步元數據命令隻是支持統一目錄表。

SYNC_SRC_TARGET_TBL_NOT_SAME

源表名必須與目標表名< srcTable > < destTable >。

UC_BUCKETED_TABLES

桶在統一編目表不支持。

UC_CATALOG_NAME_NOT_PROVIDED

統一目錄,請明確指定目錄名稱。例如顯示格蘭特your.address.com在目錄主要。

UC_COMMAND_NOT_SUPPORTED

< commandName > < isOrAre >不支持統一目錄。

UC_DATASOURCE_NOT_SUPPORTED

數據源格式不支持< dataSourceFormatName >統一目錄。

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

數據源不支持選項在統一目錄。

UC_INVALID_NAMESPACE

不支持嵌套或空名稱空間在統一目錄。

UC_INVALID_REFERENCE

Non-Unity-Catalog對象中引用<名稱>不能統一目錄對象。

UC_NOT_ENABLED

在這個集群統一目錄未啟用。

UNABLE_TO_ACQUIRE_MEMORY

無法獲得< requestedBytes >字節的內存,有< receivedBytes >

UNKNOWN_TABLE_TYPE

不支持表<類型>表。

UNPIVOT_REQUIRES_VALUE_COLUMNS

需要指定至少一個值列透視,所有列指定為id

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

透視值列必須共享一個最常見的類型,有些類型不:[<類型>]

UNRECOGNIZED_SQL_TYPE

識別SQL類型< typeName >

UNRESOLVED_COLUMN

一列或函數參數名稱<對象名>無法解決。你的意思的嗎?(< objectList >)

UNRESOLVED_FIELD

字段名稱< fieldName >無法解決與struct-type列< columnPath >。你的意思的嗎?(<提議>)

UNRESOLVED_MAP_KEY

不能解決列< columnName >地圖的關鍵。如果關鍵是一個字符串,請添加單引號。否則,你的列(s)意味著什麼?(<提議>)

UNSUPPORTED_CONSTRAINT_CLAUSES

約束條款> <條款是不支持的。

UNSUPPORTED_CONSTRAINT_TYPE

不支持的約束類型。隻支持< supportedConstraintTypes >

UNSUPPORTED_DATATYPE

不支持的數據類型< typeName >

UNSUPPORTED_DESERIALIZER

反序列化器不支持:

更多細節見UNSUPPORTED_DESERIALIZER

UNSUPPORTED_FEATURE

不支持功能:

更多細節見UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

不支持用戶定義函數類型:<語言>

UNSUPPORTED_GENERATOR

發電機不支持:

更多細節見UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

分組()/ grouping_id()隻能使用GroupingSets /立方/彙總

UNSUPPORTED_SAVE_MODE

< saveMode > save模式不支持:

更多細節見UNSUPPORTED_SAVE_MODE

UNTYPED_SCALA_UDF

你使用無類型Scala UDF,沒有輸入類型信息。火花可能盲目與原始類型參數傳遞null Scala關閉,關閉會看到Java類型的默認值為null參數,例如:udf (x):Int)= >x,IntegerType),結果是零輸入0。去掉這個錯誤,您可以:

  1. 使用Scala類型UDF api(沒有返回類型參數),例如:udf (x):Int)= >x)

  2. 使用Java UDF api,例如。udf(新UDF1(字符串,整數){覆蓋def調用(s:字符串):整數=s.length ()},IntegerType),如果輸入類型是所有非原始

  3. 設置“spark.sql.legacy。allowUntypedScalaUDF”到“真正的”,並小心使用這個API

UPGRADE_NOT_SUPPORTED

表沒有資格從蜂巢Metastore升級到統一目錄。原因:

更多細節見UPGRADE_NOT_SUPPORTED

WITH_CREDENTIAL

與證書不支持語法<類型>。

WRITING_JOB_ABORTED

寫工作中止

ZORDERBY_COLUMN_DOES_NOT_EXIST

< columnName > ZOrderBy列不存在。

三角洲湖

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

找不到積極SparkSession嗎

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

不能設立一個新的公司為積極當一個已經活躍

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

指數< columnIndex > < columnName >添加列低於0

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

結構沒有找到位置<位置>

DELTA_ADD_CONSTRAINTS

請使用ALTER TABLE添加約束添加檢查約束。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

找到< sqlExpr >。一個生成的列不能使用一個聚合表達式

DELTA_AGGREGATION_NOT_SUPPORTED

聚合函數不支持在<操作> <謂詞>。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

改變改變列的表不支持改變列< currentType > < newType >

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

操作不允許:改變表重命名為三角洲表管理是不允許在S3,最終一致性在S3可能腐敗的三角洲事務日誌。如果你堅持這樣做,並確保沒有三角洲表與新名稱<新名稱>之前,您可以啟用該設置<鍵>是真實的。

DELTA_AMBIGUOUS_PARTITION_COLUMN

模棱兩可的分區列<列> < colMatches >。

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

創建表包含兩個不同的位置:<標識符>和<位置>。

你可以從CREATE TABLE語句刪除位置條款,或一組

<設置>為true跳過此檢查。

DELTA_BLOCK_CDF_COLUMN_MAPPING_READS

改變數據提要(CDF)讀取目前不支持啟用表和列映射。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

操作時不允許“< opName >”表使改變數據提要(CDF),經曆了模式變化使用列或重命名列。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

不能把布隆過濾器指數以下不存在的列(s): < unknownColumns >

DELTA_CANNOT_CHANGE_DATA_TYPE

<數據類型>不能改變數據類型:

DELTA_CANNOT_CHANGE_LOCATION

不能改變δ表使用的“位置”設置TBLPROPERTIES。請使用ALTER TABLE設置的位置。

DELTA_CANNOT_CHANGE_PROVIDER

“供應商”是一個保留表屬性,不能改變。

DELTA_CANNOT_CONVERT_TO_FILEFORMAT

不能轉換FileFormat <類名>。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

不能創建布隆過濾器指數以下不存在的列(s): < unknownCols >

DELTA_CANNOT_CREATE_LOG_PATH

不能創建<路徑>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

不能描述的曆史觀點。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

不能刪除布隆過濾器索引非索引列:< columnName >

DELTA_CANNOT_EVALUATE_EXPRESSION

無法計算表達式:<表達式>

DELTA_CANNOT_FIND_BUCKET_SPEC

期待用桶裝三角洲表但不能找到桶規格表中

DELTA_CANNOT_FIND_VERSION

找不到“sourceVersion”< json >

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

不能為表達式生成代碼:<表達式>

DELTA_CANNOT_GENERATE_UPDATE_EXPRESSIONS

打電話沒有生成的列應該為每一列總是返回一個更新表達式

DELTA_CANNOT_MODIFY_APPEND_ONLY

這個表被配置為隻允許附加。如果您想允許更新或刪除,使用“ALTER TABLE < table_name >設置TBLPROPERTIES (< config > = false)。

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

uri uri(< >)不能轉變為相對路徑是在事務日誌中找到。

DELTA_CANNOT_RELATIVIZE_PATH

路徑(<路徑>),不能與當前輸入身上發現的

事務日誌。請重新運行這個:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog (“< userPath >”,真的)

然後運行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路徑>”)

DELTA_CANNOT_RENAME_PATH

不能重命名< currentPath > < newPath >

DELTA_CANNOT_REPLACE_MISSING_TABLE

表<表>不能取代,因為它不存在。使用創建或替換表創建表。

DELTA_CANNOT_RESOLVE_COLUMN

不能解決列< columnName > <模式>

DELTA_CANNOT_RESOLVE_SOURCE_COLUMN

不能解決合格的源列< columnName >源查詢中。請聯係磚的支持。

DELTA_CANNOT_RESTORE_TABLE_VERSION

不能恢複表版本<版本>。可用版本:[< startVersion >、< endVersion >]。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

不能恢複表後時間戳(< requestedTimestamp >),因為它是可用的最新版本。請使用前一個時間戳(< latestTimestamp >)

DELTA_CANNOT_SET_LOCATION_MULTIPLE_TIMES

不能設置位置多次。找到<地址>

DELTA_CANNOT_UPDATE_ARRAY_FIELD

無法更新% 2 $ s % 1 $ s字段類型:通過更新% 2 $ s.element更新元素

DELTA_CANNOT_UPDATE_MAP_FIELD

無法更新% 2 $ s % 1 $ s字段類型:更新地圖通過更新% 2 $ s。鍵或% 2 s.value美元

DELTA_CANNOT_UPDATE_STRUCT_FIELD

不能更新<表>字段< fieldName >類型:更新結構通過添加、刪除或更新字段

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

不能使用分區列的所有列

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

配置三角洲。enableChangeDataFeed不能設置。改變從三角洲還沒有可用的數據提要。

DELTA_CHANGE_TABLE_FEED_DISABLED

不能寫表與δ。enableChangeDataFeed集。改變數據提要從三角洲是不可用的。

DELTA_CHECKPOINT_SNAPSHOT_MISMATCH

檢查點狀態不匹配的快照。

DELTA_CLONE_AMBIGUOUS_TARGET

兩條路徑提供了使用克隆目標是模棱兩可的。一個外部

位置克隆在< externalLocation >同時提供路徑

< targetIdentifier >。

DELTA_COLUMN_NOT_FOUND

找不到列< columnName >鑒於(< columnList >)

DELTA_COLUMN_NOT_FOUND_IN_MERGE

無法找到該列的< targetCol >插入目標表的列:< colNames >。插入條款必須指定目標表的所有列值。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

找不到列< columnName >:

< tableSchema >

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

結構柱<源>不能插入到< targetType >在< targetTable > < targetField >。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

發現在列嵌套NullType < columName >的<數據類型>。δ不支持寫NullType複雜類型。

DELTA_CONFIGURE_SPARK_SESSION_WITH_EXTENSION_AND_CATALOG

這個三角洲操作需要SparkSession配置了

DeltaSparkSessionExtension DeltaCatalog。請設置必要的

創建SparkSession時配置如下所示。

SparkSession構建器()選項(“spark.sql.extensions”,“< sparkSessionExtensionName >”)選項(“< catalogKey >”,“< catalogClassName >”)構建()

DELTA_CONFLICT_SET_COLUMN

有一個衝突從這些列:設置< columnList >。

DELTA_CONSTRAINT_ALREADY_EXISTS

約束的< constraintName >已經存在。請先刪除舊的約束。

古老的約束:

< oldConstraint >

DELTA_CONSTRAINT_DOES_NOT_EXIST

不能刪除不存在的約束< constraintName >從表<表>。為了避免拋出錯誤,提供參數如果存在或一組SQL會話配置< config > < confValue >。

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

配置不能被設置為< config ><模式>當使用轉換為δ。

DELTA_CONVERT_NON_PARQUET_TABLE

轉換為三角洲隻支持拚花表,但你正試圖把一個< sourceName >來源:< tableId >

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

你想創建一個外部表<表>

<路徑>使用增量,但時沒有指定的模式

輸入路徑是空的。

了解更多關於δ,看<不再>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

你想創建一個外部表<表>

% 2 $ s使用增量,但沒有事務日誌出席

% 2 $ s / _delta_log。檢查確保它的上遊工作是寫作

格式(“δ”),路徑的根表。

了解更多關於δ,看<不再>

DELTA_CREATE_TABLE_SCHEME_MISMATCH

指定的模式不匹配現有模式在<路徑>。

= = = =指定

< specifiedSchema >

現有= = = =

< existingSchema >

= = = =的差異

< schemaDifferences >

如果你的目的是保持現有模式,你可以省略了

從create table命令模式。否則,請確保

模式匹配。

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

指定的屬性不匹配現有的屬性在<路徑>。

= = = =指定

< specificiedProperties >

現有= = = =

< existingProperties >

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

不能創建表(“< tableId >”)。相關的位置(“< tableLocation >”)不是空的但不是δ表

DELTA_DATA_CHANGE_FALSE

不能改變表的元數據,因為“dataChange”選項設置為false。嚐試操作:“< op >”。

DELTA_DUPLICATE_COLUMNS_FOUND

發現重複的列(s) < coltype >: < duplicateCols >

DELTA_DUPLICATE_COLUMNS_ON_INSERT

重複的列名在插入條款

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

<消息>

你更新你的桌子前請刪除重複的列。

DELTA_EMPTY_DATA

數據用於創建三角洲表沒有任何列。

DELTA_EMPTY_DIRECTORY

沒有文件在目錄:<目錄>。

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

超過char、varchar類型長度限製。失敗的檢查:< expr >。

DELTA_EXPRESSIONS_NOT_FOUND_IN_GENERATED_COLUMN

無法找到生成的表達式列< columnName >

DELTA_EXTRACT_REFERENCES_FIELD_NOT_FOUND

字段< fieldName >提取引用時無法找到。

DELTA_FAILED_CAST_PARTITION_VALUE

沒有分區的值<值><數據類型>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLLUMNS

找不到< newAttributeName >中現有的目標輸出< targetOutputCollumns >

DELTA_FAILED_INFER_SCHEMA

沒有推斷模式從給定的文件列表。

DELTA_FAILED_MERGE_SCHEMA_FILE

失敗的合並模式文件<文件>:

<模式>

DELTA_FAILED_RECOGNIZE_PREDICATE

無法識別謂語<謂詞>的

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

期望的最新版本的完整掃描δ源,但發現的曆史掃描版< historicalVersion >

DELTA_FAILED_TO_MERGE_FIELDS

失敗的合並字段“<字段>”和“< fieldRoot >”。< fieldChild >

DELTA_FAIL_RELATIVIZE_PATH

未能身上的路徑(<路徑>)。這可能發生在絕對路徑

它為事務日誌,從方案開始

wasbs s3: / /: / /或adls: / /。這是一個錯誤在DBR 5.0之前一直存在。

為了解決這個問題,請升級您的作家工作DBR 5.0,請運行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路徑>”)。

如果創建這個表淺克隆跨文件係統

(不同的桶/容器)和這個表不是用於生產,你可以

設置SQL配置<設置>

為true。使用這個SQL配置可能會導致意外數據丟失,

因此我們不建議使用這個標誌,除非

這是一個淺克隆用於測試目的。

DELTA_FILE_ALREADY_EXISTS

現有的文件路徑<路徑>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

不能指定文件列表和模式字符串。

DELTA_FILE_NOT_FOUND

文件路徑<路徑>

DELTA_FILE_OR_DIR_NOT_FOUND

沒有這樣的文件或目錄:<路徑>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

文件(<路徑>)中被重寫未找到候選人文件:

< pathList >

DELTA_FOUND_MAP_TYPE_COLUMN

MapType被發現。為了訪問MapType的鍵或值,指定一個

:

< >鍵或

<值>

其次是列的名稱(隻有這一列是一個結構體類型)。

例如mymap.key.mykey

如果列是一個基本類型、關聯。鍵或關聯。價值是充分的。

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

列< columnName >是一個生成的列或列使用生成的列。數據類型是< columnType >。<數據類型>它不接受數據類型

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

生成的列的表達式類型< columnName >是< expressionType >,但列類型是< columnType >

DELTA_ILLEGAL_FILE_FOUND

非法的文件中發現一個dataChange = false事務。文件:<文件>

DELTA_ILLEGAL_USAGE

使用<選項>是<操作>δ表時不允許。

DELTA_INCOMPLETE_FILE_COPY

文件(<文件名>)沒有完全複製。將文件大小:< expectedSize >,發現:< actualSize >。繼續操作,忽略了文件大小檢查設置spark.databricks.delta.clone.checkWrite為假。

DELTA_INCONSISTENT_BUCKET_SPEC

BucketSpecδ桶表不匹配BucketSpec從元數據。預期:<預期>。實際實際:< >。

DELTA_INCONSISTENT_LOGSTORE_CONFS

(< setkey >)不能被設置為不同的值。請隻設置其中的一個,或一組相同的值。

DELTA_INCORRECT_ARRAY_ACCESS

訪問一個ArrayType錯誤。使用arrayname.element。elementname位置

增加一個數組。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

一個ArrayType被發現。為了訪問元素的ArrayType,指定

< rightName >

而不是< wrongName >

DELTA_INCORRECT_GET_CONF

使用getConf ()而不是“conf.getConf ()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

錯誤通常發生在默認LogStore實現,

HDFSLogStore,用於寫入一個增量表non-HDFS存儲係統。

為了得到事務酸擔保表更新,您必須使用

正確實施LogStore適合您的存儲係統。

有關詳細信息,請參閱<不再>。

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

指數<位置>刪除列等於或大於結構長度:<長度>

DELTA_INDEX_LARGER_THAN_STRUCT

指數<指數> < columnName >添加列大於結構長度:<長度>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

不能寫的<表>,< columnName >;目標表< numColumns >列(s),但插入的數據列(s) < insertColumns >

DELTA_INSERT_COLUMN_MISMATCH

在插入列沒有指定< columnName >

DELTA_INVALID_BUCKET_COUNT

無效的桶數:< invalidBucketCount >。鬥數應該是一個正數,至少是2的冪,8。您可以使用< validBucketCount >。

DELTA_INVALID_BUCKET_INDEX

找不到分區中的桶列列

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

時間間隔不能為null或空白。

DELTA_INVALID_CDC_RANGE

疾控中心範圍從開始<開始> <結束>是無效的。結束之前不能開始。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

屬性名稱“< columnName >”中包含無效的字符(s)”, {} () \ n \ t = "。請使用別名來重命名它。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

發現無效的字符(s)的,{}()元= '列名的模式。<通知>

DELTA_INVALID_COMMITTED_VERSION

提交的版本是< committedVersion >但當前版本是< currentVersion >。請聯係磚的支持。

DELTA_INVALID_FORMAT

檢測到不兼容的格式。

三角洲發現的事務日誌< deltaRootPath > / _delta_log,

但你想<工作><路徑>使用格式(“<格式>”)。你必須使用

的格式(“δ”)當閱讀和寫作δ表。

禁用此檢查,設置spark.databricks.delta.formatCheck.enabled = false

了解更多關於δ,看<不再>

DELTA_INVALID_FORMAT_FROM_SOURCE_VERSION

不支持的格式。預期的版本應該小於或等於< expectedVersion > < realVersion >。請升級到新版本的三角洲。

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

一個生成的列不能使用一個不存在的列或另一個生成的列

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

無效的選擇冪等Dataframe寫道:<原因>

DELTA_INVALID_INTERVAL

<時間>不是一個有效的時間間隔。

DELTA_INVALID_ISOLATION_LEVEL

無效的隔離級別的< isolationLevel >

DELTA_INVALID_LOGSTORE_CONF

(< classConfig >)和(< schemeConfig >)不能被設置在同一時間。請設置隻有一組。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

你想創建一個管理表<表>

使用增量,但沒有指定的模式。

了解更多關於δ,看<不再>

DELTA_INVALID_PARTITIONING_SCHEMA

AddFile包含分區模式不同於表的分區模式

預期:< neededPartitioning >

實際:< specifiedPartitioning >

禁用此檢查< config >設置為“false”

DELTA_INVALID_PARTITION_COLUMN

< columnName >不是一個有效的分區列在表<表>。

DELTA_INVALID_PARTITION_COLUMN_NAME

發現分區列有無效的字符(s)在",{}()元= "。請改名為分區列。這個檢查可以通過設置關閉spark.conf.set (“spark.databricks.delta.partitionColumnValidity.enabled”,假)但是這並不推薦為δ的其他功能可能無法正常工作。

DELTA_INVALID_PARTITION_COLUMN_TYPE

使用列類型的<名稱> <數據類型>不支持分區列。

DELTA_INVALID_PARTITION_PATH

一個分區路徑片段應該像形式part1 = foo / part2 = bar。分區的路徑:<路徑>

DELTA_INVALID_PROTOCOL_DOWNGRADE

協議版本不能降級從< oldProtocol >到< newProtocol >

DELTA_INVALID_SOURCE_VERSION

sourceVersion(<版本>)是無效的

DELTA_INVALID_TABLE_VALUE_FUNCTION

函數< >是一個不受支持的疾控中心讀取表值函數。

DELTA_INVALID_TIMESTAMP_FORMAT

提供的時間戳<時間> < >格式不匹配預期的語法。

DELTA_INVALID_V1_TABLE_CALL

< callVersion >調用預計不會基於路徑< tableVersion >

DELTA_ITERATOR_ALREADY_CLOSED

迭代器是關閉的

DELTA_LOG_ALREADY_EXISTS

在<路徑>δ記錄已經存在

DELTA_MAX_ARRAY_SIZE_EXCEEDED

請使用極限小於Int.MaxValue - 8。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

這個提交失敗了,因為它已經被嚐試過< numAttempts >次但沒有成功。

這可能是由於三角洲表被許多並發持續承諾

提交。

提交開始版本:< startVersion >

在版本提交失敗:< failVersion >

數量的行為試圖提交:< numActions >

總試圖提交時間:< timeSpent >女士

DELTA_MAX_LIST_FILE_EXCEEDED

文件列表必須最多< maxFileListSize >條目,< numFiles >。

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

未能將十進製類型與不兼容的< decimalRanges >

DELTA_MERGE_INVALID_WHEN_NOT_MATCHED_CLAUSE

<條款>條款不能當不匹配的一部分並入條款。

DELTA_MERGE_MISSING_WHEN

必須有至少一個當條款在MERGE語句。

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

意想不到的任務關鍵:< unexpectedKeyClass > - < unexpectedKeyObject >

DELTA_METADATA_ABSENT

找不到元數據而犯下的第一個版本δ表。禁用

這張支票< deltaCommitValidationEnabled >設置為“false”

DELTA_MISSING_CHANGE_DATA

錯誤得到改變數據範圍(< startVersion >、< endVersion >),數據沒有變化

記錄版本(<版本>)。如果你啟用更改數據以這個表為食,

使用描述曆史當它第一次啟用。

否則,開始記錄更改數據,使用ALTER TABLE table_name TBLPROPERTIES設置

(<鍵> = true)”。

DELTA_MISSING_COLUMN

找不到表列:< columnName > < columnList >

DELTA_MISSING_DELTA_TABLE

<表>不是δ表。

DELTA_MISSING_FILES_UNEXPECTED_VERSION

從三角洲表是期望的過程數據流從版本< startVersion >,

但是最早的可用版本δ日誌目錄< earliestVersion >。的文件

在事務日誌中可能由於日誌清理被刪除。為了避免失敗

數據,我們建議您重新啟動新的檢查點位置和流

增加你的三角洲。logRetentionDuration設置,如果你有顯式地設置它低於30

天。

如果你想忽略錯過的數據和繼續流從那裏離開了

,你可以設置.option(“<選項>”,“假”)的一部分

你的readStream聲明。

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

列< columnName >, NOT NULL約束,丟失的數據被寫入表中。

DELTA_MISSING_PARTITION_COLUMN

分區列< columnName >沒有發現模式< columnList >

DELTA_MISSING_PART_FILES

找不到文件一部分的檢查點版本:<版本>

DELTA_MISSING_PROVIDER_FOR_CONVERT

轉換為三角洲隻支持拚花表。請重寫你的目標拚花。<路徑>如果這是一個拚花目錄。

DELTA_MISSING_SET_COLUMN

設置列< columnName >未找到給定的列:< columnList >。

DELTA_MISSING_TRANSACTION_LOG

檢測到不兼容的格式。

你想<工作><路徑>使用δ,但是沒有

事務日誌。檢查確保它的上遊工作是寫作

使用格式(“δ”),你要% 1 $ s表基本路徑。

禁用此檢查,設置spark.databricks.delta.formatCheck.enabled = false

了解更多關於δ,看<不再>

DELTA_MODE_NOT_SUPPORTED

指定的模式不支持“<模式>”。支持的模式是:< supportedModes >

DELTA_MULTIPLE_CDC_BOUNDARY

多個< startingOrEnding >參數提供疾病預防控製中心閱讀。請提供一個< startingOrEnding >時間戳或< startingOrEnding >版本。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

多個布隆過濾器指數配置傳遞給命令列:< columnName >

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

不能執行合並多個源行匹配和試圖修改相同的

三角洲地區的目標行表中可能相互衝突的方法。通過SQL合並的語義,

當多個源行匹配在同一目標行,結果可能是模棱兩可的

目前還不清楚這源行應該用於更新或刪除匹配

目標行。源表可以進行預處理來消除的可能性

多個匹配。請參考

< usageReference >

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

下麵的列名稱(s)是留給三角洲桶表內部使用:<名稱>

DELTA_NESTED_FIELDS_NEED_RENAME

嵌套的字段需要重命名,以避免數據丟失。字段:

<字段>。

原始模式:

<模式>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

不支持嵌套的子查詢的< >操作條件。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

在< < numRows >行表>違反新檢查約束(< checkConstraint >)

DELTA_NEW_NOT_NULL_VIOLATION

< numRows >行<表>新NOT NULL約束違反< colName >

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

檢查約束的<名稱> (< expr >)應該是一個布爾表達式。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

非確定函數不支持在<操作> <表達式>

DELTA_NON_GENERATED_COLUMN_MISSING_UPDATE_EXPR

< columnName >不是一個生成的列,而是缺少它的更新表達式

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

當有多個匹配的條款在MERGE語句中,隻有最後一個匹配子句可以省略的條件。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

當有一個以上的不匹配的條款在MERGE語句中,隻有最後一個不匹配的條款可以省略

DELTA_NON_PARSABLE_TAG

無法解析標記<標記>。

文件標記:<標記>

DELTA_NON_PARTITION_COLUMN_ABSENT

數據寫入三角洲需要包含至少一個非分區列。<詳細>

DELTA_NON_PARTITION_COLUMN_REFERENCE

謂詞引用non-partition列“< columnName >”。隻能引用:分區列(< columnList >)

DELTA_NON_PARTITION_COLUMN_SPECIFIED

不分區列(s) < columnList >指定,預計隻有分區列:<片段>。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

<表>不是δ表。請讓這個表首先如果你想創建磚三角洲。

DELTA_NOT_A_DELTA_TABLE

<表>不是δ表。請先把這個表如果你想重現三角洲湖。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

不是可以為空的列中發現結構:<結構>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

非空約束違反列:< columnName >。

DELTA_NOT_NULL_NESTED_FIELD

一個空列上嵌套字段不能被添加到一個可以為空的父母。請相應地設置父的nullability列。

DELTA_NO_COMMITS_FOUND

沒有提交發現logPath > <

DELTA_NO_NEW_ATTRIBUTE_ID

找不到一個新屬性ID列< columnName >。這應該被檢查。

DELTA_NO_START_FOR_CDC_READ

沒有startingVersion startingTimestamp提供疾病預防控製中心閱讀。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

δ模式中不接受NullTypes流寫道。

DELTA_ONEOF_IN_TIMETRAVEL

請提供“timestampAsOf”或“versionAsOf”時間旅行。

DELTA_ONLY_OPERATION

<操作>是隻支持三角洲表。

DELTA_OPERATION_MISSING_PATH

請提供路徑或表標識符> <操作。

DELTA_OPERATION_NOT_ALLOWED

操作不允許:<操作>不支持δ表

DELTA_OPERATION_NOT_ALLOWED_DETAIL

操作不允許:<操作>不支持增量表:<表>

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

<操作>命令臨時視圖指三角洲表不支持包含生成的列。請運行<操作>命令直接差值表

DELTA_OVERWRITE_MUST_BE_TRUE

指定複製選項overwriteSchema不能沒有設置覆蓋=“真實”。

DELTA_PARTITION_COLUMN_CAST_FAILED

未能把價值<值><數據類型>分區列< columnName >

DELTA_PATH_DOES_NOT_EXIST

<路徑>不存在

DELTA_PATH_EXISTS

不能寫沒有設置覆蓋已經存在的路徑<路徑> =“真實”。

DELTA_POST_COMMIT_HOOK_FAILED

提交到三角洲表版本<版本>成功但錯誤而執行post-commit鉤<名稱> <消息>

DELTA_PROTOCOL_PROPERTY_NOT_INT

協議屬性<鍵>需要一個整數。找到<值>

DELTA_READ_TABLE_WITHOUT_COLUMNS

你想讀表<表>沒有列使用三角洲。

寫一些數據與選擇mergeSchema=真正的使隨後的讀訪問權。

DELTA_REGEX_OPT_SYNTAX_ERROR

請重新檢查你的語法' < regExpOption > '

DELTA_REMOVE_FILE_CDC_MISSING_EXTENDED_METADATA

RemoveFile創建沒有擴展的元數據是沒有資格對疾病預防控製中心:

<文件>

DELTA_REPLACE_WHERE_IN_OVERWRITE

你不能用replaceWhere結合濾波器的覆蓋

DELTA_REPLACE_WHERE_MISMATCH

數據寫入不匹配replaceWhere < replaceWhere >。

<消息>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

replaceWhere的表達式和“partitionOverwriteMode”=“動態”都不能設置在DataFrameWriter選項。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

“replaceWhere”不能用於數據過濾器當“dataChange”設置為false。過濾器:< dataFilters >

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

δ表的模式改變了因為你在一個不兼容的方式DataFrame

或DeltaTable對象被創建。請重新定義你的DataFrame或DeltaTable對象。

變化:

< schemaDiff > < legacyFlagMessage >

DELTA_SCHEMA_NOT_CONSISTENT_WITH_TARGET

表模式< tableSchema >是不一致的與目標屬性:< targetAttrs >

DELTA_SCHEMA_NOT_SET

表模式沒有設置,數據寫入或使用創建表設置模式。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

模式的新三角洲位置比當前表模式是不同的。

原始模式:

<原>

目標模式:

<目標>

如果這是一個預期的改變,你可能會關掉這個檢查通過運行:

% % sql設置< config > = true

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

不允許顯示分區的表上不是分區:<表>

DELTA_SOURCE_IGNORE_DELETE

發現刪除數據(例如< removedFile >)從流源版本<版本>。這是目前不支持。如果你想忽略刪除,設置選項“ignoreDeletes”到“真正的”。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

檢測到一個數據更新(例如<文件>)在源表版本<版本>。這是目前不支持。如果你想忽略更新,設置選項“ignoreChanges”到“真正的”。如果你想反映的數據更新,請重啟該查詢以全新的關卡目錄。

DELTA_SPARK_SESSION_NOT_SET

主動SparkSession不設置。

DELTA_SPARK_THREAD_NOT_FOUND

沒有火花任務線程上運行

DELTA_STATE_RECOVER_ERROR

三角洲的<操作>表不能恢複而重建

版本:<版本>。你手動刪除文件了嗎δ日誌目錄嗎?

<設置>設置為“false”

跳過驗證。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

無法使變化數據捕獲放在桌子上。表已經包含

< columnList >,將保留的列

是內部使用的元數據表的更改數據提要。要啟用

改變數據提要表重命名/下降這些列。

DELTA_TABLE_ALREADY_EXISTS

<表>表已經存在。

DELTA_TABLE_FOUND_IN_EXECUTOR

DeltaTable不能用於執行人

DELTA_TABLE_NOT_FOUND

三角洲表<表>不存在。請刪除你的流媒體查詢檢查點和重啟。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

表不支持在<操作>。請使用相反的道路。

DELTA_TABLE_ONLY_OPERATION

<表>不是δ表。<操作>是隻支持三角洲表。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

提供的時間戳(< providedTimestamp >)後可用的最新版本

表(<表>)。請使用之前或在一個時間戳< maximumTimestamp >。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

< timeTravelKey >需要一個有效的開始值。

DELTA_TRUNCATED_TRANSACTION_LOG

<路徑>:無法重建狀態版本<版本>為事務日誌截斷了手動刪除或日誌保留政策(< logRetentionKey > = < logRetention >)和檢查點保留政策(< checkpointRetentionKey > = < checkpointRetention >)

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

操作不允許:截斷表增量表上不支持分區謂詞;使用刪除刪除特定分區或行。

DELTA_TXN_LOG_FAILED_INTEGRITY

事務日誌完整性檢查失敗。在<版本>版本,驗證失敗:

< mismatchStringOpt >

DELTA_UNEXPECTED_ACTION_IN_OPTIMIZE

意想不到的行動<行動> < actionClass >型。優化應該隻有addfile和RemoveFiles。

DELTA_UNEXPECTED_ALIAS

預期別名但有<別名>

DELTA_UNEXPECTED_ATTRIBUTE_REFERENCE

預期AttributeReference但有< ref >

DELTA_UNEXPECTED_CHANGE_FILES_FOUND

改變文件中發現一個dataChange = false事務。文件:

<文件列表>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

希望< expectedColsSize >分區列(s): < expectedCols >,但發現< parsedColsSize >分區列(s): < parsedCols >從解析文件名稱:<路徑>

DELTA_UNEXPECTED_PARTIAL_SCAN

期待一個完整的掃描δ源,但發現部分掃描。路徑:<路徑>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

轉換為三角洲被稱為與分區模式不同的分區模式推斷從目錄,請避免提供的模式,可以選擇分區模式目錄。

編目分區模式:

< catalogPartitionSchema >

提供分區模式:

< userPartitionSchema >

DELTA_UNKNOWN_CONFIGURATION

未知的配置指定:<設置>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

未被列變化< otherClass >。你可能會運行一個過時的三角洲湖版本。

DELTA_UNRECOGNIZED_FILE_ACTION

識別文件的操作<行動> < actionClass >型。

DELTA_UNRECOGNIZED_INVARIANT

未識別的不變的。請升級您的火花的版本。

DELTA_UNRECOGNIZED_LOGFILE

未識別的日誌文件<文件名>

DELTA_UNSET_NON_EXISTENT_PROPERTY

試圖設置不存在的屬性的<屬性>表<表>

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

<路徑>不支持添加文件的絕對路徑

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

不支持的ALTER TABLE取代列操作。原因:<詳細>

沒有改變模式:

< oldSchema >

:

< newSchema >

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

你想替換現有的表與克隆(<表>)。這個操作是

不受支持的。嚐試不同的克隆或刪除目標表在當前目標。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

改變列的映射模式從“< oldMode >”不支持“< newMode >”。

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

你當前的協議版本不支持改變列的表映射模式

使用< config >。

需要δ協議版本列映射:

< requiredVersion >

你的表目前的δ協議版本:

< currentVersion >

<通知>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

模式變化檢測:

舊模式:

< oldTableSchema >

新模式:

< newTableSchema >

模式變化期間是不允許修改的列映射模式。

DELTA_UNSUPPORTED_COLUMN_MAPPING_STREAMING_READS

流讀取從三角洲表不支持啟用了列映射。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

寫數據不支持使用列映射模式。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

一個列上創建一個布隆過濾器指數型<數據類型>是不受支持的:< columnName >

DELTA_UNSUPPORTED_DATA_TYPES

發現使用不支持的數據類型列:< dataTypeList >。你可以設置“< config >”“假”禁用類型檢查。禁用這種類型檢查可能允許用戶創建表和時才應該使用不受支持的三角洲試圖讀/寫遺留表。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

<視圖>是一個視圖。描述細節隻是支持表。

DELTA_UNSUPPORTED_DROP_COLUMN

表不支持你的三角洲刪除列。<通知>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

隻能從StructType嵌套列。找到<結構>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

刪除分區列(< columnList >)是不允許的。

DELTA_UNSUPPORTED_EXPRESSION

不支持的表達式類型為<相關文獻> (< expType >)。支持的類型(< supportedTypes >)。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

<表達式>不能用於生成的列

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

更新是StructType僅支持嵌套的字段,但是你想要更新一個< columnName >,這類型:<數據類型>。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

'生成symlink_format_manifest '命令在表版本不支持刪除向量。

為了產生一個版本的表沒有刪除向量,運行REORG表表應用(清洗)。然後重新運行生成的命令。

確保沒有並發事務再次添加刪除向量之間的REORG和生成。

如果你經常需要生成體現,或者你不能防止並發事務,考慮禁用刪除向量在此表使用的表設置TBLPROPERTIES ALTER table (createDeletionVectors = false)。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

不變量在嵌套域不支持StructTypes以外。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

listKeywithPrefix不可用

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

清單一代不支持表,利用列映射,外部讀者讀不懂這些三角洲表。看到三角洲文檔以了解更多的細節。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

合並與模式演化目前不支持寫操作中心輸出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

在謂詞不支持多列> <操作條件。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

一個嵌套列上創建一個布魯姆過濾器指數目前不支持:< columnName >

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

不支持嵌套域在<操作>(字段= < fieldName >)。

DELTA_UNSUPPORTED_OUTPUT_MODE

數據源不支持<模式> <數據源>輸出模式

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

一個分區上創建一個布隆過濾器索引列是不受支持的:< columnName >

DELTA_UNSUPPORTED_RENAME_COLUMN

列重命名為δ表不支持。<通知>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

三角洲在閱讀時不支持指定的模式。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

按不支持δ桶排序表

DELTA_UNSUPPORTED_SOURCE

<操作>目的地隻支持δ源。

<計劃>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

指定靜態分區的分區規範目前不支持在插入

DELTA_UNSUPPORTED_STRATEGY_NAME

不支持的策略名稱:<策略>

DELTA_UNSUPPORTED_SUBQUERY

子查詢中不支持<操作>(條件= <氣孔導度>)。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

子查詢謂詞不支持在分區。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

不能在多種格式指定時間旅行。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

不能時間旅行的觀點,子查詢或流。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

不支持截斷示例表

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

請提供基本路徑(< baseDeltaPath >)當吸塵三角洲表。吸塵特定分區目前不支持。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

表實現不支持寫道:<表>

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

不支持寫入示例表

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

不能把< fromCatalog > < toCatalog >。所有嵌套列必須匹配。

DELTA_VERSIONS_NOT_CONTIGUOUS

版本(< versionList >)並不是連續的。

DELTA_VERSION_NOT_CONTIGUOUS

版本(< versionList >)並不是連續的。這可能發生在從三角洲日誌文件手動刪除。請聯係磚支持修複的桌子上。

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

檢查約束< constraintName > <表達式>違反由行與價值觀:

<值>

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

< viewIdentifier >是一個視圖。你可能不寫數據到一個視圖。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

z值列< columnName >數據模式中不存在。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

<關口>將z值

無效的,因為我們目前不為這些列收集統計數據。請參考

<鏈接>

有關數據跳過和z值的更多信息。你可以禁用

這張支票通過設置

sql設置< zorderColStatKey > =假“% %”

DELTA_ZORDERING_ON_PARTITION_COLUMN

< colName >是一個分區列。z值隻能進行數據列

自動裝卸機

CF_ADD_NEW_NOT_SUPPORTED

模式演化模式< addNewColumnsMode >不支持指定的模式。使用這種模式,你可以通過提供模式cloudFiles.schemaHints代替。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

發現notification-setup身份驗證選項(默認)目錄

清單模式:

<選項>

如果您想要使用的文件通知模式,請顯式地設置:

選項(“cloudFiles \ < useNotificationsKey >”。,“真正的”)

另外,如果你想跳過驗證你的選項和忽視這些

身份驗證選項,可以設置:

選項(“cloudFiles.ValidateOptionsKey >”,“假”)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

增量清單模式(cloudFiles。< useIncrementalListingKey >)

和文件通知(cloudFiles < useNotificationsKey >)。

同時啟用。

請確保您選擇隻有一個。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

需要adlsBlobSuffix和adlsDfsSuffix Azure

CF_BUCKET_MISMATCH

文件中的< storeType >事件< fileEvent >不同於預期的來源:<源>

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

不能發展模式時,日誌是空的。模式的日誌位置:< logPath >

CF_CANNOT_RESOLVE_CONTAINER_NAME

不能解決容器名稱從路徑:<路徑>,解析uri: < uri >

CF_CANNOT_RUN_DIRECTORY_LISTING

不能運行時目錄清單有一個異步回填線程運行

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

不能打開cloudFiles。cleanSource cloudFiles。allowOverwrites在同一時間。

CF_DUPLICATE_COLUMN_IN_DATA

有一個錯誤當試圖推斷出表的分區模式。你有相同的列複製數據和分區的路徑。忽略分區的值,請提供你的分區列顯式地使用:.option (“cloudFiles。< partitionColumnsKey >”、“{comma-separated-list}”)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

當輸入路徑不能推斷出模式<路徑>是空的。請開始流當在輸入文件路徑,或者指定的模式。

CF_EVENT_GRID_AUTH_ERROR

未能創建事件網格訂閱。請確保您的服務

主要有< permissionType >事件網格訂閱。看到更多的細節:

<不再>

CF_EVENT_GRID_CREATION_FAILED

未能創建事件網格訂閱。請確保微軟。EventGrid是

作為資源提供者注冊在你的訂閱。看到更多的細節:

<不再>

CF_EVENT_GRID_NOT_FOUND_ERROR

未能創建事件網格訂閱。請確保你的存儲

賬戶(< storageAccount >)在你的資源組(< resourceGroup >)

存儲賬戶是一個“StorageV2(通用v2)”賬戶。看到更多的細節:

<不再>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

事件通知設置不支持< cloudStore >。

CF_FAILED_TO_CHECK_STREAM_NEW

未能檢查流是新的

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

未能創建訂閱:< subscriptionName >。訂閱具有相同名稱已經存在,與另一個話題:< otherTopicName >。所需的主題是< proposedTopicName >。刪除現有的訂閱或創建一個訂閱新資源後綴。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

未能創建主題:< topicName >。已經存在同名的一個話題。 Remove the existing topic or try again with another resource suffix

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

無法刪除通知id< notificationId >在鬥< bucketName >為主題< topicName >。請重試或手動刪除通知通過GCP控製台。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

失敗的反序列化保存字符串的模式:“< jsonSchema >”

CF_FAILED_TO_EVOLVE_SCHEMA

不能發展模式沒有日誌。

CF_FAILED_TO_FIND_PROVIDER

沒有找到供應商< fileFormatInput >

CF_FAILED_TO_INFER_SCHEMA

未能推斷模式從現有的文件格式< fileFormatInput > <路徑>輸入路徑。請確保您配置的選項正確或顯式地指定模式。

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

沒有寫日誌模式位置<路徑>。

CF_FILE_FORMAT_REQUIRED

找不到需要選擇:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

發現多個(< num >)訂閱自動加載器前綴的話題< topicName >:

< subscriptionList >

隻能有一個訂閱/主題。請手動確保你的話題不會有多個訂閱。

CF_GCP_AUTHENTICATION

請提供以下所有:< clientEmail >、<客戶>,

< privateKey >, < privateKeyId >或提供他們為了使用默認值

GCP的身份驗證憑據提供程序鏈與豐富的資源。

CF_GCP_LABELS_COUNT_EXCEEDED

收到太多的標簽(< num >) GCP的資源。每個資源的最大的標簽數< maxNum >。

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

收到太多的資源標簽GCP資源(< num >)。每個資源的最大資源標簽數< maxNum >, GCP標簽一樣資源標簽存儲資源,和磚特定的標簽使用這個標簽的配額。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

不完整的模式日誌中的日誌文件

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

不完整的元數據文件的自動加載程序檢查點

CF_INCORRECT_SQL_PARAMS

cloud_files方法接受兩個字符串參數:需要的加載路徑,文件格式。文件中必須提供讀者選項字符串鍵-值映射。例如cloud_files(“路徑”、“json”地圖(“option1”、“value1”))。收到:<參數>

CF_INVALID_ARN

無效的攻擊:<是>

CF_INVALID_CHECKPOINT

該檢查點不是一個有效的CloudFiles來源

CF_INVALID_CLEAN_SOURCE_MODE

無效的方式清潔源選擇<價值>。

CF_INVALID_GCP_RESOURCE_TAG_KEY

無效的資源標簽GCP的關鍵資源:<鍵>。鍵開始以小寫字母開頭,必須在1到63個字符長,和隻包含小寫字母,數字,下劃線(_)、連字符(-)。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

無效的資源標簽值GCP資源:<值>。值必須在0到63個字符長,必須隻包含小寫字母、數字、下劃線(_)、連字符(-)。

CF_INVALID_SCHEMA_EVOLUTION_MODE

cloudFiles\<schemaEvolutionModeKey>必須一個{“< addNewColumns >”“< failOnNewColumns >”“救援> <”“< noEvolution >”}

CF_INVALID_SCHEMA_HINTS_OPTION

模式提示隻能指定一個特定列。

在這種情況下,重新定義列:< columnName >

多次在schemaHints:

< schemaHints >

CF_INVALID_SCHEMA_HINT_COLUMN

模式提示不能用來覆蓋地圖和數組嵌套類型。

矛盾專欄:< columnName >

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

與ReadLimit latestOffset應該被稱為源。

CF_LOG_FILE_MALFORMED

日誌文件是畸形:未能從<文件名>讀取正確的日誌版本。

CF_MAX_MUST_BE_POSITIVE

馬克斯必須積極

CF_METADATA_FILE_CONCURRENTLY_USED

多個並發流查詢使用< metadataFile >

CF_MISSING_METADATA_FILE_ERROR

流源檢查點目錄的元數據文件不見了。此元數據

文件包含重要的流的默認選項,所以流無法重新啟動

現在。請聯係磚的支持援助。

CF_MISSING_PARTITION_COLUMN_ERROR

不存在分區列< columnName >所提供的模式:

<模式>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

請指定一個模式使用. schema()如果路徑不提供給CloudFiles源在使用文件通知模式。另外,自動加載程序來推斷模式請提供一個基本路徑.load ()。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

發現現有的主題的通知< topicName >在鬥< bucketName >:

通知、身份證

< notificationList >

為了避免汙染訂閱者和意想不到的事件,請刪除以上通知並重試。

CF_NEW_PARTITION_ERROR

新分區列推斷從你的文件:< filesList >。請提供所有分區列在你的模式或提供分區列的列表,你想提取值通過使用:.option (“cloudFiles。partitionColumns”、“{comma-separated-list |空字符串}”)

CF_PARTITON_INFERENCE_ERROR

有一個錯誤當試圖推斷出當前批文件的分區模式。請提供你的分區列顯式地使用:.option (“cloudFiles。< partitionColumnOption >”、“{comma-separated-list}”)

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

不支持周期性回填是否禁用異步回填。您可以啟用異步回填/目錄清單通過設置spark.databricks.cloudFiles.asyncDirListing為真

CF_PREFIX_MISMATCH

發現不匹配的事件:鍵<鍵>沒有前綴:<前綴>

CF_PROTOCOL_MISMATCH

<消息>

如果你不需要做任何其他更改您的代碼,然後請設置SQL

配置:“< sourceProtocolVersionKey > = <價值>”

恢複你的流。請參考:

<不再>

為更多的細節。

CF_REGION_NOT_FOUND_ERROR

沒有默認AWS地區。請使用cloudFiles指定區域。地區的選擇。

CF_RESOURCE_SUFFIX_EMPTY

未能創建通知服務:資源後綴不能是空的。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

未能創建通知服務:資源後綴隻能有字母數字字符,連字符(-)和下劃線(_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

未能創建通知服務:資源後綴可以隻有小寫字母,數字,和破折號(-)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

未能創建通知服務:資源後綴隻能有字母數字字符,連字符(-)、下劃線(_)、時間(.),齶化符號(~)加號(+),和百分號(< percentSign >)。

CF_RESOURCE_SUFFIX_LIMIT

未能創建通知服務:資源後綴不能超過<限製>字符。

CF_RESOURCE_SUFFIX_LIMIT_GCP

未能創建通知服務:資源後綴之間必須< lowerLimit >和< upperLimit >字符。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

發現限製GCP資源標簽鍵(<鍵>)。以下GCP資源標簽鍵是限製汽車裝載機:[< restrictedKeys >]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

cloudFiles.cleanSource。不能大於cloudFiles.maxFileAge retentionDuration。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

未能為主題:創建通知<主題>前綴:<前綴>。已經有一個話題與另一個具有相同名稱的前綴:< oldPrefix >。嚐試使用不同的資源後綴設置或刪除現有的設置。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

請提供源目錄路徑選擇路徑

CF_SOURCE_UNSUPPORTED

隻支持S3雲文件來源,Azure Blob存儲(wasb / wasbs)和Azure數據湖Gen1代(沛富/ abfss) (adl)和現在的路徑。路徑:<路徑>,解析uri:“< uri >”

CF_THREAD_IS_DEAD

< threadName >線程已經死了。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

無法推導出流檢查點位置從源檢查點位置:< checkPointLocation >

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

無法提取桶信息。路徑:<路徑>,解析uri: < uri >。

CF_UNABLE_TO_EXTRACT_KEY_INFO

無法提取關鍵信息。路徑:<路徑>,解析uri: < uri >。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

無法提取存儲帳戶信息;路徑:<路徑>,解析uri:“< uri >”

CF_UNABLE_TO_LIST_EFFICIENTLY

收到一個目錄路徑<路徑>重命名事件,但我們無法有效地列出該目錄。為了使流繼續,“cloudFiles設置選項。ignoreDirRenames”真的,考慮啟用經常與cloudFiles回填。backfillInterval處理這些數據。

CF_UNKNOWN_OPTION_KEYS_ERROR

發現未知的選擇鍵:

< optionList >

請確保所有提供選項鍵是正確的。如果你想跳過

驗證你的選項和忽視這些未知的選項,您可以設置:

選項(“cloudFiles \ < validateOptions >”。,“假”)

CF_UNKNOWN_READ_LIMIT

未知ReadLimit: < ReadLimit >

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

模式推理不支持格式:<格式>。請指定模式。

CF_UNSUPPORTED_LOG_VERSION

UnsupportedLogVersion:最大支持日誌版本是v < maxVersion >,但遇到v <版本>。日誌文件是由DBR的新版本,這個版本不能讀。請升級。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

模式演化模式> <模式不支持格式:<格式>。

CF_USE_DELTA_FORMAT

如果你想從三角洲消耗數據,

請使用“格式(“δ”)”而不是“格式(“cloudFiles”)”。

流源從三角洲已經優化

增加消費的數據。

地理空間

GEOJSON_PARSE_ERROR

在位置錯誤解析GeoJSON: < parseError > < pos >

H3_INVALID_CELL_ID

< h3Cell >不是一個有效的H3細胞ID

H3_INVALID_GRID_DISTANCE_VALUE

H3網格距離< k >必須是非負數

H3_INVALID_RESOLUTION_VALUE

H3分辨率< r >必須< minR >和< maxR >之間的包容性

H3_NOT_ENABLED

< h3Expression >是禁用或不受支持的。考慮啟用光子或切換到一個層,支持H3表達式

H3_PENTAGON_ENCOUNTERED_ERROR

五角大樓時遇到計算< h3Cell >的六角環網格距離< k >

H3_UNDEFINED_GRID_DISTANCE

H3網格距離< h3Cell1 >和< h3Cell2 >是未定義的

WKB_PARSE_ERROR

在位置錯誤解析WKB: < parseError > < pos >

WKT_PARSE_ERROR

在位置錯誤解析WKT: < parseError > < pos >