Azure Databricks 中的错误类
适用于 Databricks SQL、Databricks Runtime 12.2 及更高版本
错误类是错误条件特有的描述性、可读性字符串。
可以使用错误类以编程方式处理应用程序中的错误,而无需分析错误消息。
这是 Azure Databricks 返回的常见命名错误条件的列表。
Databricks Runtime 和 Databricks SQL
ADD_DEFAULT_UNSUPPORTED
无法执行 <statementType>
命令,因为在使用表提供程序“DEFAULT
”向以前存在的目标数据源添加新列时不支持 <dataSource>
值。
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
非确定性表达式 <sqlExpr>
不应出现在聚合函数的参数中。
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
强制转换为指定的 returnType:“<dataType>
”时未能解析模型输出,响应 JSON 为:“<responseString>
”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
实际模型输出具有多个列“<responseString>
”。 但是,指定的返回类型[“<dataType>
”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。
AI_FUNCTION_HTTP_REQUEST_ERROR
对函数 <funcName>
发出 HTTP 请求时出错:<errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
函数 <funcName>
的 HTTP 响应无效:<errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
最大字词数必须是非负整数,但获得 <maxWords>
。
AI_FUNCTION_INVALID_MODEL_PARAMETERS
提供的模型参数 (<modelParameters>
) 在提供端点“AI_QUERY
”的 <endpointName>
函数中无效。
有关更多详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT
AI 函数:“<functionName>
”需要 responseFormat
参数的有效 JSON 字符串,但找到以下响应格式:“<invalidResponseFormat>
”。
AI_FUNCTION_JSON_PARSE_ERROR
分析函数 <funcName>
的 JSON 响应时出错:<errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
未能分析服务终结点“<endpointName>
”的架构:<errorMessage>
,响应 JSON 为:“<responseJson>
”。
在 returnType
函数中手动设置 AI_QUERY
参数以替代架构解析。
AI_FUNCTION_UNSUPPORTED_ERROR
函数 <funcName>
在当前环境中不受支持。 它仅在 Databricks SQL Pro 和无服务器版本中可用。
AI_FUNCTION_UNSUPPORTED_REQUEST
无法评估 SQL 函数“<functionName>
”,因为提供的 <invalidValue>
参数具有“<invalidDataType>
”,但仅支持以下类型:<supportedDataTypes>
。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI 函数:“<functionName>
”不支持以下响应格式的“<invalidResponseFormatType>
”类型:“<invalidResponseFormat>
”。 支持的响应格式类型为:<supportedResponseFormatTypes>
。
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI 函数:“<functionName>
”不支持将以下类型作为返回类型:“<typeName>
”。 返回类型必须是 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
参数“<argName>
”不支持提供的值“<argValue>
”。 支持的值为:<supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
对于结构化输出支持,预期服务终结点任务类型为“聊天”,但发现终结点“<endpointName>
”为“<taskType>
”。
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
参数 returnType 不支持提供的“<sqlExpr>
”。
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
为 vector_search
SQL 函数检测到的冲突参数:<conflictParamNames>
,请从以下项指定一个参数:<parameterNames>
。
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
不支持包含嵌入列类型 <embeddingColumnType>
的 vector_search
SQL 函数。
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search
SQL 函数缺少查询输入参数,请从以下项指定一个参数:<parameterNames>
。
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
不支持包含索引类型 <indexType>
的 vector_search
SQL 函数。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
在请求编码期间,未能将 vector_search
SQL 函数查询从 spark 类型 <dataType>
具体化到 scala-native 对象,并出现错误:<errorMessage>
。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
不支持 num_results 大于 vector_search
的 <maxLimit>
SQL 函数。 指定的限制为 <requestedLimit>
。 请使用 num_results <= <maxLimit>
重试
ALL_PARAMETERS_MUST_BE_NAMED
使用名称参数化查询时需要命名所有参数。 参数缺少名称 <exprs>
。
ALL_PARTITION_COLUMNS_NOT_ALLOWED
无法将所有列用于分区列。
ALTER_SCHEDULE_DOES_NOT_EXIST
在没有现有计划或触发器的情况下无法更改表上的 <scheduleType>
。 在尝试更改计划或触发器之前,请向表添加计划或触发器。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
嵌套 CTE 中的名称 <name>
不明确。
请将 <config>
设置为“CORRECTED
”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY
”,则外部 CTE 定义将优先。
请参阅 https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine。
AMBIGUOUS_COLUMN_OR_FIELD
列或字段 <name>
不明确且具有 <n>
个匹配项。
AMBIGUOUS_COLUMN_REFERENCE
列 <name>
不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。
此列指向其中一个 DataFrame,但 Spark 无法确定是指向哪一个。
请在联接 DataFrame 之前,通过 DataFrame.alias
将 DataFrame 命名为不同的别名,
然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)指定该列。
AMBIGUOUS_CONSTRAINT
对约束 <constraint>
的引用不明确。
AMBIGUOUS_LATERAL_COLUMN_ALIAS
横向列别名 <name>
不明确且具有 <n>
个匹配项。
AMBIGUOUS_REFERENCE
引用 <name>
不明确,可能是:<referenceNames>
。
AMBIGUOUS_REFERENCE_TO_FIELDS
对字段 <field>
的引用不明确。 它在架构中出现了 <count>
次。
AMBIGUOUS_RESOLVER_EXTENSION
单传递分析器无法处理此查询或命令,因为 <operator>
的扩展选择不明确:<extensions>
。
请联系 Databricks 支持人员。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
不支持 ANALYZE CONSTRAINTS
。
ANSI_CONFIG_CANNOT_BE_DISABLED
无法在此产品中禁用 ANSI SQL 配置 <config>
。
AQE_THREAD_INTERRUPTED
AQE 线程中断,可能是由于用户取消查询。
ARGUMENT_NOT_CONSTANT
函数 <functionName>
在需要常量参数的位置 <pos>
处包含参数 <parameterName>
。 请单独计算参数 <sqlExpr>
,并以常量形式传递结果。
ARITHMETIC_OVERFLOW
<message>
。<alternative>
如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
分配或别名的列数或变量数:<numTarget>
与源表达式的数目:<numExpr>
不匹配。
AS_OF_JOIN
截止联接无效。
有关更多详细信息,请参阅 AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
如果启用 rescuedDataColumn
,则不支持使用默认值。 可以将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
设置为 false 来删除此检查,但仍然不会使用默认值,而是使用 null 值。
AVRO_INCOMPATIBLE_READ_TYPE
无法将 Avro <avroPath>
转换为 SQL <sqlPath>
,因为原始编码的数据类型为 <avroType>
,但是你尝试将字段读取为 <sqlType>
,这会导致错误的答案。
若要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
如果启用 rescuedDataColumn
或 failOnUnknownFields
,则不支持使用位置字段匹配。 可以删除这些选项继续操作。
BATCH_METADATA_NOT_FOUND
无法找到批处理 <batchMetadataFile>
。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2>
导致溢出。 使用 <functionName>
忽略溢出问题并返回 NULL
。
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
布尔语句 <invalidStatement>
无效。 需要值类型为 BOOLEAN
的单个行,但得到空行。
BUILT_IN_CATALOG
<operation>
不支持内置目录。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
无法对流式处理数据集/数据帧调用 <methodName>
方法。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
无法更改存储桶列的类型/子类型的排序规则,但在表 <columnName>
中找到了存储桶列 <tableName>
。
CANNOT_ALTER_PARTITION_COLUMN
不支持对分区列使用 ALTER TABLE (ALTER|CHANGE) COLUMN
,但却在表 <columnName>
中发现分区列 <tableName>
。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
需要定义水印,才能重新分配事件时间列。 未能在流式处理查询中找到水印定义。
CANNOT_CAST_DATATYPE
无法将 <sourceType>
强制转换为 <targetType>
。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
无法将 Protobuf <protobufColumn>
转换为 SQL <sqlColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
无法将 Protobuf 的 <protobufType>
转换为 SQL 类型 <toType>
。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为 <data>
不在枚举 <enumString>
的定义值中。
CANNOT_COPY_STATE
无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。
CANNOT_CREATE_DATA_SOURCE_TABLE
未能创建数据源表 <tableName>
:
有关详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
无法解码提供的 URL:<url>
。 请确保 URL 格式正确,然后重试。
CANNOT_DELETE_SYSTEM_OWNED
无法删除系统拥有的 <resourceType>
。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
无法删除名称 <constraintName>
由 CHECK
约束共享的约束
和 PRIMARY KEY
或 FOREIGN KEY
约束。 可以删除 PRIMARY KEY
或
按查询划分的 FOREIGN KEY
约束:
ALTER TABLE
.. DROP PRIMARY KEY
或
ALTER TABLE
.. DROP FOREIGN KEY
..
CANNOT_ESTABLISH_CONNECTION
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细错误消息:<causeErrorMessage>
。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请允许从 Internet 到主机的入站流量,因为你使用的是无服务器计算。 如果你的网络策略不允许入站 Internet 流量,请使用非无服务器计算,或者可以联系 Databricks 代表了解无服务器专用网络。 ** 详细错误消息:<causeErrorMessage>
。
CANNOT_INVOKE_IN_TRANSFORMATIONS
数据集转换和操作只能由驱动程序调用,而不能在其他数据集转换内部调用;例如,dataset1.map(x => dataset2.values.count() * x) 无效,因为无法在 dataset1.map 转换内部执行值转换和计数操作。 有关详细信息,请参阅 SPARK
-28702。
CANNOT_LOAD_FUNCTION_CLASS
注册函数 <functionName>
时无法加载类 <className>
,请确保它位于类路径上。
CANNOT_LOAD_PROTOBUF_CLASS
无法加载名称为 <protobufClassName>
的 Protobuf 类。 <explanation>
。
CANNOT_LOAD_STATE_STORE
加载状态期间出错。
有关详细信息,请参阅 CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
无法合并不兼容的数据类型 <left>
和 <right>
。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请考虑在尝试合并之前将列强制转换为兼容的数据类型。
CANNOT_MERGE_SCHEMAS
架构合并失败:
初始架构:
<left>
无法与初始架构合并的架构:
<right>
。
CANNOT_MODIFY_CONFIG
无法修改 Spark 配置值:<key>
。
另请参阅 https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements。
CANNOT_PARSE_DECIMAL
无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。
CANNOT_PARSE_INTERVAL
无法分析 <intervalString>
。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。 如果问题仍然存在,请仔细检查输入值不为 null 或为空,然后重试。
CANNOT_PARSE_JSON_FIELD
无法将 JSON 标记类型 <jsonType>
的字段名称 <fieldName>
和值 <fieldValue>
分析为目标 Spark 数据类型 <dataType>
。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
将描述符字节解析为 Protobuf FileDescriptorSet 时出错。
CANNOT_PARSE_TIMESTAMP
<message>
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
初始化期间无法查询 MV/ST。
有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
无法读取路径 <path>
处的文件,因为该文件已存档。 请调整查询筛选器以排除已存档的文件。
CANNOT_READ_FILE
无法读取路径 <path>
处的 <format>
文件。
有关详细信息,请参阅 CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
无法从安全提供程序读取敏感密钥“<key>
”。
CANNOT_RECOGNIZE_HIVE_TYPE
无法识别 hive 类型字符串:<fieldType>
,列:<fieldName>
。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保你使用的是受支持的 Spark SQL 版本。
CANNOT_REFERENCE_UC_IN_HMS
无法在 Hive 元存储对象中引用 Unity Catalog <objType>
。
CANNOT_REMOVE_RESERVED_PROPERTY
无法移除预留属性:<property>
。
CANNOT_RENAME_ACROSS_CATALOG
不允许跨目录重命名 <type>
。
CANNOT_RENAME_ACROSS_SCHEMA
不允许跨架构重命名 <type>
。
CANNOT_RESOLVE_DATAFRAME_COLUMN
无法解析 DataFrame 列 <name>
。 这可能是因为非法引用,如 df1.select(df2.col("a"))
。
CANNOT_RESOLVE_STAR_EXPAND
无法解析 <targetString>
.* 给定的输入列 <columns>
。 请检查指定的表或结构是否存在并且可在输入列中访问。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
无法将创建的路径 <path>
上的权限设置回 <permission>
。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
无法跨 Unity Catalog 和 Hive 元存储浅度克隆表。
CANNOT_SHALLOW_CLONE_NESTED
无法对已经是浅度克隆的表 <table>
执行浅度克隆。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
只有 MANAGED
表类型支持浅度克隆。 表 <table>
不是 MANAGED
表。
CANNOT_UPDATE_FIELD
无法更新 <table>
字段 <fieldName>
类型:
有关详细信息,请参阅 CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
无法将 <expression>
从 <sourceType>
强制转换为 <targetType>
。
<details>
CANNOT_USE_KRYO
无法加载 Kryo 序列化编解码器。 无法在 Spark Connect 客户端中使用 Kryo 序列化。 使用 Java 序列化、提供自定义编解码器或使用 Spark 经典版。
CANNOT_VALIDATE_CONNECTION
不支持验证 <jdbcDialectName>
连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。
CANNOT_WRITE_STATE_STORE
为提供程序 <providerClass>
写入状态存储文件时出错。
有关详细信息,请参阅 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
类型 <sourceType>
的值 <expression>
无法强制转换为 <targetType>
,因为其格式错误。 根据语法更正值,或更改其目标类型。 使用 try_cast
来容许格式错误的输入并改为返回 NULL
。
有关更多详细信息,请参阅 CAST_INVALID_INPUT
CAST_OVERFLOW
由于溢出,类型 <sourceType>
的值 <value>
无法强制转换为 <targetType>
。 使用 try_cast
容许溢出,并返回 NULL
。
CAST_OVERFLOW_IN_TABLE_INSERT
由于溢出,无法将 <sourceType>
类型分配到 <targetType>
类型列或变量 <columnName>
。 对输入值使用 try_cast
以容许溢出并改为返回 NULL
。
CATALOG_NOT_FOUND
找不到目录 <catalogName>
。 请考虑将 SQL 配置 <config>
设置为目录插件。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到检查点块 <rddBlockId>
!
可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。
如果此问题仍然存在,可以考虑改用 rdd.checkpoint()
,这个检查点比本地检查点慢,但容错能力更高。
CIRCULAR_CLASS_REFERENCE
类中不能有循环引用,但获得了类 <t>
的循环引用。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
必须替代 <method1>
或 <method2>
。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
不支持将类 <cls>
作为生成的集合。
CLEANROOM_COMMANDS_NOT_SUPPORTED
不支持清洁室命令
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
引用清洁室内 <type>
的名称无效。 按照 [catalog].[schema].[<type>
] 的格式,在清洁室内使用 <type>
的名称。
如果不确定要使用的名称,则可以运行“SHOW ALL IN CLEANROOM
[clean_room]”,并使用“name”列中的值。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
已收到文件 <filePath>
的文件通知,但该文件不再存在。 请确保在处理文件之前该文件未被删除。 若要继续处理流,可以将 Spark SQL 配置 <config>
设置为 true。
CLOUD_PROVIDER_ERROR
云提供商错误:<message>
CLUSTERING_COLUMNS_MISMATCH
指定的聚类分析与现有表 <tableName>
的聚类分析不匹配。
指定的聚类分析列:[<specifiedClusteringString>
]。
现有聚类分析列:[<existingClusteringString>
]。
CLUSTERING_NOT_SUPPORTED
“<operation>
”不支持聚类分析。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
请联系 Databricks 代表来启用群集自动功能。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY
AUTO。
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY
AUTO 要求启用预测性优化。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
仅 UC 托管表支持 CLUSTER BY
AUTO。
CODEC_NOT_AVAILABLE
编解码器 <codecName>
不可用。
有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
找不到编解码器 <codecName>
的短名称。
COLLATION_INVALID_NAME
值 <collationName>
不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>
]。
COLLATION_INVALID_PROVIDER
值 <provider>
不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>
]。
COLLATION_MISMATCH
无法确定要用于字符串函数和运算符的排序规则。
有关更多详细信息,请参阅 COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
无法使用超过数组大小限制 <maxRoundedArrayLength>
的 <numberOfElements>
元素创建数组,
有关详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
<op>
中不允许使用列别名。
COLUMN_ALREADY_EXISTS
列 <columnName>
已存在。 选择其他名称或重命名现有列。
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
字段 <pos>
中的某些值与列数组类型不兼容。 预期的类型 <type>
。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
不支持使用列掩码策略对表 CHECK
创建 <tableName>
约束。
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
<statementType>
语句尝试将列掩码策略分配到某个列,而该列包含 USING COLUMNS
列表中的其他两个或更多个具有名称 <columnName>
的被引用列,这是无效操作。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的列掩码策略:
有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
无法从表 <tableName>
执行 <statementType> <columnName>
,因为它已在列 <maskedColumn>
的列掩码策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
操作不支持源表 <tableName>
中的列掩码策略。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作不支持写入具有列掩码策略的表 <tableName>
。
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
此语句尝试将列掩码策略分配到具有多个名称部分的列 <columnName>
,这是无效操作。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
此语句尝试将列掩码策略分配到某个列,而 USING COLUMNS
列表包含的名称 <columnName>
具有多个名称部分,这是无效操作。
COLUMN_MASKS_NOT_ENABLED
未启用对定义列掩码的支持
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
列掩码策略仅在 Unity Catalog 中受支持。
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
具有列掩码的 SHOW PARTITIONS
表不支持 <format>
命令。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
不支持使用列掩码策略从表 <tableName>
进行 <mode>
克隆。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用列掩码策略将 <mode>
克隆到表 <tableName>
。
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支持将常数用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。
COLUMN_MASKS_UNSUPPORTED_PROVIDER
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配列掩码策略。
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
无法对表 <tableName>
执行 <operation>
,因为表中包含一个或多个具有子查询表达式的列掩码策略,尚不支持此操作。 请联系表的所有者以更新列掩码策略,以便继续操作。
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
列 <columnName>
与目标列同名,这是无效的;请从 USING COLUMNS
列表中删除该列,然后重试命令。
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
列 <colName>
未在表 <tableName>
中定义,定义的表列为:<tableCols>
。
COLUMN_NOT_FOUND
找不到列 <colName>
。 根据 SQL 配置 <caseSensitiveConfig>
验证列名的拼写和正确性。
COLUMN_ORDINAL_OUT_OF_BOUNDS
列序号超出边界。 表中的列数为 <attributesLength>
,但列序号为 <ordinal>
。
属性如下:<attributes>
。
COMMA_PRECEDING_CONSTRAINT_ERROR
约束定义前出现意外的“,”。 确保未定义列(和预期)时,约束子句不以逗号开头。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
命令 COMMENT ON CONNECTION
尚未实现
COMPARATOR_RETURNS_NULL
对于 NULL
和 <firstValue>
之间的比较,比较器返回了 <secondValue>
。
它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。
若要恢复已弃用的行为,即,将 NULL
视为 0(使用“等于”运算符),必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
无法处理表达式的输入数据类型:<expression>
。
有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
此查询的另一个实例 [id:<queryId>
] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>
,新 runId:<newQueryRunId>
]。
CONCURRENT_STREAM_LOG_UPDATE
并发更新日志。 检测到多个流式处理作业的 <batchId>
。
请确保一次只有一个流式处理作业在特定检查点位置运行。
CONFIG_NOT_AVAILABLE
配置 <config>
不可用。
CONFLICTING_DIRECTORY_STRUCTURES
检测到冲突的目录结构。
可疑路径:
<discoveredBasePaths>
如果提供的路径是分区目录,请在数据源的选项中设置“basePath”,以指定表的根目录。
如果有多个根目录,请单独加载它们,然后将它们联合起来。
CONFLICTING_PARTITION_COLUMN_NAMES
检测到的分区列名称冲突:
<distinctPartColLists>
对于已分区表目录,数据文件应仅位于叶目录中。
同一级别的目录应具有相同的分区列名称。
请检查以下目录是否有意外文件或不一致的分区列名称:
<suspiciousPaths>
CONFLICTING_PROVIDER
指定的提供程序 <provider>
与现有目录提供程序 <expectedProvider>
不一致。 请使用“USING <expectedProvider>
”,然后重试该命令。
CONNECT
泛型 Spark 连接错误。
有关详细信息,请参阅 CONNECT
CONNECTION_ALREADY_EXISTS
连接无法创建连接 <connectionName>
,因为它已存在。
选择其他名称、删除或替换现有连接,或者添加 IF NOT EXISTS
子句以容许现有的连接。
CONNECTION_NAME_CANNOT_BE_EMPTY
无法执行此命令,因为连接名称必须非空。
CONNECTION_NOT_FOUND
无法执行此命令,因为找不到连接名称 <connectionName>
。
CONNECTION_OPTION_NOT_SUPPORTED
“<connectionType>
”类型的连接不支持以下选项:<optionsNotSupported>
。 支持的选项:<allowedOptions>
。
CONNECTION_TYPE_NOT_SUPPORTED
无法创建“<connectionType>
”类型的连接。 支持的连接类型:<allowedTypes>
。
CONSTRAINTS_REQUIRE_UNITY_CATALOG
表约束仅在 Unity Catalog 中受支持。
CONVERSION_INVALID_INPUT
无法将值 <str> (<fmt>
转换为 <targetType>
,因为它的格式错误。 请根据语法更正值,或更改其格式。 使用 <suggestion>
来容许格式错误的输入并改为返回 NULL
。
COPY_INTO_COLUMN_ARITY_MISMATCH
无法写入 <tableName>
,原因是
有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
方案 <scheme>
无效。 COPY INTO
源凭证目前仅支持 s3/s3n/s3a/wasbs/abfss。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO
源凭证必须指定 <keyList>
。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
复制的文件在并发 COPY INTO
操作中提交。 请稍后再试。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
方案 <scheme>
无效。 COPY INTO
源加密目前仅支持 s3/s3n/s3a/abfss。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO
加密仅支持 ADLS Gen2 或 abfss:// 文件方案
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO
源加密必须指定“<key>
”。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
无效加密选项 <requiredKey>
。 COPY INTO
源加密必须指定“<requiredKey>
”=“<keyValue>
”。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO
功能“<feature>
”与“<incompatibleSetting>
”不兼容。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
除了追加数据外,COPY INTO
不能与其他事务同时运行。 请稍后再试。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
无法加载其状态,超过最大重试次数。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
复制到 Delta 表(表:<table>
)时检测到架构不匹配。
这可能表示传入数据存在问题,或者 Delta 表架构通过以下设置根据传入数据进行了自动演变:
COPY_OPTIONS
('mergeSchema' = 'true')
架构差异:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET
、TEXT 或 BINARYFILE
中的一种。 不支持在 Delta 表上使用 COPY INTO
作为源,因为在进行 OPTIMIZE
操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false
来关闭此检查。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
源目录不包含 <format>
类型的任何可分析文件。 请检查“<source>
”的内容。
通过将“<config>
”设置为“false”,可以将错误静音。
COPY_INTO_STATE_INTERNAL_ERROR
处理 COPY INTO
状态时出现内部错误。
有关详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
未能分析 COPY INTO
命令。
有关详细信息,请参阅 COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
不支持 COPY INTO
功能“<feature>
”。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
无法卸载格式为“<formatType>
”的数据。 <connectionType>
的受支持格式包括:<allowedFormats>
。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
命令 CREATE FOREIGN SCHEMA
尚未实现
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
命令 CREATE FOREIGN TABLE
尚未实现
CREATE_OR_REFRESH_MV_ST_ASYNC
无法 CREATE
或 REFRESH
指定了 ASYNC
的具体化视图或流式处理表。 请从 ASYNC
或 CREATE
语句中删除 REFRESH
,或使用 REFRESH ASYNC
异步刷新现有具体化视图或流式处理表。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
不允许在未显式分配表达式 <attr>
的别名的情况下创建永久视图 <name>
。
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
无法创建视图 <viewName>
,原因为
有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
创建或更新外部位置时请提供凭据。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
使用 rescuedDataColumn
或 failOnUnknownFields
时,无法设置 CSV 选项 enforceSchema
,因为列是按名称读取的,而不是序号。
CYCLIC_FUNCTION_REFERENCE
检测到循环函数引用:<path>
。
DATABRICKS_DELTA_NOT_ENABLED
未在帐户中启用 Databricks Delta。<hints>
DATATYPE_MISMATCH
由于数据类型不匹配,无法进行解析 <sqlExpr>
:
有关更多详细信息,请参阅 DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
需要长度参数,例如 <type>
(10)。 请指定长度。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
写入世系失败:缺少与 CLM/RLS 策略对应的关系。
DATA_SOURCE_ALREADY_EXISTS
数据源“<provider>
”已存在。 请为新数据源选择其他名称。
DATA_SOURCE_EXTERNAL_ERROR
保存到外部数据源时遇到错误。
DATA_SOURCE_NOT_EXIST
找不到数据源“<provider>
”。 请确保已注册该数据源。
DATA_SOURCE_NOT_FOUND
未能找到数据源:<provider>
。 请确保提供程序名称正确,并且包已正确注册且与 Spark 版本兼容。
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
选项 <option>
不能为空,且不应包含无效字符、查询字符串或参数。
DATA_SOURCE_OPTION_IS_REQUIRED
选项 <option>
是必需的。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或要创建表,请避免指定该架构。
数据源架构:<dsSchema>
预期架构:<expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
DATETIME_OVERFLOW
日期/时间操作溢出:<operation>
。
DC_API_QUOTA_EXCEEDED
已超出数据源 <sourceName>
的 API 配额。
有关详细信息,请参阅 DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
未能连接到 <sourceName>
源。 错误代码:<errorCode>
。
有关更多详情,请参阅 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE:未分配
架构更改发生在 <sourceName>
源的表 <tableName>
中。
有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
若要重试,可以重新运行整个管道或刷新此特定的目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>
。 作业状态:<jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<apiType>
。 错误代码:<errorCode>
。
有时,在达到 <sourceName>
API 限制时,可能会发生这种情况。 如果你未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。
DC_UNSUPPORTED_ERROR
数据源 <sourceName>
中出现“不受支持”错误。
有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 调用发生错误,errorCode:<errorCode>
。
有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
小数精度 <precision>
超过最大精度 <maxPrecision>
。
DEFAULT_DATABASE_NOT_EXISTS
默认数据库 <defaultDatabase>
不存在,请先创建该数据库,或将默认数据库更改为 <defaultDatabase>
。
DEFAULT_FILE_NOT_FOUND
可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时,或者基础文件已删除,可以通过重启群集手动使磁盘缓存失效。
DEFAULT_PLACEMENT_INVALID
无法将 DEFAULT
、MERGE
、INSERT
或 UPDATE
命令中的 SET VARIABLE
关键字直接分配给目标列,因为它是表达式的一部分。
例如,允许 UPDATE
SET c1 = DEFAULT
,但不允许 UPDATE T
SET c1 = ``DEFAULT`` + 1
。
DEFAULT_UNSUPPORTED
无法执行 <statementType>
命令,因为不支持使用表提供程序“DEFAULT
”为目标数据源分配 <dataSource>
值。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
流式处理查询从意外的 Delta 表(id =“<newTableId>
”)中读取。
它用于根据检查点从另一个 Delta 表(id =“<oldTableId>
”)中读取。
当更改代码以从新表读取,或删除并重新创建表时,
可能会发生此错误。 请还原更改或删除流式处理查询检查点
以从头开始。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
不支持不同的窗口函数:<windowExpr>
。
DIVIDE_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。 如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
预期仅在增量实时表管道中受支持。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
具有 MATERIALIZED
子句的 CLUSTER BY
视图仅在增量实时表管道中受支持。
DLT_VIEW_LOCATION_NOT_SUPPORTED
<mv>
位置仅在增量实时表管道中受支持。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
具有指定类型的 <mv>
架构仅在增量实时表管道中受支持。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
视图中的 CONSTRAINT
子句仅在增量实时表管道中受支持。
DROP_SCHEDULE_DOES_NOT_EXIST
在没有现有计划或触发器的情况下无法删除表上的 SCHEDULE
。
DUPLICATED_CTE_NAMES
CTE 定义不能有重复的名称:<duplicateNames>
。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
箭头结构中不允许出现重复的字段名称,已得到 <fieldNames>
。
DUPLICATED_MAP_KEY
找到重复的映射键 <key>
,请检查输入数据。
如果你要删除重复的键,可以将 <mapKeyDedupPolicy>
设置为“LAST_WIN
”,使最后插入的键优先。
DUPLICATED_METRICS_NAME
指标名称不唯一:<metricName>
。 同一名称不能用于具有不同结果的指标。
但是,允许具有相同结果和名称的多个指标实例(例如自联接)。
DUPLICATE_ASSIGNMENTS
列或变量 <nameList>
作为赋值目标出现多次。
DUPLICATE_CLAUSES
发现重复子句:<clauseName>
。 请删除其中的一个。
DUPLICATE_KEY
发现重复键 <keyColumn>
。
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
对例程 <routineName>
的调用无效,因为它包含对同一参数名称 <parameterName>
的多个参数赋值。
有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
在用户定义的例程 <routineName>
的参数列表中发现重复的名称:<names>
。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
在用户定义的例程 RETURNS
的 <routineName>
子句列列表中发现重复的列:<columns>
。
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
上一个节点发出了 eventTime=<emittedRowEventTime>
早于 current_watermark_value=<currentWatermark>
的行
这可能会导致执行管道下游有状态运算符出现正确性问题。
请更正运算符逻辑,以在当前全局水印值之后发出行。
EMPTY_JSON_FIELD_VALUE
无法分析数据类型 <dataType>
的空字符串。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中包含空本地文件
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
<format>
数据源不支持编写空架构或嵌套的空架构。 请确保数据架构至少有一列或多列。
ENCODER_NOT_FOUND
找不到 Spark SQL 内部表示形式的 <typeName>
类型编码器。
考虑将输入类型更改为“<docroot>
/sql-ref-datatypes.html”支持的其中一个类型。
END_LABEL_WITHOUT_BEGIN_LABEL
没有开始标签情况下结束标签 <endLabel>
无法存在。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
最新偏移量:<latestOffset>
,结束偏移量:<endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
预提取的偏移量:<prefetchedOffset>
,结束偏移量:<endOffset>
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
读取 avro 数据时出错 - 遇到未知指纹: <fingerprint>
,不确定要使用的架构。
如果在启动 Spark 上下文后注册了其他架构,则可能会发生这种情况。
EVENT_LOG_REQUIRES_SHARED_COMPUTE
无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。
EVENT_LOG_UNAVAILABLE
没有任何适用于 <tableOrPipeline>
的事件日志。 请稍后在生成事件后重试
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier>
的表类型为 <tableType>
。
查询事件日志仅支持具体化视图、流式处理表或增量实时表管道
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
事件时间 <eventName>
的 <eventType>
类型无效,应为“TIMESTAMP
”。
EXCEED_LIMIT_LENGTH
超过 char/varchar 类型长度限制:<limit>
。
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
列 <columnName>
已解析,本应该为 StructType,但发现类型为 <dataType>
。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT
列表中的列必须非重复且不重叠,但出现了 (<columns>
)。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT
列 [<exceptColumns>
] 已解析,但不与星形扩展中的任何 [<expandedColumns>
] 列匹配。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
无法解析 <objectName>
子句中的列/字段名称 EXCEPT
。 你是否指的是下列其中一项:[<objectList>
]?
注意:在结构扩展期间,EXCEPT
子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。
EXECUTOR_BROADCAST_JOIN_OOM
内存不足,无法生成广播关系 <relationClassName>
。 关系大小 = <relationSize>
. 此任务使用的内存总量 = <taskMemoryUsage>
。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。
EXECUTOR_BROADCAST_JOIN_STORE_OOM
内存不足,无法存储广播关系 <relationClassName>
。 关系大小 = <relationSize>
. StorageLevel = <storageLevel>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
此 USING
命令的 EXECUTE IMMEDIATE
子句包含多个具有相同别名 (<aliases>
) 的参数,这是无效的;请更新命令以指定唯一的别名,然后重试。
EXPECT_PERMANENT_VIEW_NOT_TEMP
“<operation>
”需要永久视图,但 <viewName>
是临时视图。
EXPECT_TABLE_NOT_VIEW
应该为“<operation>
”提供表,但 <viewName>
是视图。
有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
表 <tableName>
不支持 <operation>
。
有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
无法将行解码为表达式的值:<expressions>
。
EXPRESSION_ENCODING_FAILED
无法将表达式的值 <expressions>
解码为行。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
列表达式 <expr>
无法排序,因为其类型 <exprType>
不可排序。
EXTERNAL_TABLE_INVALID_SCHEME
外部表不支持 <scheme>
方案。
FABRIC_REFRESH_INVALID_SCOPE
运行“REFRESH FOREIGN <scope> <name>
”时出错。 无法直接刷新 Fabric <scope>
,请改用“REFRESH FOREIGN CATALOG <catalogName>
”刷新 Fabric Catalog。
FAILED_EXECUTE_UDF
由于 <reason>
,用户定义函数 (<functionName>
: (<signature>
) =><result>
) 失败。
FAILED_FUNCTION_CALL
为调用准备函数 <funcName>
失败。 请仔细检查函数的参数。
FAILED_JDBC
操作上的 JDBC <url>
失败:
有关详细信息,请参阅 FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
解析结构 <raw>
失败。
FAILED_READ_FILE
读取文件 <path>
时出错。
有关更多详细信息,请参阅 FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
无法向 Kryo 注册课程。
FAILED_RENAME_PATH
无法将 <sourcePath>
重命名为 <targetPath>
,因为目标已存在。
FAILED_RENAME_TEMP_FILE
无法将临时文件 <srcPath>
重命名为<dstPath>
,因为 FileSystem.rename 返回 false。
FAILED_ROW_TO_JSON
未能将类 <class>
的行值 <value>
转换为 JSON 格式的目标 SQL 类型 <sqlType>
。
FAILED_TO_LOAD_ROUTINE
无法加载例程 <routineName>
。
FAILED_TO_PARSE_TOO_COMPLEX
该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。
若要缓解此错误,可将语句划分为多个不太复杂的区块。
FEATURE_NOT_ENABLED
功能 <featureName>
未启用。 请考虑将配置 <configKey>
设置为 <configValue>
以启用此功能。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。
FEATURE_REQUIRES_UC
<feature>
在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。
FEATURE_UNAVAILABLE
<feature>
在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。
FIELD_ALREADY_EXISTS
无法 <op>
列,因为 <fieldNames>
已在 <struct>
中存在。
FIELD_NOT_FOUND
<fields>
中没有此类结构字段 <fieldName>
。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
暂存路径 <path>
中的文件已存在,但未设置 OVERWRITE
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
用户在 flatMapGroupsWithState 中提供的函数出错。 原因:<reason>
FORBIDDEN_OPERATION
不允许对 <objectType>
执行 <statement>
操作:<objectName>
。
FOREACH_BATCH_USER_FUNCTION_ERROR
用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>
FOREACH_USER_FUNCTION_ERROR
用户在 foreach 接收器中提供的函数中发生错误。 原因:<reason>
FOREIGN_KEY_MISMATCH
外键父列 <parentColumns>
与主键子列 <childColumns>
不匹配。
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
无法执行此命令,因为外部 <objectType>
名称必须非空。
FOUND_MULTIPLE_DATA_SOURCES
检测到名称为“<provider>
”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json 推理在以下位置遇到冲突的架构更新:<location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord
选项“columnNameOfCorruptRecord”。
FROM_JSON_CORRUPT_SCHEMA
from_json 推理无法读取存储在以下位置的架构:<location>
FROM_JSON_INFERENCE_FAILED
from_json 无法推断架构。 请改为提供一个架构。
FROM_JSON_INFERENCE_NOT_SUPPORTED
仅当定义流式处理表时,才支持 from_json 推理
FROM_JSON_INVALID_CONFIGURATION
from_json 配置无效:
有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json 无法从 <old>
发展为 <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
函数 <function>
需要命名参数。 参数缺少名称 <exprs>
。 请更新函数调用以添加所有参数的名称,例如 <function>
(param_name => …)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
列不能同时具有默认值和生成表达式,但列 <colName>
具有默认值 (<defaultValue>
) 和生成表达式 (<genExpr>
)。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。
GET_WARMUP_TRACING_FAILED
未能获取预热跟踪。 原因:<cause>
。
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
不允许使用函数 get_warmup_tracing()。
GRAPHITE_SINK_INVALID_PROTOCOL
无效的 Graphite 协议:<protocol>
。
GRAPHITE_SINK_PROPERTY_MISSING
Graphite 接收器需要“<property>
”属性。
GROUPING_COLUMN_MISMATCH
在分组列 <groupingColumns>
中找不到分组 (<grouping>
) 的列。
GROUPING_ID_COLUMN_MISMATCH
grouping_id (<groupingIdColumn>
) 的列与分组列 (<groupByColumns>
) 不匹配。
GROUPING_SIZE_LIMIT_EXCEEDED
分组集大小不能大于 <maxSize>
。
GROUP_BY_AGGREGATE
GROUP BY
中不允许使用聚合函数,但找到了 <sqlExpr>
。
有关更多详细信息,请参阅 GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
引用了包含聚合函数的表达式 <aggExpr>
。 GROUP BY
中不允许使用聚合函数。
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
表达式 <sqlExpr>
无法用作分组表达式,因为其数据类型 <dataType>
不是可排序的数据类型。
HDFS_HTTP_ERROR
尝试从 HDFS 读取时,HTTP 请求失败。
有关更多详细信息,请参阅 HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
对 <function>
的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如 hll_sketch_agg
函数生成的缓冲区)。
HLL_INVALID_LG_K
对 <function>
的调用无效;lgConfigK
值必须介于 <min>
和 <max>
之间,包括:<value>
。
HLL_UNION_DIFFERENT_LG_K
草图具有不同的 lgConfigK
值:<left>
和 <right>
。 将 allowDifferentLgConfigK
参数设置为 true 以使用不同的 lgConfigK
值调用 <function>
。
HYBRID_ANALYZER_EXCEPTION
尝试使用旧的固定点分析器和单传递解析程序解析查询或命令时出现失败。
有关更多详细信息,请参阅 HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
不是有效的标识符,因为它的名称部分超过 2 个。
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
重复的 IDENTITY
列序列生成器选项:<sequenceGeneratorOption>
。
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
列步长不能为 0。
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
<dataType>
列不支持 DataType IDENTITY
。
ILLEGAL_DAY_OF_WEEK
非法输入一周中的某天:<string>
。
ILLEGAL_STATE_STORE_VALUE
提供给状态存储的非法值
有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
由于为连接选项“<option>
”提供的 URI <uri>
架构不当,无法创建连接。
允许的架构:<allowedSchemes>
。
如果架构不存在于 URI 中,请添加架构,或从允许的值指定架构。
INCOMPARABLE_PIVOT_COLUMN
无效透视列 <columnName>
。 透视列必须可比较。
INCOMPATIBLE_COLUMN_TYPE
只能对具有兼容列类型的表执行 <operator>
。 <tableOrdinalNumber>
表的 <columnOrdinalNumber>
列是 <dataType1>
类型,与第一个表同一列的 <dataType2>
不兼容。<hint>
。
INCOMPATIBLE_DATASOURCE_REGISTER
检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:<message>
INCOMPATIBLE_DATA_FOR_TABLE
无法为表 <tableName>
写入不兼容的数据:
有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
联接类型 <joinType1>
和 <joinType2>
不兼容。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
视图 <viewName>
的 SQL 查询包含不兼容的架构更改,无法解析列 <colName>
。 需要名为 <colName>
的 <expectedNum>
列,但收到的列为 <actualCols>
。
请尝试通过运行 <suggestion>
重新创建视图。
INCOMPLETE_TYPE_DEFINITION
不完整的复杂类型:
有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
由于升级到,可能会得到其他结果
有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
,<functionName>
至少需要 <minArgs>
个参数,最多需要 <maxArgs>
个参数。
INCORRECT_RAMP_UP_RATE
<rowsPerSecond>
rowsPerSecond 的最大偏移量为 <maxSeconds>
,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>
。
INDETERMINATE_COLLATION
调用的函数需要知道它应该应用的排序规则,但找到了不确定的排序规则。 使用 COLLATE
函数显式设置排序规则。
INDEX_ALREADY_EXISTS
无法在表 <tableName>
上创建索引 <indexName>
,因为它已存在。
INDEX_NOT_FOUND
在表 <tableName>
上找不到索引 <indexName>
。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
此群集类型不支持触发器类型 <trigger>
。
使用不同的触发器类型,例如 AvailableNow、Once。
INSERT_COLUMN_ARITY_MISMATCH
无法写入 <tableName>
,原因是
有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
无法中写入“<tableName>
”,<reason>
:
表列:<tableColumns>
。
使用静态值对列进行分区:<staticPartCols>
。
数据列:<dataColumns>
。
INSUFFICIENT_PERMISSIONS
权限不足:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
用户 <user>
对外部位置 <location>
的特权不足。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>
没有所有者。 要求管理员设置所有者。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
用户不拥有 <securableName>
。
INSUFFICIENT_PERMISSIONS_SECURABLE
用户对 <securableName>
没有 <action>
权限。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName>
的所有者不同于 <parentSecurableName>
的所有者。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
存储凭据 <credentialName>
的特权不足。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
由于对基础安全对象的权限,用户无法对 <securableName>
执行 <action>
。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
由于对基础安全对象的权限,用户无法对 <securableName>
执行 <action>
:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
使用间隔操作时的整数溢出。
有关更多详细信息,请参阅 INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。
INVALID_AGGREGATE_FILTER
聚合函数中的 FILTER
表达式 <filterExpr>
无效。
有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
索引 <indexValue>
超出界限。 数组具有 <arraySize>
个元素。 使用 SQL 函数 get()
容许访问无效索引上的元素,并改为返回 NULL
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
索引 <indexValue>
超出界限。 数组具有 <arraySize>
个元素。 使用 try_element_at
容许访问无效索引上的元素,并返回 NULL
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ATTRIBUTE_NAME_SYNTAX
属性名称中的语法错误:<name>
。 检查反引号是否成对显示,带引号的字符串是一个完整的名称部分,并且仅在带引号的名称部分内使用反引号。
INVALID_BITMAP_POSITION
索引为 0 的位图位置 <bitPosition>
超出边界。 位图具有 <bitmapNumBits>
位(<bitmapNumBytes>
字节)。
INVALID_BOOLEAN_STATEMENT
期望条件中有布尔语句,但 <invalidStatement>
已找到。
INVALID_BOUNDARY
边界 <boundary>
无效:<invalidValue>
。
有关更多详细信息,请参阅 INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
不能对存储桶列使用 <type>
。 存储桶不支持排序规则数据类型。
INVALID_BUCKET_FILE
无效的桶文件:<path>
。
INVALID_BYTE_STRING
预期的格式为 ByteString,但实际为 <unsupported> (<class>
)。
INVALID_COLUMN_NAME_AS_PATH
数据源 <datasource>
无法保存列 <columnName>
,因为它的名称包含文件路径中不允许的某些字符。 请使用别名将其重命名。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
列或字段 <name>
的类型是 <type>
,但必须是 <expectedType>
。
INVALID_CONF_VALUE
配置“<confName>
”中的值“<confValue>
”无效。
有关更多详细信息,请参阅 INVALID_CONF_VALUE
INVALID_CORRUPT_RECORD_TYPE
损坏记录的列 <columnName>
必须具有可为 STRING
null 的类型,但获得了 <actualType>
。
INVALID_CURRENT_RECIPIENT_USAGE
要在 Unity Catalog 中定义仅共享视图,current_recipient
函数只能在 CREATE VIEW
语句或 ALTER VIEW
语句中使用。
INVALID_CURSOR
游标无效。
有关更多详细信息,请参阅 INVALID_CURSOR
INVALID_DATETIME_PATTERN
无法识别的日期/时间模式:<pattern>
。
有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
无法执行 <statement>
命令,因为目标列或变量 <colName>
具有 DEFAULT
值 <defaultValue>
,
有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
分隔符的值无效。
有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
SYNC
命令的目标目录必须位于 Unity Catalog 中。 已找到 <catalog>
。
INVALID_DRIVER_MEMORY
系统内存 <systemMemory>
必须至少为 <minSystemMemory>
。
请在 Spark 配置中使用 -driver-memory 选项或“<config>
”增加堆大小。
INVALID_DYNAMIC_OPTIONS
对于外表 <table_name>,禁止传递 <option_list> 的选项。
INVALID_EMPTY_LOCATION
位置名称不能为空字符串,但已给出 <location>
。
INVALID_ESC
发现无效的转义字符串:<invalidEscape>
。 转义字符串只能包含一个字符。
INVALID_ESCAPE_CHAR
EscapeChar
应该是长度为 1 的字符串字面量,但收到了 <sqlExpr>
。
INVALID_EXECUTOR_MEMORY
执行程序内存 <executorMemory>
必须至少为 <minSystemMemory>
。
请在 Spark 配置中使用 -executor-memory 选项或“<config>
”增加执行程序内存。
INVALID_EXPRESSION_ENCODER
找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
INVALID_EXTERNAL_TYPE
外部类型 <externalType>
对表达式 <expr>
中的类型 <type>
无效。
INVALID_EXTRACT_BASE_FIELD_TYPE
无法从 <base>
中提取值。 需要复杂类型 [STRUCT
, ARRAY
, MAP
],但得到 <other>
。
INVALID_EXTRACT_FIELD
无法从 <expr>
中提取 <field>
。
INVALID_EXTRACT_FIELD_TYPE
字段名称应是非 null 字符串文本,但它是 <extraction>
。
INVALID_FIELD_NAME
字段名称 <fieldName>
无效:<path>
不是结构。
INVALID_FORMAT
格式无效:<format>
。
有关更多详细信息,请参阅 INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
秒的有效范围为 [0, 60](含首尾),但提供的值为 <secAndMicros>
。 若要避免此错误,请使用 try_make_timestamp
,将在发生错误时返回 NULL
。
如果不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntz
或 try_make_timestamp_ltz
。
INVALID_HANDLE
句柄 <handle>
无效。
有关更多详细信息,请参阅 INVALID_HANDLE
INVALID_HTTP_REQUEST_METHOD
输入参数:方法、值:<paramValue>
不是 http_request 的有效参数,因为它不是有效的 HTTP 方法。
INVALID_HTTP_REQUEST_PATH
输入参数:路径、值:<paramValue>
不是 http_request 的有效参数,因为不允许路径遍历。
INVALID_IDENTIFIER
未加引号的标识符 <ident>
无效,必须反引号为:<ident>
。
不带引号的标识符只能包含 ASCII
字母(“a”-“z”、“A”-“Z”)、数字(“0”-“9”)和下划线(“_”)。
未加引号的标识符也不得以数字开头。
不同的数据源和元存储可能会对有效标识符施加额外的限制。
INVALID_INDEX_OF_ZERO
索引 0 无效。 索引应 < 0 或 > 0(第一个元素的索引为 1)。
INVALID_INLINE_TABLE
无效的内联表。
有关更多详细信息,请参阅 INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
将“<input>
”分析为间隔时出错。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。
有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
无法将间隔添加到日期,因为它的微秒部分不是 0。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
INVALID_INVERSE_DISTRIBUTION_FUNCTION
反向分布函数 <funcName>
无效。
有关详细信息,请参阅 INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName>
不是 Java 的有效标识符,不能用作字段名称
<walkedTypePath>
。
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith 中的加入类型无效:<joinType>
。
INVALID_JSON_DATA_TYPE
无法将 JSON 字符串“<invalidType>
”转换为数据类型。 请输入有效的数据类型。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
排序规则只能应用于字符串类型,但 JSON 数据类型为 <jsonType>
。
INVALID_JSON_RECORD_TYPE
在推断模式 <failFastMode>
中的通用架构时检测到 JSON 记录的类型无效。 期望 STRUCT
类型,但找到 <invalidType>
。
INVALID_JSON_ROOT_FIELD
无法将 JSON 根字段转换为目标 Spark 类型。
INVALID_JSON_SCHEMA_MAP_TYPE
输入架构 <jsonSchema>
只能包含 STRING
作为 MAP
的键类型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
配置“<bufferSizeConfKey>
”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue>
MiB。
INVALID_LABEL_USAGE
标签 <labelName>
的使用无效。
有关更多详细信息,请参阅 INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
无效的 lambda 函数调用。
有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
不允许使用具有 <joinType>
关联的 LATERAL
JOIN,因为 OUTER
子查询无法与其连接伙伴相关联。 删除 LATERAL
关联,或者改用 INNER
JOIN 或 LEFT OUTER
JOIN。
INVALID_LIMIT_LIKE_EXPRESSION
表达式 <expr>
等限制无效。
有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION
INVALID_NON_ABSOLUTE_PATH
提供的非绝对路径 <path>
不符合资格。 请将路径更新为有效的 dbfs 装载位置。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
运算符需要确定性表达式,但实际表达式为 <sqlExprs>
。
INVALID_NUMERIC_LITERAL_RANGE
数值 <rawStrippedQualifier>
超出了 <typeName>
的有效范围,最小值为 <minValue>
,最大值为 <maxValue>
。 请相应地调整值。
INVALID_OBSERVED_METRICS
观察到的指标无效。
有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS
INVALID_OPTIONS
无效选项:
有关更多详细信息,请参阅 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
组聚合 pandas UDF <functionList>
不能与其他非 pandas 聚合函数一起调用。
INVALID_PARAMETER_MARKER_VALUE
提供的参数映射无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
<functionName>
中参数 <parameter>
的值无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
不能对分区列使用 <type>
。
INVALID_PARTITION_OPERATION
分区命令无效。
有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
未能将分区列 <columnName>
的值 <value>
强制转换为数据类型 <dataType>
。 确保该值与此分区列的预期数据类型匹配。
INVALID_PIPELINE_ID
管道 ID <pipelineId>
无效。
管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID
INVALID_PRIVILEGE
特权 <privilege>
对于 <securable>
无效。
INVALID_PROPERTY_KEY
<key>
是一个无效的属性键,请使用引号,例如 SET <key>=<value>
。
INVALID_PROPERTY_VALUE
<value>
是一个无效的属性值,请使用引号,例如 SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
列名 <columnName>
无效,因为它没有限定表名,或者由超过 4 个名称部分组成。
INVALID_QUERY_MIXED_QUERY_PARAMETERS
参数化查询必须使用位置参数或命名参数,但不能同时使用这两种参数。
INVALID_REGEXP_REPLACE
无法对源 =“<source>
”、模式 =“<pattern>
”、更换 =“<replacement>
”和位置 = <position>
执行 regexp_replace。
INVALID_RESET_COMMAND_FORMAT
预期格式为“RESET
”或“RESET
key”。 如果你要在键中包含特殊字符,请使用引号,例如 RESET key
。
INVALID_S3_COPY_CREDENTIALS
COPY INTO
凭证必须包括 AWS_ACCESS_KEY
、AWS_SECRET_KEY
和 AWS_SESSION_TOKEN
。
INVALID_SAVE_MODE
指定的保存模式 <mode>
无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。
INVALID_SCHEMA
输入架构 <inputSchema>
不是有效的架构字符串。
有关更多详细信息,请参阅 INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。
INVALID_SCHEME
Unity Catalog 不支持 <name>
作为默认文件方案。
INVALID_SECRET_LOOKUP
机密查找无效:
有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
预期格式为“SET
”、“SET
key”或“SET
key=value”。 如果你要在键中包含特殊字符,或者在值中包含分号,请使用反引号,例如 SET key
=value
。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
别名必须采用“schema.name”格式。
INVALID_SINGLE_VARIANT_COLUMN
如果还有用户指定的架构,则无法使用 singleVariantColumn
选项。
INVALID_SOURCE_CATALOG
源目录不得位于 SYNC
命令的 Unity Catalog 中。 已找到 <catalog>
。
INVALID_SQL_ARG
sql()
的参数 <name>
无效。 请考虑将其替换为 SQL 文本或集合构造函数 (如 map()
、array()
、struct()
)。
INVALID_SQL_SYNTAX
无效的 SQL 语法:
有关更多详细信息,请参阅 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中的暂存路径无效:<path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
INTO
的 EXECUTE IMMEDIATE
子句仅适用于查询,但给定语句不是查询:<sqlString>
。
INVALID_STATEMENT_OR_CLAUSE
语句或子句:<operation>
无效。
INVALID_SUBQUERY_EXPRESSION
子查询无效:
有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
无法创建类型为 <obj>
的持久对象 <objName>
,因为该对象引用了类型为 <tempObj>
的临时对象 <tempObjName>
。 请将临时对象 <tempObjName>
设为持久对象,或将持久对象 <objName>
设为临时对象。
INVALID_TIMESTAMP_FORMAT
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
INVALID_TIMEZONE
时区:<timeZone>
无效。 时区必须是基于地区的区域 ID 或区域偏移量。 区域 ID 必须具有“区域/城市”的格式,如“America/Los_Angeles”。 区域偏移量必须采用“(+|-)HH”、“(+|-)HH:mm”或“(+|-)HH:mm:ss”格式,例如“-08”、“+01:00”或“-13:33:33”,并且必须位于 -18:00 到 +18:00 的范围内。 “Z”和“UTC”被接受为“+00:00”的同义词。
INVALID_TIME_TRAVEL_SPEC
在按时间顺序查看表时,无法同时指定版本和时间戳。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
时间回溯时间戳表达式 <expr>
无效。
有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
类型化文本 <valueType>
的值无效:<value>
。
INVALID_UDF_IMPLEMENTATION
函数 <funcName>
未实现 ScalarFunction 和 AggregateFunction。
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot>
源表在 Hive 元存储中,而目标表在 Unity Catalog 中。
INVALID_URL
URL 无效:<url>
。 使用 try_parse_url
来容许无效的 URL 并改为返回 NULL
。
INVALID_USAGE_OF_STAR_OR_REGEX
在 <prettyName>
中使用的 <elem>
无效。
INVALID_UTF8_STRING
在字符串中找到的 UTF8 字节序列无效:<str>
。
INVALID_UUID
输入 <uuidInput>
不是有效的 UUID。
UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式
请检查 UUID 的格式。
INVALID_VARIABLE_DECLARATION
变量声明无效。
有关更多详细信息,请参阅 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
变量类型必须是字符串类型,但实际类型是 <varType>
。
INVALID_VARIANT_CAST
变量值 <value>
不能强制转换为 <dataType>
。 请改用 try_variant_get
。
INVALID_VARIANT_FROM_PARQUET
变体无效。
有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
路径 <path>
不是 <functionName>
中有效的变体提取路径。
有效路径应以 $
开头,后跟零个或多个段,例如 [123]
、.name
、['name']
或 ["name"]
。
INVALID_VARIANT_SHREDDING_SCHEMA
架构 <schema>
不是有效的变体分片架构。
INVALID_WHERE_CONDITION
WHERE
条件 <condition>
包含无效表达式:<expressionList>
。
重写查询以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
无法为 ORDER BY
指定 <aggFunc>
或窗口框架。
INVALID_WRITER_COMMIT_MESSAGE
数据源写入器生成了无效数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>
。
INVALID_WRITE_DISTRIBUTION
请求的写入分发无效。
有关详细信息,请参阅 INVALID_WRITE_DISTRIBUTION
ISOLATED_COMMAND_FAILURE
未能执行 <command>
。
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
联接条件 <joinCondition>
的 <conditionType>
类型无效,应为“BOOLEAN
”。
KAFKA_DATA_LOSS
有些数据可能已经丢失,因为它们在 Kafka 中不再可用;
数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前
已被删除。
如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。
原因:
有关更多详情,请参阅 KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
在以下 Kinesis 流的分片 <shardId>
达到所需的序列号 <endSeqNum>
之前无法读取:
使用使用者模式 <consumerMode>
的 kinesis 流 <stream>
。 由于潜在的数据丢失,此
查询将失败。 最后读取记录的序列号为 <lastSeqNum>
。
如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已
删除并以相同名称进行了重建。 可以
在 spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false 替代此失败行为。
KINESIS_EFO_CONSUMER_NOT_FOUND
对于 kinesis 流 <streamId>
,已删除以前注册的流 EFO 使用者 <consumerId>
。
重启查询,以便注册新的使用者。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
对于分片 <shard>
,上一次 subscribeToShard API 调用在下一次调用的 5 秒内。
在 5 秒或更长时间后重启查询。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
从 Kinesis 提取的最小 shardId (<fetchedShardId>
)
小于跟踪的最小 shardId (<trackedShardId>
)。
此为意外错误,当删除 Kinesis 流并使用相同的名称重新创建,
并使用现有检查点位置重启使用此 Kinesis 流的流式处理查询时,会发生这种情况。
使用新的检查点位置重启流式处理查询,或使用新名称创建流。
KINESIS_POLLING_MODE_UNSUPPORTED
不支持 Kinesis 轮询模式。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
对于分片 <shard>
,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>
,
它大于当前提取中读取的记录的序列号 <recordSeqNum>
。
这是意外行为,当重试或下一次提取的开始位置未正确初始化时,可能会发生这种情况,并可能导致下游记录重复。
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
若要从具有使用者配置(consumerName
、consumerNamePrefix
或 registeredConsumerId
)的 Kinesis Streams 读取,consumerMode
必须是 efo
。
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
若要从具有已注册使用者的 Kinesis Streams 读取,必须同时指定 registeredConsumerId
和 registeredConsumerIdType
选项。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
若要从 Kinesis Streams 读取,必须将 streamName
或 streamARN
选项的任一个(但不是两者)配置为以逗号分隔的流名称/ARN 列表。
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
若要从具有已注册使用者的 Kinesis Streams 读取,请不要配置 consumerName
或 consumerNamePrefix
选项,因为它们不会生效。
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
已注册的使用者 ID 数应等于 Kinesis 流的数量,但却获得了 <numConsumerIds>
个使用者 ID 和 <numStreams>
个流。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
找不到为 streamARN <streamARN>
提供的已注册使用者 <consumerId>
。 验证是否已注册使用者或未提供 registeredConsumerId
该选项。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
已注册的使用者类型 <consumerType>
无效。 它必须是 name
或 ARN
。
KRYO_BUFFER_OVERFLOW
Kryo 序列化失败:<exceptionMsg>
。 若要避免这种情况,请增加“<bufferSizeConfKey>
”值。
LABELS_MISMATCH
开始标签 <beginLabel>
与结束标签 <endLabel>
不匹配。
LABEL_ALREADY_EXISTS
标签 <label>
已存在。 选择其他名称或重命名现有标签。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 输入路径不存在:<path>
。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
必须与 file
的架构配合使用,但收到了:<actualSchema>
。
LOCATION_ALREADY_EXISTS
无法将托管表命名为 <identifier>
,因为它的关联位置 <location>
已存在。 请选择其他表名,或者先删除现有位置。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区丢失。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
最新偏移量 <tpsForLatestOffset>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区
MALFORMED_AVRO_MESSAGE
在消息反序列化中检测到格式错误的 Avro 消息。 分析模式:<mode>
。 若要将格式错误的 Avro 消息作为 null 结果进行处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
MALFORMED_CHARACTER_CODING
使用 <charset>
执行 <function>
时找到的值无效
MALFORMED_CSV_RECORD
CSV 记录的格式错误:<badRecord>
MALFORMED_RECORD_IN_PARSING
在记录分析中检测到格式错误的记录:<badRecord>
。
分析模式:<failFastMode>
。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
变体二进制格式不正确。 请检查数据源是否有效。
MANAGED_TABLE_WITH_CRED
不支持使用存储凭据创建托管表。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
无法对具体化视图运行 <refreshType>
,因为它之前包含 pipelineId。 若要启用 <refreshType>
,请删除再重新创建具体化视图。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
不允许具体化视图操作 <operation>
:
有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
必须显式为具体化视图中的输出表达式 <expression>
指定别名。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
无法使用流式处理查询来创建具体化视图 <name>
。 请使用 CREATE
[OR REFRESH
] <st>
或删除 STREAM
子句中的 FROM
关键字,以将此关系转换为批处理查询。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
不支持对此版本的具体化视图执行 <operation>
操作。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
无法创建新变量 <variableName>
,因为会话中的变量数超过允许的最大数目 (<maxNumVariables>
)。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit>
的正整数
MERGE_CARDINALITY_VIOLATION
ON
语句的 MERGE
搜索条件将目标表中的单行与源表的多行匹配。
这可能会导致对目标行执行多次更新或删除操作,这是不允许的。
MERGE_WITHOUT_WHEN
WHEN
语句中必须至少包含一个 MERGE
子句。
METRIC_CONSTRAINT_NOT_SUPPORTED
未启用 METRIC CONSTRAINT
。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE
表函数的参数“<argName>
”不支持提供的值“<argValue>
”。
有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Metric Store 例程 <routineName>
目前在此环境中已禁用。
MIGRATION_NOT_SUPPORTED
<table>
不支持迁移到托管表,因为它不是 <tableKind>
表。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
预提取偏移量 <tpsForPrefetched>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区。
MISSING_AGGREGATION
非聚合表达式 <expression>
基于不参与 GROUP BY
子句的列。
将列或表达式添加到 GROUP BY
、聚合表达式,或者在不关心返回组中哪些值时使用 <expressionAnyValue>
。
有关更多详细信息,请参阅 MISSING_AGGREGATION
MISSING_CLAUSES_FOR_OPERATION
操作 <operation>
缺少子句 <clauses>
。 请添加所需的子句。
MISSING_CONNECTION_OPTION
“<connectionType>
”类型的连接必须包括以下选项:<requiredOptions>
。
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
v1 会话目录中未指定数据库名称。 请确保在与 v1 目录交互时,提供有效的数据库名称。
MISSING_GROUP_BY
查询不包含 GROUP BY
子句。 添加 GROUP BY
或使用 OVER 子句将其转换为窗口函数。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK
约束必须具有名称。
MISSING_PARAMETER_FOR_KAFKA
参数 <parameterName>
对于 Kafka 是必需的,但未在 <functionName>
中指定。
MISSING_PARAMETER_FOR_ROUTINE
需要参数 <parameterName>
,但未在 <functionName>
中指定。
MISSING_TIMEOUT_CONFIGURATION
操作已超时,但未配置超时持续时间。 若要设置基于时间的处理超时,请在“mapGroupsWithState”或“flatMapGroupsWithState”操作中使用“GroupState.setTimeoutDuration()”。 对于基于事件时间的超时,请使用“GroupState.setTimeoutTimestamp()”,并使用“Dataset.withWatermark()”定义水印。
MISSING_WINDOW_SPECIFICATION
Window 规范未在 WINDOW
的 <windowName>
子句中定义。 有关 WINDOW
子句的详细信息,请参阅“<docroot>
/sql-ref-syntax-qry-select-window.html”。
MODIFY_BUILTIN_CATALOG
不支持修改内置目录 <catalogName>
。
MULTIPLE_LOAD_PATH
Databricks Delta 在 load() API 中不支持多个输入路径。
路径:<pathList>
。 若要通过从同一 Delta 表加载多个路径来
生成单个数据帧,请加载
具有相应分区筛选器的 Delta 表。 如果多个路径
来自不同的 Delta 表,请使用数据集的 union()/unionByName() API
来合并由单独的 load() API 调用生成的数据帧。
MULTIPLE_MATCHING_CONSTRAINTS
找到至少两个与给定条件匹配的约束。
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1>
和 <clause2>
无法使用“|>”在同一 SQL 管道操作符中共存。 请将多个结果子句分隔为单独的管道操作符,然后再次重试查询。
MULTIPLE_TIME_TRAVEL_SPEC
无法在按时间顺序查看子句和选项中指定按时间顺序查看。
MULTIPLE_XML_DATA_SOURCE
检测到名称为 <provider> (<sourceNames>
的多个数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>
。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
表达式 <expr>
不支持多个源。
MULTI_UDF_INTERFACE_ERROR
不允许实现多个 UDF 接口,UDF 类 <className>
。
MUTUALLY_EXCLUSIVE_CLAUSES
子句 <clauses>
或选项互斥。 请删除其中的一个子句。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
输入查询需要 <expectedType>
,但基础表是 <givenType>
。
NAMED_PARAMETERS_NOT_SUPPORTED
函数 <functionName>
不支持命名参数;请改为使用函数调用的位置参数重试查询。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
无法调用函数 <functionName>
,因为不支持命名参数引用。 在此情况下,命名参数引用为 <argument>
。
NAMED_PARAMETER_SUPPORT_DISABLED
无法调用函数 <functionName>
,因为此处未启用命名参数引用。
在此情况下,命名参数引用为 <argument>
。
将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。
NAMESPACE_ALREADY_EXISTS
无法创建命名空间 <nameSpaceName>
,因为它已存在。
选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS
子句以容许现有的命名空间。
NAMESPACE_NOT_EMPTY
无法删除命名空间 <nameSpaceNameName>
,因为它包含对象。
使用 DROP NAMESPACE
… CASCADE
删除命名空间及其所有对象。
NAMESPACE_NOT_FOUND
找不到命名空间 <nameSpaceName>
。 请验证该命名空间的拼写和正确性。
如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。
若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS
。
NATIVE_IO_ERROR
本机请求失败。 requestId: <requestId>
, cloud: <cloud>
, operation: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
错误:<error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
此群集中未启用本机 XML 数据源。
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
在 <frequencyExpression>
中找到负值:<negativeValue>
,但预期为正整数值。
NESTED_AGGREGATE_FUNCTION
不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。
NESTED_EXECUTE_IMMEDIATE
不允许使用嵌套 EXECUTE IMMEDIATE
命令。 请确保提供的 SQL 查询 (<sqlString>
) 不包含另一个 EXECUTE IMMEDIATE
命令。
NONEXISTENT_FIELD_NAME_IN_LIST
字段 <nonExistFields>
不存在。 可用字段:<fieldNames>
NON_FOLDABLE_ARGUMENT
函数 <funcName>
要求参数 <paramName>
为 <paramType>
类型的可折叠表达式,但实际参数是不可折叠的。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略该条件。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略该条件。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
当 NOT MATCHED [BY TARGET
语句中有多个 MERGE
] 子句时,只有最后一个 NOT MATCHED [BY TARGET
] 子句可以省略该条件。
NON_LITERAL_PIVOT_VALUES
必须为透视值提供文本表达式,但找到的是 <expression>
。
NON_PARTITION_COLUMN
PARTITION
子句不能包含非分区列:<columnName>
。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
流式处理数据帧/数据集的 <windowFunc>
(如列 <columnName>
)不支持窗口函数。
结构化流式处理仅支持使用 WINDOW
函数的时间窗口聚合。 (窗口规范:<windowSpec>
)
NOT_ALLOWED_IN_FROM
FROM
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
管道 WHERE
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
用于例程或 <name>
子句的表达式 <expr>
必须是 NOT NULL
的常量 STRING
。
有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
不允许对 <tableIdentWithDB>
执行操作 <operation>
,因为它不是已分区表。
NOT_A_SCALAR_FUNCTION
<functionName>
此处显示为标量表达式,但函数定义为表函数。 请更新查询以将函数调用移动到 FROM
子句中,或者将 <functionName>
重新定义为标量函数。
NOT_A_TABLE_FUNCTION
<functionName>
此处显示为表函数,但函数定义为标量函数。 请更新查询以将函数调用移动到 FROM
子句外部,或者将 <functionName>
重新定义为表函数。
NOT_NULL_ASSERT_VIOLATION
NULL
值出现在不可为 null 的字段中:<walkedTypePath>
如果架构是从 Scala 元组/大小写类或 Java bean 推断的,请尝试使用 scala.Option[_],或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。
NOT_NULL_CONSTRAINT_VIOLATION
此处不允许分配 NULL
。
有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/CHANGE COLUMN
不支持将 <table>
的类型为 <originName>
的列 <originType>
更改为类型为 <newName>
的 <newType>
。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
v2 表不支持 <cmd>
。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
不支持 <cmd>
,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC 目录中不支持的命令:
有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
在 SQL <endpoint>
上不受支持。
NOT_SUPPORTED_WITH_SERVERLESS
无服务器计算不支持 <operation>
。
NOT_UNRESOLVED_ENCODER
需要未解析的编码器,但找到了 <attr>
。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
无法确定 <colName>
的默认值,因为它不可为空且没有默认值。
NO_HANDLER_FOR_UDAF
没有适用于 UDAF“<functionName>
”的处理程序。 请改用 sparkSession.udf.register(…)。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE:未分配
找不到路径“<path>
”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
在 Protobuf 架构中找不到 <catalystFieldPath>
。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE:未分配
生成表凭据时,找不到表“<tableId>
”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。
NO_SUCH_CATALOG_EXCEPTION
找不到目录“<catalog>
”。 请验证目录名称,然后再次重试查询或命令。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE:未分配
洁净室“<cleanroom>
”不存在。 请验证洁净室名称拼写正确并且与有效的现有洁净室名称匹配,然后再次重试查询或命令。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE:未分配
外部位置“<externalLocation>
”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE:未分配
找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE:未分配
共享提供程序“<providerName>
”不存在。 请验证共享提供程序名称是否拼写正确,以及是否匹配现有的有效提供程序名称,然后再次重试查询或命令。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE:未分配
收件人“<recipient>
”不存在。 请验证收件人名称是否拼写正确,以及是否匹配现有的有效收件人的名称,然后再次重试查询或命令。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE:未分配
共享“<share>
”不存在。 请验证共享名是否拼写正确,以及是否匹配现有的有效共享的名称,然后再次重试查询或命令。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE:未分配
存储凭据“<storageCredential>
”不存在。 请验证存储凭据名称是否拼写正确,以及是否匹配现有的有效存储凭据的名称,然后再次重试查询或命令。
NO_SUCH_USER_EXCEPTION
SQLSTATE:未分配
用户“<userName>
”不存在。 请验证你授予权限或更改所有权的用户名是否拼写正确,以及是否匹配现有的有效用户的名称,然后再次重试查询或命令。
NO_UDF_INTERFACE
UDF 类 <className>
不实现任何 UDF 接口。
NULLABLE_COLUMN_OR_FIELD
列或字段 <name>
可为 null,但它必须不可为 null。
NULLABLE_ROW_ID_ATTRIBUTES
行 ID 属性不可为 null:<nullableRowIdAttrs>
。
NULL_DATA_SOURCE_OPTION
数据源读/写选项 <option>
不能有 null 值。
NULL_MAP_KEY
不能使用 null 作为映射键。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName>
为 null。
NUMERIC_OUT_OF_SUPPORTED_RANGE
值 <value>
无法解释为数字,因为它的位数超过了 38 位。
NUMERIC_VALUE_OUT_OF_RANGE
有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
只能对列数相同的输入执行 <operator>
,但第一个输入包含 <firstNumColumns>
列,而 <invalidOrdinalNum>
输入包含 <invalidNumColumns>
列。
NUM_TABLE_VALUE_ALIASES_MISMATCH
给定别名的数目与输出列数不匹配。
函数名称:<funcName>
;别名数:<aliasesNum>
;输出列数:<outColsNum>
。
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
未提供自定义标识声明。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
此 <location>
不支持调用函数 <functionName>
;此处支持 <supportedFunctions>
。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
只有支持 Unity Catalog 的 Databricks SQL 连接器才支持 SQL 操作 <operation>
。
OPERATION_CANCELED
操作已取消。
OPERATION_REQUIRES_UNITY_CATALOG
操作 <operation>
需要启用 Unity Catalog。
OP_NOT_SUPPORTED_READ_ONLY
<plan>
在只读会话模式下不受支持。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
PARQUET_CONVERSION_FAILURE
无法为 Parquet 类型为<parquetType>
的数据类型 <dataType>
创建 Parquet 转换器。
有关更多详细信息,请参阅 PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
非法 Parquet 类型:<parquetType>
。
PARQUET_TYPE_NOT_RECOGNIZED
无法识别的 Parquet 类型:<field>
。
PARQUET_TYPE_NOT_SUPPORTED
尚不支持 Parquet 类型:<parquetType>
。
PARSE_EMPTY_STATEMENT
语法错误,意外空语句。
PARSE_MODE_UNSUPPORTED
<funcName>
模式不支持函数 <mode>
。 可接受的模式为 PERMISSIVE
和 FAILFAST
。
PARSE_SYNTAX_ERROR
<error> <hint>
位置或附近有语法错误。
PARTITIONS_ALREADY_EXIST
无法在表 RENAME
中添加或 <partitionList>
TO 分区 <tableName>
,因为它们已存在。
选择其他名称、删除现有分区,或添加 IF NOT EXISTS
子句以容许现有的分区。
PARTITIONS_NOT_FOUND
在表 <tableName>
中找不到分区 <partitionList>
。
请验证分区规范和表名。
若要容许删除时出错,请使用 ALTER TABLE
… DROP IF EXISTS PARTITION
。
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
在架构 <schema>
中找不到分区列 <column>
。 请提供用于分区的现有列。
PARTITION_LOCATION_ALREADY_EXISTS
表 <tableName>
中已存在分区位置 <locationPath>
。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
无法执行 ALTER TABLE SET PARTITION LOCATION
语句,因为
分区位置 <location>
不在表目录 <table>
下。
若要修复此问题,请将分区的位置设置为 <table>
的子目录。
PARTITION_METADATA
不允许对表 <tableName>
执行 <action>
,因为 Unity Catalog 中不支持存储分区元数据。
PARTITION_NUMBER_MISMATCH
值 (<partitionNumber>
) 的数量与架构大小 (<partitionSchemaSize>
) 不匹配:值为 <partitionValues>
,架构为 <partitionSchema>
,文件路径为 <urlEncodedPath>
。
请重新具体化表或联系所有者。
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
表达式 <expression>
必须位于“partitionedBy”内。
PATH_ALREADY_EXISTS
路径 <outputPath>
已存在。 请将模式设置为“overwrite”以覆盖现有路径。
PATH_NOT_FOUND
路径不存在:<path>
。
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
反序列化 Photon protobuf 计划至少需要 <size>
个字节数,超过
<limit>
个字节的限制。 这可能是由于非常大的计划或存在非常
宽的架构。 尝试简化查询、删除不必要的列或禁用 Photon。
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
序列化的 Photon protobuf 计划的大小为 <size>
字节数,超过
<limit>
个字节的限制。 计划中数据类型的序列化大小为 <dataTypeSize>
个字节。
这可能是由于非常大的计划或存在非常宽的架构。
请考虑重写查询,以删除不需要的操作和列或禁用 Photon。
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
非分组表达式 <expr>
作为参数提供给 |>AGGREGATE
管道操作符,但不包含任何聚合函数;请更新它以包含聚合函数,然后再次重试查询。
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
使用管道操作符 |><clause>
子句时不允许聚合函数 <expr>
;请改用管道操作符 |>AGGREGATE
子句。
PIVOT_VALUE_DATA_TYPE_MISMATCH
透视值“<value>
”无效:值数据类型 <valueType>
与透视列数据类型 <pivotType>
不匹配。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
过程 <procedureName>
需要 <expected>
参数,但提供了 <actual>
。
PROCEDURE_CREATION_EMPTY_ROUTINE
不允许使用具有空例程定义的 CREATE PROCEDURE
。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
参数 <parameterName>
是使用参数模式 <parameterMode>
定义的。 调用例程时,不能省略 OUT 和 INOUT
参数,因此不支持 DEFAULT
表达式。 若要继续操作,请删除 DEFAULT
子句或将参数模式更改为 IN
。
PROCEDURE_NOT_SUPPORTED
不支持存储过程
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Hive 元存储不支持存储过程。 请改用 Unity Catalog。
PROTOBUF_DEPENDENCY_NOT_FOUND
找不到依赖项:<dependencyName>
。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
读取路径中的 Protobuf 描述符文件时出错:<filePath>
。
PROTOBUF_FIELD_MISSING
在 Protobuf 架构中的 <protobufSchema>
处搜索与给定的 <matchSize>
匹配的 <field>
。 候选项:<matches>
。
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
在 Protobuf 架构中找到了 <field>
,但 SQL 架构中没有匹配项。
PROTOBUF_FIELD_TYPE_MISMATCH
字段的类型不匹配:<field>
。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
<protobufFunction>
不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。
PROTOBUF_MESSAGE_NOT_FOUND
无法在描述符中找到消息 <messageName>
。
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
无法调用 <functionName>
SQL 函数,因为未加载 Protobuf 数据源。
请使用加载的“spark-protobuf”包重启作业或会话,例如在命令行上使用 -packages 参数,然后再次重试查询或命令。
PROTOBUF_TYPE_NOT_SUPPORT
尚不支持 Protobuf 类型:<protobufType>
。
PS_FETCH_RETRY_EXCEPTION
无法重试 pubsub 提取阶段中的任务。 阶段 <stageInfo>
中的分区 <partitionInfo>
,TID <taskId>
。
PS_INVALID_EMPTY_OPTION
<key>
不能为空字符串。
PS_INVALID_KEY_TYPE
无效的 PubSub dedup 密钥类型:<key>
。
PS_INVALID_OPTION
PubSub 不支持选项 <key>
。 它只能在测试中使用。
PS_INVALID_OPTION_TYPE
无效的 <key>
类型。 <key>
的预期类型为类型 <type>
。
PS_INVALID_READ_LIMIT
PubSub 流上的读取限制无效:<limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>
。 输入 UnsafeRow 可能已损坏:<unsafeRow>
。
PS_MISSING_AUTH_INFO
找不到完整的 PubSub 身份验证信息。
PS_MISSING_REQUIRED_OPTION
无法找到所需选项:<key>
。
PS_MOVING_CHECKPOINT_FAILURE
无法将原始数据检查点文件从 <src>
移动到目标目录:<dest>
。
PS_MULTIPLE_FAILED_EPOCHS
无法启动 PubSub 流,因为存在多个失败的提取:<failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS
<key>
必须在以下边界内:(<min>
, <max>
)(不包括这两个边界)。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
共享群集不支持使用实例配置文件进行身份验证。 使用 .option() 直接向流提供凭据。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 源连接器仅在禁用 spark.speculation
的群集中可用。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
尝试在主题 <topicId>
上创建订阅 <subId>
时出错。 请检查是否有足够的权限来创建订阅,然后重试。
PS_UNABLE_TO_PARSE_PROTO
无法分析串行化字节以生成 proto。
PS_UNSUPPORTED_GET_OFFSET_CALL
如果不提供限制,则不支持 getOffset。
PYTHON_DATA_SOURCE_ERROR
未能<action>
Python 数据源 <type>
:<msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 流式处理数据源执行 <action>
时失败:<msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
无法访问被引用表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
无法访问被引用表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
为 <functionName>
函数调用设置了 <parameterName>
和 <alternativeName>
,它们是彼此的别名。 请仅设置其中一个。
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
必须在没有名称的位置 <expectedPos>
分配函数 <functionName>
的必需参数 <parameterName>
。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
收件人过期时间戳仅支持 TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
类型。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:<fieldDescriptor>
。 请尝试将选项 recursive.fields.max.depth
设置为 1 到 10 之间。 不允许超过 10 个递归级别。
RECURSIVE_VIEW
检测到递归视图 <viewIdent>
(周期:<newPath>
)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
DEFAULT
子句中不允许引用 PARTITION
列值。
RELATION_LARGER_THAN_8G
无法生成大于 8G 的 <relationName>
。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
远程 HTTP 请求失败,错误代码为 <errorCode>
,错误消息为 <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
由于无法分析远程 HTTP 响应的 JSON 结果,因此无法计算 <functionName>
SQL 函数;错误消息为“<errorMessage>
”。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
由于无法处理意外的远程 HTTP 响应,因此无法计算 <functionName>
SQL 函数;错误消息为“<errorMessage>
”。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
远程请求在重试 <N>
次后失败;最后一个失败的 HTTP 错误代码为 <errorCode>
,消息为 <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
由于 <errorMessage>
,未能计算 <functionName>
SQL 表达式。 查看 <docUrl>
中的要求。 请修复错误消息中指示的问题,然后再次重试查询。
RENAME_SRC_PATH_NOT_FOUND
由于未找到 <sourcePath>
,重命名失败。
REPEATED_CLAUSE
在每个 <operation>
操作中最多可以使用 <clause>
子句一次。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
已在没有名称的位置 <positionalIndex>
分配例程 <routineName>
的必需参数 <parameterName>
。
请更新函数调用以删除此参数带 <parameterName>
的命名参数,或删除
位于 <positionalIndex>
的位置参数,然后重试查询。
REQUIRED_PARAMETER_NOT_FOUND
无法调用例程 <routineName>
,因为需要名为 <parameterName>
的参数,但例程调用未提供值。 请更新例程调用,以(在索引 <index>
按位置或按名称)提供参数值,然后重试查询。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
需要单部分命名空间,但收到了 <namespace>
。
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
“rescuedDataColumn”DataFrame API 读取器选项与“singleVariantColumn”DataFrame API 选项互斥。
请删除其中一项,然后再次重试 DataFrame 操作。
RESERVED_CDC_COLUMNS_ON_WRITE
写入包含保留列 <columnList>
,这些列
在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除
这些列,或者将
<config>
设置为 false 来禁用表上的更改数据馈送。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
选项 <option>
在 <source>
源的共享群集上具有受限值。
有关详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
无法创建 <newRoutineType> <routineName>
,因为该名称的 <existingRoutineType>
已存在。
选择其他名称、删除或替换现有 <existingRoutineType>
,或者添加 IF NOT EXISTS
子句以容许现有 <newRoutineType>
。
ROUTINE_NOT_FOUND
找不到例程 <routineName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP
… IF EXISTS
。
ROUTINE_PARAMETER_NOT_FOUND
例程 <routineName>
不支持位置 <pos>
处指定的参数 <parameterName>
。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
无法创建函数 <routineName>
,因为指定的类名“<className>
”保留供系统使用。 请重命名该类,然后重试。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
不支持使用行级别安全策略对表 CHECK
创建 <tableName>
约束。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType>
语句尝试将行级别安全策略分配到某个表,但两个或更多个被引用列具有相同的名称 <columnName>
,这是无效操作。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的行级别安全策略:
有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
无法从表 <tableName>
执行 <statementType> <columnName>
,因为它已在行级安全策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
操作不支持源表 <tableName>
中的行级别安全策略。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作不支持写入具有行级别安全策略的表 <tableName>
。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
此语句尝试将行级别安全策略分配到某个表,但被引用列 <columnName>
具有多个名称部分,这是无效操作。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
行级别安全策略仅在 Unity Catalog 中受支持。
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
使用行级别安全策略的 <format>
表不支持 SHOW PARTITIONS
命令。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
不支持使用行级别安全策略从表 <tableName>
进行 <mode>
克隆。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用行级别安全策略将 <mode>
克隆到表 <tableName>
。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
不支持在行级安全策略中使用常数作为参数。 请更新 SQL 命令以从行筛选器定义中删除常数,然后再次重试该命令。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配行级别安全策略。
ROW_SUBQUERY_TOO_MANY_ROWS
用作行的子查询返回了多个行。
ROW_VALUE_IS_NULL
在索引 NULL
处的行中找到 <index>
,期望值为非 NULL
值。
RULE_ID_NOT_FOUND
找不到规则名称“<ruleName>
”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。
SAMPLE_TABLE_PERMISSIONS
示例数据库/表不支持权限。
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc>
不会重写使用自定义实现的“produceResult(InternalRow)”方法。
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc>
不会实现或重写“produceResult(InternalRow)”方法。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相关的标量查询“<sqlExpr>
”既不存在于 GROUP BY
中,也不存在于聚合函数中。
使用序号位置将其添加到 GROUP BY
,或者将其包装在 first()
(或 first_value
)中(如果你不在意收到的值)。
SCALAR_SUBQUERY_TOO_MANY_ROWS
用作表达式的子查询返回了多个行。
SCHEDULE_ALREADY_EXISTS
无法添加 <scheduleType>
到已具有 <existingScheduleType>
的表。 请删除现有计划或使用 ALTER TABLE
… ALTER <scheduleType>
… 以更改它。
SCHEDULE_PERIOD_INVALID
<timeUnit>
的计划期限必须是介于 1 和 <upperBound>
(含)之间的整数值。 已收到:<actual>
。
SCHEMA_ALREADY_EXISTS
无法创建架构 <schemaName>
,因为它已存在。
选择其他名称、删除现有架构,或添加 IF NOT EXISTS
子句以容许现有的架构。
SCHEMA_NOT_EMPTY
无法删除架构 <schemaName>
,因为它包含对象。
使用 DROP SCHEMA
… CASCADE
删除架构及其所有对象。
SCHEMA_NOT_FOUND
找不到架构 <schemaName>
。 请验证架构和目录的拼写和正确性。
如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。
若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS
。
SCHEMA_REGISTRY_CONFIGURATION_ERROR
无法初始化架构注册表中的架构。 <reason>
。
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName>
函数的第二个参数需是整数。
SECRET_FUNCTION_INVALID_LOCATION
无法使用对 <commandType>
函数的一个或多个非加密引用执行 SECRET
命令;请使用 AES_ENCRYPT
加密每个此类函数调用的结果,然后重试该命令
SEED_EXPRESSION_IS_UNFOLDABLE
表达式 <exprWithSeed>
的种子表达式 <seedExpr>
必须可折叠。
SERVER_IS_BUSY
服务器正忙,无法处理该请求。 请稍等片刻,然后重试。
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
具有冲突命名空间的 SHOW COLUMNS
:<namespaceA>
!= <namespaceB>
。
SORT_BY_WITHOUT_BUCKETING
sortBy 必须与 bucketBy 一起使用。
SPARK_JOB_CANCELLED
作业 <jobId>
已取消 <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE
无法指定存储桶信息。
请使用具有显式列列表的表单,然后指定存储桶信息。
或者,允许通过省略此子句来推断存储桶信息。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
不能同时指定 CLUSTER BY
和 CLUSTERED BY INTO BUCKETS
。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
不能同时指定 CLUSTER BY
和 PARTITIONED BY
。
SPECIFY_PARTITION_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE
不能指定 PARTITIONED BY
。
请使用具有显式列列表的表单,然后指定 PARTITIONED BY
。
或者,允许通过省略此 PARTITION BY
子句来推断分区方式。
SQL_CONF_NOT_FOUND
找不到 SQL 配置 <sqlConf>
。 请验证该配置是否存在。
STAGING_PATH_CURRENTLY_INACCESSIBLE
访问目标暂存路径 <path>
时发生暂时性错误,请在几分钟后重试
STAR_GROUP_BY_POS
使用 GROUP BY
和序号位置时,不允许在选择列表中使用星号 (*)。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
未能执行有状态处理器操作“<operationType>
”,句柄状态“<handleState>
”无效。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
未能执行有状态处理器操作“<operationType>
”,timeMode“<timeMode>
”无效
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
名称为 <stateVarName>
的状态变量已在 StatefulProcessor 中定义。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
在 timeMode“<timeMode>
”中不能对状态“<stateName>
”使用 TTL,请改用 TimeMode.ProcessingTime()。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
对于针对状态“<stateName>
”执行的状态存储操作“<operationType>
”,TTL 持续时间必须大于零。
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
未知时间模式 <timeMode>
。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
未能创建具有不受支持的起始字符和名称“<colFamilyName>
”的列系列。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
未能执行列系列操作“<operationName>
”,名称“<colFamilyName>
”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字“default”
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
与列(family=<colFamilyName>
、oldSchema=<oldSchema>
、newSchema=<newSchema>
)的架构转换不兼容。
STATE_STORE_HANDLE_NOT_INITIALIZED
尚未为此 StatefulProcessor 初始化句柄。
请仅在 transformWithState 运算符中使用 StatefulProcessor。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
范围扫描编码器的排序序号数 <numOrderingCols>
不正确。 排序序号数不能为零,也不能大于架构列数。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
前缀扫描编码器的前缀列数 <numPrefixCols>
不正确。 前缀列数不能为零,也不能大于或等于架构列数。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
不能在重启之间将 <configName>
从 <oldConfig>
更改为 <newConfig>
。 请将 <configName>
设置为 <oldConfig>
,或使用新的检查点目录重启。
STATE_STORE_INVALID_PROVIDER
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
在查询重启之间无法将 <stateVarName>
更改为 <newType>
。 请将 <stateVarName>
设置为 <oldType>
,或使用新的检查点目录重启。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的 null 类型排序列。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
不支持对缺少的列系列“<colFamilyName>
”执行状态存储操作“<operationType>
”。
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的变量大小排序列。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
列列表中还指定了静态分区列 <staticName>
。
STDS_COMMITTED_BATCH_UNAVAILABLE
未找到提交的批处理,检查点位置:<checkpointLocation>
。 在停止之前,请确保查询已运行并提交任何微批次。
STDS_CONFLICT_OPTIONS
这些选项 <options>
不能一起指定。 请指定一个。
STDS_FAILED_TO_READ_OPERATOR_METADATA
未能读取 checkpointLocation=<checkpointLocation>
和 batchId=<batchId>
的运算符元数据。
文件不存在,或者文件已损坏。
请重新运行流式处理查询以构造运算符元数据,如果错误仍然存在,则向相应的社区或供应商报告。
STDS_FAILED_TO_READ_STATE_SCHEMA
未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>
。
请重新运行流式处理查询以构造状态架构,如果错误仍然存在,则向相应的社区或供应商报告。
STDS_INVALID_OPTION_VALUE
源选项“<optionName>
”的值无效:
有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
状态没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId>
的偏移量日志不存在,检查点位置:<checkpointLocation>
。
请指定可用于查询的批处理 ID - 可使用状态元数据数据源查询可用的批处理 ID。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
元数据不适用于 <batchId>
的偏移量日志,检查点位置:<checkpointLocation>
。
该检查点似乎只能使用较旧的 Spark 版本运行。 请使用最近的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。
STDS_REQUIRED_OPTION_UNSPECIFIED
必须指定“<optionName>
”。
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
结构化流式处理中的有状态运算符不支持自适应查询执行。
STREAMING_FROM_MATERIALIZED_VIEW
无法从具体化视图 <viewName>
流式处理。 不支持从具体化视图流式处理。
STREAMING_OUTPUT_MODE
流式处理输出模式无效:<outputMode>
。
有关更多详细信息,请参阅 STREAMING_OUTPUT_MODE
STREAMING_REAL_TIME_MODE
流式处理实时模式具有以下限制:
有关更多详细信息,请参阅 STREAMING_REAL_TIME_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。
元数据中的有状态运算符:[<OpsInMetadataSeq>
];当前批次中的有状态运算符:[<OpsInCurBatchSeq>
]。
STREAMING_TABLE_NEEDS_REFRESH
需要刷新流式处理表 <tableName>
才能执行 <operation>
。
如果表是从 DBSQL
中创建的,请运行 REFRESH <st>
。
如果表是由增量实时表中的管道创建的,请运行管道更新。
STREAMING_TABLE_NOT_SUPPORTED
只能在增量实时表和 Databricks SQL 仓库中创建和刷新流式处理表。
STREAMING_TABLE_OPERATION_NOT_ALLOWED
不允许 <operation>
操作:
有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
只能从流式处理查询创建流式处理表 <tableName>
。 请将 STREAM
关键字添加到 FROM
子句,以将此关系转换为流式处理查询。
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
在 <region>
中找不到 Kinesis 流 <streamName>
。
请启动指向正确流名称的新查询。
STRUCT_ARRAY_LENGTH_MISMATCH
输入行不包含架构所需的预期值数。 提供 <actual>
值时,<expected>
字段是必填字段。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT
子句和 OFFSET
子句的总和不得大于最大 32 位整数值 (2,147,483,647),但发现限值 = <limit>
,偏移值 = <offset>
。
SYNC_METADATA_DELTA_ONLY
仅 delta 表支持修复表同步元数据命令。
SYNC_SRC_TARGET_TBL_NOT_SAME
源表名 <srcTable>
必须与目标表名 <destTable>
相同。
SYNTAX_DISCONTINUED
在此上下文中,已停止支持子句或关键字:<clause>
。
有关更多详细信息,请参阅 SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
无法创建表或视图 <relationName>
,因为它已存在。
选择其他名称、删除现有对象、添加 IF NOT EXISTS
子句以容许预先存在的对象、添加 OR REPLACE
子句以替换现有的具体化视图,或添加 OR REFRESH
子句来刷新现有的流式处理表。
TABLE_OR_VIEW_NOT_FOUND
找不到表或视图 <relationName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
或 DROP TABLE IF EXISTS
。
有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
无法对带有 <functionName>
参数的 SQL 用户定义函数 TABLE
执行 <action>
,因为此功能尚未实现。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
无法分析 Python 用户定义表函数:<msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
无法评估表函数 <functionName>
,因为其表元数据为 <requestedMetadata>
,但函数调用 <invalidFunctionCallProperty>
。
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
无法评估表函数 <functionName>
,因为其表元数据无效;<reason>
。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
表值函数的表参数太多。
允许一个表参数,但收到了:<num>
。
如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”
TABLE_WITH_ID_NOT_FOUND
找不到 ID 为 <tableId>
的表。 请验证 UUID 是否正确。
TASK_WRITE_FAILED
将行写入 <path>
时任务失败。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
无法创建临时视图 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS
子句以容许现有的视图。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW
或相应的数据集 API 仅接受单部分视图名称,但收到了:<actualName>
。
TRAILING_COMMA_IN_SELECT
在子句 SELECT
中检测到尾随逗号。 删除 FROM
子句前的尾随逗号。
TRIGGER_INTERVAL_INVALID
触发器间隔必须是可以转换为整数秒的正持续时间。 接收时间:<actual>
秒。
UC_BUCKETED_TABLES
Unity Catalog 中不支持存储桶表。
UC_CATALOG_NAME_NOT_PROVIDED
对于 Unity Catalog,请显式指定目录名称。 例如 SHOW GRANT your.address@email.com ON CATALOG
main。
UC_COMMAND_NOT_SUPPORTED
Unity Catalog 不支持命令 <commandName>
。
有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
无服务器下的 Unity Catalog 群集不支持命令 <commandName>
。 请改用单个用户或共享群集。
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>
。 改用单用户访问模式。
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
指定的凭据类型不受支持。
UC_DATASOURCE_NOT_SUPPORTED
Unity Catalog 中不支持数据源格式 <dataSourceFormatName>
。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Unity Catalog 中不支持数据源选项。
UC_EXTERNAL_VOLUME_MISSING_LOCATION
外部卷必须存在 LOCATION
子句。 请检查语法“CREATE EXTERNAL VOLUME
… LOCATION
…' 语法。
UC_FAILED_PROVISIONING_STATE
查询失败,因为它尝试引用表 <tableName>
,但无法执行此操作:<failureReason>
。 请更新表 <tableName>
以确保它处于活动预配状态,然后再次重试查询。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
不支持在 Unity Catalog 中使用文件方案 <schemeName>
创建表。
请改为使用同一表提供程序的 CREATE CONNECTION
命令创建联合数据源连接,然后使用 CREATE FOREIGN CATALOG
命令创建基于连接的目录以引用其中的表。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive 元存储联合视图不支持跨多个目录的依赖项。 Hive 元存储联合目录中的视图 <view>
必须使用 hive_metastore 或 spark_catalog 目录中的依赖项,但其依赖项 <dependency>
位于另一个目录 <referencedCatalog>
中。 请更新依赖项以满足此约束,然后再次重试查询或命令。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
未在此群集上启用 Hive 元存储联合。
此群集不支持访问目录 <catalogName>
UC_INVALID_DEPENDENCIES
<viewName>
的依赖项在作为 <parsedDeps>
分析时被记录为 <storedDeps>
。 此问题可能是因为不当使用非 SQL API 而导致。 可以通过运行 ALTER VIEW <viewName>
AS <viewText>
来修复 Databricks Runtime 中的依赖项。
UC_INVALID_NAMESPACE
Unity Catalog 中不支持嵌套或空命名空间。
UC_INVALID_REFERENCE
无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>
。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
此群集上的提供程序 <provider>
未启用 Unity Catalog Lakehouse 联合身份验证写入支持。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
托管卷不接受 LOCATION
子句。 请检查语法“CREATE VOLUME
…” “CREATE VOLUME ...”语法。
UC_NOT_ENABLED
此群集上未启用 Unity Catalog。
UC_QUERY_FEDERATION_NOT_ENABLED
未在此群集上启用 Unity Catalog 查询联合。
UC_SERVICE_CREDENTIALS_NOT_ENABLED
此群集上未启用服务凭据。
UC_VOLUMES_NOT_ENABLED
此实例上未启用对 Unity Catalog 卷的支持。
UC_VOLUMES_SHARING_NOT_ENABLED
此实例上未启用对卷共享的支持。
UC_VOLUME_NOT_FOUND
卷 <name>
不存在。 请使用“SHOW VOLUMES
”列出可用卷。
UDF_ERROR
SQLSTATE:未分配
函数 <fn>
执行失败
有关更多详细信息,请参阅 UDF_ERROR
UDF_LIMITS
违反了一个或多个 UDF 限制。
有关更多详细信息,请参阅 UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
超出了 <maxNumUdfs>
个 UDF 的查询范围 UDF 限制(公共预览期间受限制)。 已找到 <numUdfs>
。 UDF 为:<udfNames>
。
UDF_PYSPARK_ERROR
Python 辅助角色意外退出
有关更多详细信息,请参阅 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
处于共享访问模式的群集不支持 PySpark UDF <udf> (<eval-type>
)。
UDF_PYSPARK_USER_CODE_ERROR
执行失败。
有关更多详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用户定义的 <functionType>
函数不支持参数默认值。
UDF_USER_CODE_ERROR
函数 <fn>
执行失败。
有关更多详细信息,请参阅 UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
AS 子句中提供的别名数与 UDTF 输出的列数不一致。
需要 <aliasesNames>
别名,但收到了 <aliasesSize>
。
请确保提供的别名数与 UDTF 输出的列数一致。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>
;请删除此别名,然后再次尝试查询。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>
),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。
UNABLE_TO_ACQUIRE_MEMORY
无法获取内存的 <requestedBytes>
字节,收到了 <receivedBytes>
。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
无法将 SQL 类型 <toType>
转换为 Protobuf 类型 <protobufType>
。
UNABLE_TO_FETCH_HIVE_TABLES
无法提取 Hive 数据库 <dbName>
的表。 错误类名称:<className>
.
UNABLE_TO_INFER_SCHEMA
无法推理 <format>
的架构。 必须手动指定。
UNAUTHORIZED_ACCESS
未授权访问:
<report>
UNBOUND_SQL_PARAMETER
找到未绑定的参数:<name>
。 请修复 args
并提供对 SQL 文本或集合构造函数 (例如 map()
、array()
、struct()
) 的映射参数。
UNCLOSED_BRACKETED_COMMENT
找到未闭合的方括号注释。 请在注释的末尾追加 */。
UNEXPECTED_INPUT_TYPE
函数 <functionName>
的参数 <paramIndex>
需要 <requiredType>
类型,但 <inputSql>
的类型为 <inputType>
。
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
函数 <functionName>
的参数 <namedParamKey>
需要 <requiredType>
类型,但 <inputSql>
的类型为 <inputType>
。<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
<op>
语句中作为流式处理源的意外运算符 CREATE VIEW
。
流式处理视图查询只能包含 SELECT
、WHERE
和 UNION ALL
操作。
UNEXPECTED_POSITIONAL_ARGUMENT
无法调用例程 <routineName>
,因为它在分配到 <parameterName>
的已命名参数之后包含位置参数;请重新排列它们,使位置参数排在前面,然后重试查询。
UNEXPECTED_SERIALIZER_FOR_CLASS
类 <className>
具有意外的表达式序列化程序。 预期返回“STRUCT
”的“IF
”或“STRUCT
”,但找到了 <expr>
。
UNKNOWN_FIELD_EXCEPTION
分析期间遇到 <changeType>
:<unknownFieldBlob>
,可通过自动重试 <isRetryable>
进行修复:
有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
例程 <routineName>
的调用在位置 <pos>
处包含一个未知的位置自变量 <sqlExpr>
。 这是无效的。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
在变体值中找到 ID 为 <id>
的未知基元类型。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
尝试将 <descriptorName>
视为消息,但它是 <containingType>
。
UNPIVOT_REQUIRES_ATTRIBUTES
当未给定 UNPIVOT
表达式时,<given>
要求所有给定的 <empty>
表达式都是列。 这些表达式不是列:[<expressions>
]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
至少需要为 UNPIVOT
指定一个值列,所有列均指定为 ID。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>
]。
UNPIVOT_VALUE_SIZE_MISMATCH
所有逆透视值列的大小必须与值列名称 (<names>
) 相同。
UNRECOGNIZED_PARAMETER_NAME
无法调用例程 <routineName>
,因为例程调用包含名为 <argumentName>
的参数的命名参数引用,但此例程不包括任何包含具有此名称的参数的签名。 你是否指以下其中一项? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
无法识别的 SQL 类型 - 名称:<typeName>
,ID:<jdbcType>
。
UNRECOGNIZED_STATISTIC
无法识别统计信息 <stats>
。 有效统计信息包括 count
、count_distinct
、approx_count_distinct
、mean
、stddev
、min
、max
和百分位值。 百分位必须是数字值,后跟“%”,范围介于 0% 到 100%。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
无法将 <name>
解析为表值函数。
请确保 <name>
定义为表值函数,并且正确提供了所有必需的参数。
如果未定义 <name>
,请在使用表值函数之前创建它。
有关定义表值函数的详细信息,请参阅 Apache Spark 文档。
UNRESOLVED_ALL_IN_GROUP_BY
无法基于 select 子句推断 GROUP BY ALL
的分组列。 请显式指定分组列。
UNRESOLVED_COLUMN
无法解析名称为 <objectName>
的列、变量或函数参数。
有关更多详细信息,请参阅 UNRESOLVED_COLUMN
UNRESOLVED_FIELD
无法使用结构类型列 <columnPath>
解析具有名称 <fieldName>
的字段。
有关更多详细信息,请参阅 UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
无法将列 <objectName>
解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。
有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
无法解析搜索路径 <searchPath>
上的例程 <routineName>
。
有关更多详细信息,请参阅 UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
无法解析联接的 USING
一侧的 <colName>
列 <side>
。 <side>
一侧的列:[<suggestion>
]。
UNRESOLVED_VARIABLE
无法解析搜索路径 <searchPath>
上的变量 <variableName>
。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
不支持非结构化文件格式 <format>
。 支持的文件格式为 <supportedFormats>
。
请将 format
表达式中的 <expr>
更新为受支持的格式之一,然后再次重试查询。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL
不支持非结构化模型 <model>
。 支持的模型为 <supportedModels>
。
请切换到其中一个受支持的模型,然后再次重试查询。
UNSUPPORTED_ADD_FILE
不支持添加文件。
有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
不支持的箭头类型 <typeName>
。
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
函数 <funcName>
不支持批处理查询。
UNSUPPORTED_CALL
无法调用“<className>
”类的“<methodName>
”方法。
有关更多详细信息,请参阅 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
不能在表架构中使用 char/varchar 类型。
如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<operation>
不支持 <clause>
。
UNSUPPORTED_COLLATION
排序规则 <collationName>
不受支持:
有关更多详细信息,请参阅 UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
应向 UC 注册源路径和 sourceArchiveDir 的公共上级。
如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。
请将它们放入单个外部位置。
UNSUPPORTED_CONSTRAINT_CLAUSES
不支持约束子句 <clauses>
。
UNSUPPORTED_CONSTRAINT_TYPE
不支持的约束类型。 仅支持 <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
不支持直接查询文件中的数据源类型:<dataSourceType>
UNSUPPORTED_DATATYPE
不支持的数据类型 <typeName>
。
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
数据源“<source>
”不能以 <createMode>
模式写入。 请改用“追加”或“覆盖”模式。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format>
数据源不支持类型为 <columnType>
的列 <columnName>
。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
无法为 <dataType>
创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。
UNSUPPORTED_DEFAULT_VALUE
不支持 DEFAULT
列值。
有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
不支持反序列化程序:
有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
无法使用生成表达式 <expressionStr>
创建生成的列 <fieldName>
,因为 <reason>
。
UNSUPPORTED_EXPR_FOR_OPERATOR
查询运算符包含一个或多个不受支持的表达式。
考虑重写该查询,以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
无效的表达式:[<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
查询参数包含不受支持的表达式。
参数可以是变量或文本。
无效表达式:[<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
窗口函数中不支持表达式 <sqlExpr>
。
UNSUPPORTED_FEATURE
不支持该功能:
有关详细信息,请参阅 UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
不支持的用户定义函数类型:<language>
UNSUPPORTED_GENERATOR
不支持生成器:
有关详细信息,请参阅 UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
Kinesis 源不支持初始位置为 <initialPosition>
的 <trigger>
UNSUPPORTED_INSERT
无法插入目标。
有关更多详细信息,请参阅 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
不支持的联接类型“<typ>
”。 支持的联接类型包括:<supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
不支持使用数据源 <dataSource>
创建托管表 <tableName>
。 需要使用数据源 DELTA
或使用 CREATE EXTERNAL TABLE <tableName>
… 创建外部表 USING <dataSource>
…
UNSUPPORTED_MERGE_CONDITION
MERGE
操作包含不受支持的 <condName>
条件。
有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METRIC_VIEW_USAGE
当前指标视图使用情况不受支持。
有关详细信息,请参阅 UNSUPPORTED_METRIC_VIEW_USAGE
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
表 <tableName>
包含的行级别安全策略或列掩码间接引用了另一个包含行级别安全策略或列掩码的表;这种情况不受支持。 调用序列:<callSequence>
UNSUPPORTED_OVERWRITE
无法覆盖正在读取的目标。
有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
不支持的分区转换:<transform>
。 支持的转换为 identity
、bucket
和 clusterBy
。 确保转换表达式使用其中一种。
UNSUPPORTED_SAVE_MODE
以下对象不支持保存模式 <saveMode>
:
有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
不支持的 SHOW CREATE TABLE
命令。
有关更多详细信息,请参阅 UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
单传递分析器无法处理此查询或命令,因为它尚不支持 <feature>
。
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
在没有水印的流式处理 DataFrame/数据集上不支持 <statefulOperator>
输出模式。
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支持流式传输视图。 原因:
有关详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
共享群集上的数据源 <source>
不支持流式处理选项 <options>
。 请确认选项已指定并拼写正确,并检查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 是否存在限制。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
不支持将数据源 <sink>
用作共享群集上的流式处理接收器。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
不支持将数据源 <source>
用作共享群集上的流式处理源。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
函数 <funcName>
不支持流式处理。 请删除 STREAM
关键字
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
Kinesis 源不支持 <streamReadLimit>
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支持的子查询表达式:
有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
不支持创建具有时序列的主键
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
不支持创建具有多个时序列 <colSeq>
的主键
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
Kinesis 源不支持 <trigger>
UNSUPPORTED_TYPED_LITERAL
不支持 <unsupportedType>
类型的文本。 支持的类型为<supportedTypes>
。
UNSUPPORTED_UDF_FEATURE
函数 <function>
使用以下需要较新版本的 Databricks 运行时的功能:<features>
。 请参阅 <docLink>
以了解详细信息。
UNTYPED_SCALA_UDF
你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。
Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType)
,NULL 输入的结果为 0。 若要消除此错误,可以:
- 使用类型化的 Scala UDF API(没有返回类型参数),例如
udf((x: Int) => x)
。 - 如果输入类型都是非基元,则使用 Java UDF API,例如
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。 - 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。
UPGRADE_NOT_SUPPORTED
表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:
有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
用户定义函数无效:
有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error()
函数用于引发错误类:<errorClass>
,需要参数:<expectedParms>
。
提供的参数 <providedParms>
与需要的参数不匹配。
请确保提供所有需要的参数。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
raise_error()
函数用于引发未知错误类:<errorClass>
VARIABLE_ALREADY_EXISTS
无法创建变量 <variableName>
,因为它已存在。
选择其他名称,或者删除或替换现有变量。
VARIABLE_NOT_FOUND
找不到 <variableName>
变量。 请验证架构和目录的拼写和正确性。
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS
。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
无法构造大于 16 MiB 的变体。 变体值的最大允许大小为 16 MiB。
VARIANT_DUPLICATE_KEY
由于对象键 <key>
重复,无法构建变体。
VARIANT_SIZE_LIMIT
无法在 <functionName>
中生成大于 <sizeLimit>
的变体。
请避免在此表达式中输入较大的字符串(例如,添加函数调用来检查表达式大小,如果太大,则首先将其转换为 NULL
)。
VIEW_ALREADY_EXISTS
无法创建视图 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS
子句以容许现有的对象。
VIEW_EXCEED_MAX_NESTED_DEPTH
视图 <viewName>
的深度超出了最大视图分辨率深度 (<maxNestedDepth>
)。
分析已中止以避免错误。 若要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。
VIEW_NOT_FOUND
找不到视图 <relationName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
。
VOLUME_ALREADY_EXISTS
无法创建卷 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS
子句以容许现有的对象。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
函数只能在具有单个偏移量的有序的基于行的窗口框架中进行计算:<windowExpr>
。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Window 函数 <funcName>
需要 OVER 子句。
WITH_CREDENTIAL
WITH CREDENTIAL
不支持 <type>
语法。
WRITE_STREAM_NOT_ALLOWED
只能在流式处理数据集/数据帧上调用 writeStream
。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
未能执行命令,因为将新列添加到先前存在的 Delta 表时,DEFAULT
值不受支持
请先添加没有默认值的列,
然后运行第二 ALTER TABLE ALTER COLUMN SET DEFAULT
个命令以应用
请求将来插入的行。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
未能执行 <commandType>
命令,因为它为某个列分配了 DEFAULT
值,
但未启用相应的表功能。 请在执行 ALTER TABLE tableName SET
执行 ALTER TABLE
tableName SET
后
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
操作 <operation>
需要 <requiredType>
。 但 <objectName>
是 <foundType>
。 请改用 <alternative>
。
WRONG_NUM_ARGS
<functionName>
需要 <expectedNum>
个参数,但实际数量为 <actualNum>
。
有关更多详细信息,请参阅 WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
读取 XML 格式的文件需要 <rowTag>
选项。
XML_UNSUPPORTED_NESTED_TYPES
XML 不支持 <innerDataType>
作为内部类型 <dataType>
。 在 <dataType>
中使用时,请将 <innerDataType>
包装在 StructType 字段中。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 列 <columnName>
不存在。
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
找不到活动的 SparkSession
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
无法添加列 <colName>
,因为名称是保留的。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
要添加列 <columnName>
的索引 <columnIndex>
小于 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
无法添加 <columnName>
,因为其父级不是 StructType。 已找到 <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
未在位置 <position>
处找到结构
DELTA_ADD_CONSTRAINTS
请使用 ALTER TABLE
ADD CONSTRAINT
添加 CHECK
约束。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
已找到 <sqlExpr>
。 生成的列不能使用聚合表达式
DELTA_AGGREGATION_NOT_SUPPORTED
<operation> <predicate>
中不支持聚合函数。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
无法更改列 <column>
的排序规则,因为它具有布隆筛选器索引。 请保留现有的排序规则,或者删除布隆筛选器索引,然后再次重试该命令,以更改排序规则。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
无法更改列 <column>
的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE
命令将列更改为非聚类分析列,然后再次重试该命令,以更改排序规则。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN
不支持将列 <currentType>
更改为 <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
只有使用 Liquid 聚类分析的 Delta 表支持使用 ALTER TABLE CLUSTER BY
。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY
不能应用于已分区表。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME
TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称 <newName>
的 Delta 表,可以通过将 <key>
设置为 true 来启用它。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
无法使用 <tableFeature>
启用 ALTER TABLE SET TBLPROPERTIES
表功能。 请使用 CREATE
或 REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
无法将 <column>
的数据类型从 <from>
更改为 <to>
。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
单独进行这些更改。
DELTA_AMBIGUOUS_PARTITION_COLUMN
不明确的分区列 <column>
可以是 <colMatches>
。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE
包含两个不同的位置:<identifier>
和 <location>
。
可以从 CREATE TABLE
语句中删除 LOCATION
子句,也可以设置
<config>
设置为 true 以跳过此检查。
DELTA_ARCHIVED_FILES_IN_LIMIT
表 <table>
不包含非存档文件中的足够记录,无法满足指定的 LIMIT
/<limit>
条记录)。
DELTA_ARCHIVED_FILES_IN_SCAN
在表 <table>
中找到 <numArchivedFiles>
个需要作为此查询的一部分扫描的可能已存档文件。
无法访问已存档的文件。 当前存档前时间配置为 <archivalTime>
。
请调整查询筛选器以排除所有已存档的文件。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
当表启用了更改数据馈送 (CDF) 并使用 <opName>
或 DROP COLUMN
进行了架构更改后,不允许执行操作“RENAME COLUMN
”。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
无法删除以下不存在的列的 Bloom 筛选器索引:<unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>
。
可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。
DELTA_CANNOT_CHANGE_DATA_TYPE
无法更改数据类型:<dataType>
DELTA_CANNOT_CHANGE_LOCATION
无法使用 SET TBLPROPERTIES
更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION
。
DELTA_CANNOT_CHANGE_PROVIDER
“provider”是保留的表属性,不能更改。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
无法为以下不存在的列创建 Bloom 筛选器索引:<unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
无法创建 <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
无法描述视图的历史记录。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
无法删除非索引列上的 bloom 筛选器索引:<columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
无法删除 CHECK
约束表功能。
必须先删除以下约束:<constraints>
。
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
无法删除排序规则表功能。
具有非默认排序规则的列必须更改为首先使用 UTF8_BINARY:<colNames>
。
DELTA_CANNOT_EVALUATE_EXPRESSION
无法计算表达式:<expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
无法生成表达式的代码:<expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
此表配置为仅允许追加。 如果要允许更新或删除,请使用“ALTER TABLE
<table_name>SET TBLPROPERTIES (<config>
=false)”。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法替代或取消设置提交中的时间戳表属性,因为在此表中启用了协调提交,并依赖于这些提交。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
用户无法指定 Delta 表配置 <prop>
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES
子句中删除它们(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.tableConf-preview”),然后再次重试该命令。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
在事务日志中找到无法转换为相对路径的 uri (<uri>
)。
DELTA_CANNOT_RELATIVIZE_PATH
一个无法通过事务日志中找到的当前输入相对化的 (<path>
)
路径 (
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
然后运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
无法将 <currentPath>
重命名为 <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
无法替换表 <tableName>
,因为它不存在。 使用 CREATE
或 REPLACE TABLE
创建表。
DELTA_CANNOT_RESOLVE_COLUMN
无法解析 <schema>
中的列 <columnName>
DELTA_CANNOT_RESTORE_TABLE_VERSION
无法将表还原到 <version>
版本。 可用版本:[<startVersion>
, <endVersion>
]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
无法将表还原到时间戳 (<requestedTimestamp>
),因为它早于可用的最早版本。 请使用晚于 (<earliestTimestamp>
) 的时间戳。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
无法将表还原到时间戳 (<requestedTimestamp>
),因为它在可用的最新版本之后。 请使用早于 (<latestTimestamp>
) 的时间戳
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法同时设置提交中的时间戳表属性与协调提交,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
无法更改基于路径的表的位置。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
无法在非 DLT 表上设置 delta.managedDataSkippingStatsColumns
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
无法取消设置协调提交配置。 若要从协调提交降级表,请再次使用 ALTER
TABLE [table-name] ``DROP FEATURE`` 'coordinatedCommits-preview'
。
DELTA_CANNOT_UPDATE_ARRAY_FIELD
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素
DELTA_CANNOT_UPDATE_MAP_FIELD
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射
DELTA_CANNOT_UPDATE_OTHER_FIELD
无法更新 <typeName>
类型的 <tableName>
字段
DELTA_CANNOT_UPDATE_STRUCT_FIELD
无法更新 <tableName>
字段 <fieldName>
类型:通过添加、删除或更新其字段来更新结构
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
无法将所有列用于分区列
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE 无法删除所有符合条件的文件,因为 Delta 日志未引用某些文件。 请运行 VACUUM FULL
。
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
是视图。 不支持对视图的写入。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
由于溢出,无法将 <sourceType>
类型值写入 <targetType>
类型列 <columnName>
。
对输入值使用 try_cast
以容许溢出并改为返回 NULL
。
如有必要,将 <storeAssignmentPolicyFlag>
设置为“LEGACY
”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag>
设置为 true 以还原旧行为,并遵循 <ansiEnabledFlag>
和 UPDATE
中的 MERGE
。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
由于数据架构不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readVersion>
中的 <readSchema>
,但我们发现版本 <incompatibleVersion>
中的数据架构不兼容。
如果可能,请通过将 <config>
设置为 endVersion
使用最终版本的架构来检索表更改,或者联系支持人员。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
由于架构更改不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readVersion>
中的 <readSchema>
,但我们发现版本 <incompatibleVersion>
中的架构更改不兼容。
如果可能,请分别将查询表从版本 <start>
更改为 <incompatibleVersion>
- 1,从版本 <incompatibleVersion>
更改为 <end>
。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则可能会发生这种情况。 此请求似乎针对更改数据馈送,如果是这样,当更改数据文件超出保留期并由 VACUUM
语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。
DELTA_CHECKPOINT_NON_EXIST_TABLE
无法为不存在的表 <path>
创建检查点。 是否手动删除了 _delta_log 目录中的文件?
DELTA_CLONE_AMBIGUOUS_TARGET
提供两条路径作为 CLONE
目标,因此使用哪条路径是不明确的。 在提供
路径的同时,还在 CLONE
处提供 <externalLocation>
的外部位置
<targetIdentifier>
。
DELTA_CLONE_INCOMPLETE_FILE_COPY
未完全复制文件 (<fileName>
)。 预期文件大小 <expectedSize>
,找到:<actualSize>
。 若要忽略文件大小检查以继续操作,请将 <config>
设置为 false。
DELTA_CLONE_UNSUPPORTED_SOURCE
克隆源“<name>
”不受支持 <mode>
,其格式为 <format>
。
支持的格式为“delta”、“iceberg”和“parquet”。
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
使用适用于 DBR 版本 CLONE
14.0 的 Liquid 聚类分析 的 Delta 表不支持 <。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
不支持 CLUSTER BY
,因为以下列 <columnsWithDataTypes>
不支持跳过数据。
DELTA_CLUSTERING_COLUMNS_MISMATCH
提供的聚类分析列与现有的表不匹配。
- 提供的:
<providedClusteringColumns>
- 现有的:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>
”:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
不允许从使用液体聚类分析的表目录创建不使用液体聚类分析的外部表;路径:<path>
。
DELTA_CLUSTERING_NOT_SUPPORTED
“<operation>
”不支持聚类分析。
DELTA_CLUSTERING_PHASE_OUT_FAILED
无法使用 <tableFeatureToAdd>
表功能完成表的 <phaseOutType>
(原因:<reason>
)。 请再次尝试 OPTIMIZE
命令。
== 错误 ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
不允许使用已分区表 REPLACE
使用 Liquid 聚类分析的 Delta 表。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
无任何聚类分析列的 Liquid 聚类分析 Delta 表不支持 SHOW CREATE TABLE
。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
当现有表具有非空聚类分析列时,不允许将具有 Liquid 聚类分析的 Delta 表转换为分区表来执行相关操作:<operation>
。
请首先运行 ALTER TABLE CLUSTER BY
NONE 以删除聚类分析列。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令不支持分区谓词。 请删除谓词:<predicates>
。
DELTA_CLUSTERING_WITH_ZORDER_BY
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令无法指定 ZORDER BY
。 请删除 ZORDER BY (<zOrderBy>
)。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid 聚类分析的 CLUSTER BY
最多支持 <numColumnsLimit>
个聚类分析列,但表中有 <actualNumColumns>
个聚类分析列。 请删除多余的聚类分析列。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
未定义架构时,不允许指定 CLUSTER BY
。 请定义表 <tableName>
的架构。
DELTA_CLUSTER_BY_WITH_BUCKETING
无法同时指定聚类分析和分桶。 如果要使用聚类分析创建 Delta 表,请删除 CLUSTERED BY INTO BUCKETS
/bucketBy。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
无法同时指定聚类分析和分区。 如果要使用聚类分析创建 Delta 表,请删除 PARTITIONED BY
/partitionBy/partitionedBy。
DELTA_COLLATIONS_NOT_SUPPORTED
Delta Lake 不支持排序规则。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
分区列“<column>
”不支持跳过数据。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
类型为 <type>
的列“<column>
”不支持跳过数据。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
未在启用列映射的表上设置最大列 ID 属性 (<prop>
)。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
启用列映射的表上的最大列 ID 属性 (<prop>
) 为 <tableMax>
,它不能小于所有字段的最大列 ID (<fieldMax>
)。
DELTA_COLUMN_MISSING_DATA_TYPE
未提供列 <colName>
的数据类型。
DELTA_COLUMN_NOT_FOUND
无法找到给定 [<columnList>
] 的 <columnName>
列
DELTA_COLUMN_NOT_FOUND_IN_MERGE
无法从 <targetCol>
列找到目标表的列“INSERT
”:<colNames>
。 INSERT
子句必须为目标表的所有列指定值。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
在下列位置无法找到 <columnName>
列:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
<columnPath>
应为嵌套数据类型,但找到的类型为 <other>
。 正在查找
嵌套字段中 <column>
的索引。
架构:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
结构列 <source>
无法插入到 <targetTable>
中的 <targetType>
字段 <targetField>
。
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
无法处理重定向表状态“<state>
”内表的提交。
DELTA_COMPACTION_VALIDATION_FAILED
路径 <compactedPath>
到 <newPath>
的压缩验证失败:请提交 bug 报告。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
在数据类型为 <dataType>
的 <columName>
列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException:已通过并发更新将文件添加到 <partition>
。 <retryMsg> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException:此事务尝试删除已由并发更新删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException:此事务尝试读取已由并发更新删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:当多个流式处理查询使用相同的检查点来写入此表时,会发生此错误。 是否同时运行了同一流式处理查询的多个实例?<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:自当前事务读取表以来,并发事务已写入新数据。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONFLICT_SET_COLUMN
这些 SET
列之间存在冲突:<columnList>
。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
在 <command>
期间,无法从命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中移除,然后再次重试该命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
在 <command>
期间,无法从 SparkSession 配置设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
来取消设置它,然后再次重试该命令。
DELTA_CONSTRAINT_ALREADY_EXISTS
约束“<constraintName>
”已存在。 请先删除旧约束。
旧约束:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下检查约束引用了此列:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下检查约束引用了此列:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
无法从表 <tableName>
中删除不存在的约束 <constraintName>
。 若要避免引发错误,请提供参数 IF EXISTS
或将 SQL 会话配置 <config>
设置为 <confValue>
。
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
不支持转换读取时合并 <format>
表:<path>
、<hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
在目录中找不到表 <tableName>
的分区信息。 你是否已对该表运行“MSCK REPAIR TABLE
”来发现分区?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
无法将已排序分区列 <colName>
的 Parquet 表转换为 Delta。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
使用 <mode>
TO CONVERT
时,无法将配置“<config>
”设置为 DELTA
。
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
找不到 <format>
表的不支持架构更改:<path>
、<hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
仅支持 Parquet 表,但你尝试转换 <sourceName>
源:<tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
无法在不收集统计信息的情况下启用行跟踪。
如果要启用行跟踪,请执行以下操作:
- 通过运行以下命令启用统计信息收集:
SET <statisticsCollectionPropertyKey>
= true
- 在没有 NO
CONVERT
选项的情况下运行DELTA
TOSTATISTICS
。
如果不需要收集统计信息,请禁用行跟踪:
- 通过运行以下命令停用默认启用表功能:
RESET <rowTrackingTableFeatureDefaultKey>
- 通过运行以下命令停用默认表属性:
SET <rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
目标必须是 Delta 表。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
你正在尝试使用 Delta 从以下位置创建外部表 <tableName>
:
<path>
创建外部表
未指定架构。
若要详细了解 Delta,请参阅 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
你正在尝试使用 Delta 从以下位置创建外部表 <tableName>
:
%2$s
创建外部表,但 %2$s/_delta_log 中不存在事务日志。
%2$s/_delta_log
。 检查上游作业,确保它正在使用
格式(“delta”)写入,并且该路径是表的根。
若要详细了解 Delta,请参阅 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
不支持创建具有不同位置的基于路径的 Delta 表。 标识符:<identifier>
,位置:<location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
必须指定表单名称或位置。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定的架构与位于 <path>
的现有架构不匹配。
== Specified ==
<specifiedSchema>
== Existing ==
<existingSchema>
== Differences ==
<schemaDifferences>
如果打算保留现有架构,可以
从 create table 命令省略该架构。 否则请确保
架构匹配。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
无法使用 <tableFeature>
启用 TBLPROPERTIES
表功能。 请使用 CREATE
或 REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定的聚类分析列与 <path>
的现有聚类分析列不匹配。
== Specified ==
<specifiedColumns>
== Existing ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定的分区与 <path>
处的现有分区不匹配。
== Specified ==
<specifiedColumns>
== Existing ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定的属性与 <path>
处的现有属性不匹配。
== Specified ==
<specifiedProperties>
== Existing ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
无法创建表(“<tableId>
”)。 关联的位置(“<tableLocation>
”)不为空,也不是 Delta 表。
DELTA_DATA_CHANGE_FALSE
无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>
”。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 可以在 Delta 的数据保留策略下删除此 parquet 文件。
默认数据保留持续时间:<logRetentionPeriod>
。 Prquet 文件的修改时间:<modificationTime>
。 Prquet 文件的删除时间:<deletionTime>
。 删除的 Delta 版本:<deletionVersion>
。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
提交删除向量缺少 numRecords 统计信息的文件是无效操作。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
检测到域 <domainNames>
的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
删除列的索引 <columnIndex>
低于 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
无法从具有单个列的架构中删除列。 架构:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
针对路径 <path>
多次指定了文件操作“<actionType>
”。
它与 <conflictingPath>
冲突。
单个提交中不能存在使用相同路径的多个文件操作。
DELTA_DUPLICATE_COLUMNS_FOUND
已找到重复列 <coltype>
:<duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT
子句中的重复列名
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
请在更新表之前删除重复的列。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
发现跳过列的重复数据:<columns>
。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
在表完整性验证期间,无法反序列化已删除的记录计数直方图。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
动态分区覆盖模式由会话配置或写入选项指定,但它已被 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
禁用。
DELTA_EMPTY_DATA
创建 Delta 表时使用的数据没有任何列。
DELTA_EMPTY_DIRECTORY
在以下目录中未找到任何文件:<directory>
。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
值“<value>
”超过了 char/varchar 类型长度限制。 检查失败:<expr>
。
DELTA_FAILED_CAST_PARTITION_VALUE
无法将分区值 <value>
强制转换为 <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
在现有目标输出 <targetOutputColumns>
中找不到 <newAttributeName>
DELTA_FAILED_INFER_SCHEMA
无法从给定的文件列表推断架构。
DELTA_FAILED_MERGE_SCHEMA_FILE
无法合并文件 <file>
的架构:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
无法读取文件的页脚:<currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
无法识别谓词“<predicate>
”
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
需要对最新版本的 Delta 源进行完全扫描,但找到了版本 <historicalVersion>
的历史扫描
DELTA_FAILED_TO_MERGE_FIELDS
未能合并字段“<currentField>
”和“<updateField>
”
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:<features>
。
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
需要手动为表架构启用以下表功能:<unsupportedFeatures>
。
为此,请对上面列出的每个功能运行以下命令:
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.feature.feature_name' = 'supported')
将“table_name”和“feature_name”替换为实际值。
当前支持的功能:<supportedFeatures>
。
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
由于检查点创建失败,删除 <featureName>
失败。
请稍后重试。” 如果该问题仍然存在,请联系 Databricks 支持部门。
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
无法删除功能,因为并发事务修改了表。
请重试此操作。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
无法删除表特征 <feature>
,因为此表中的一些其他特征 (<dependentFeatures>
) 依赖于 <feature>
。
在删除此特征之前,请考虑先删除它们。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
无法从此表中删除 <feature>
,因为它当前不存在于该表的协议中。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
无法删除 <feature>
,因为 Delta 日志包含使用该功能的历史版本。
请等到历史记录保持期 (<logRetentionPeriodKey>=<logRetentionPeriod>
)
是时间已经过去,自上次激活该功能以来。
或者,请等待 TRUNCATE HISTORY
保留期到期 (<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
特定功能不需要历史记录截断。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
无法删除 <feature>
,因为不支持删除此功能。
请联系 Databricks 支持人员。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
无法删除 <feature>
,因为此 Databricks 版本不支持它。
请考虑将 Databricks 与更高版本配合使用。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
删除 <feature>
部分成功。
当前版本的表中不再使用该功能。 但是,该功能
仍存在于表的历史版本中。 无法删除表功能
从表协议中,直到到这些历史版本已过期。
若要从协议中删除表功能,请等待历史版本
过期,然后重复此命令。 历史版本的保持期为
当前已配置为 <logRetentionPeriodKey>=<logRetentionPeriod>
。
或者,请等待 TRUNCATE HISTORY
保留期到期 (<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
无法启用表功能 <feature>
,因为它需要更高的读取器协议版本(当前为 <current>
)。 请考虑将表的读取器协议版本升级到 <required>
,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
无法启用表功能 <feature>
,因为它需要更高的编写器协议版本(当前为 <current>
)。 请考虑将表的编写器协议版本升级到 <required>
,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FILE_ALREADY_EXISTS
现有文件路径 <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
无法同时指定文件列表和模式字符串。
DELTA_FILE_NOT_FOUND
文件路径 <path>
DELTA_FILE_NOT_FOUND_DETAILED
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则会发生这种情况。 有关详细信息,请参阅 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
无此类文件或目录:<path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
未在候选文件中找到要重写的文件 (<path>
):
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
已找到 MapType。 若要访问 MapType 的键或值,请指定一个
:
<key>
或
<value>
后跟列的名称(仅当该列是结构类型时)。
例如 mymap.key.mykey
如果列是基本类型,mymap.key 或 mymap.value 就足够了。
架构:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下生成的列引用了此列:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下生成的列引用了此列:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成的列 <columnName>
的表达式类型为 <expressionType>
,但列类型为 <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
列 <currentName>
是生成的列或由生成的列使用的列。 数据类型为 <currentDataType>
,无法转换为数据类型 <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
的验证失败。
有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
列不支持 IDENTITY
。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY
不能对非 IDENTITY
列调用。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
不支持为 GENERATED ALWAYS
AS IDENTITY
列 <colName>
提供值。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
列步长不能为 0。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY
列仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
不支持列 PARTITIONED BY IDENTITY
列 <colName>
。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
具有 ALTER TABLE REPLACE COLUMNS
列的表不支持 IDENTITY
。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
<dataType>
列不支持 DataType IDENTITY
。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
不支持 UPDATE
列 IDENTITY
上的 <colName>
。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
不能使用生成的列表达式来指定 IDENTITY
列。
DELTA_ILLEGAL_OPTION
选项“<name>
”的值“<input>
”无效,<explain>
DELTA_ILLEGAL_USAGE
对 Delta 表执行 <operation>
时不允许使用 <option>
。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为:<expected>
。 实际为:<actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。
DELTA_INCORRECT_ARRAY_ACCESS
错误访问 ArrayType。 使用 arrayname.element.elementname 位置
添加到数组。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
已找到 ArrayType。 要访问 ArrayType 的元素,请指定
<rightName>
,而不是 <wrongName>
。
架构:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf()
而不是 `conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
该错误通常在使用 LogStore 默认实现
(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。
若要获取表更新的事务 ACID 保证,必须使用
适合你的存储系统的正确 LogStore 实现。
有关详细信息,请参阅<docLink>
。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
删除列的索引 <position>
等于或大于结构长度:<length>
DELTA_INDEX_LARGER_THAN_STRUCT
添加列 <columnName>
的索引 <index>
大于结构长度:<length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
无法写入“<tableName>
”,<columnName>
;目标表具有 <numColumns>
列,但插入的数据具有 <insertColumns>
列
DELTA_INSERT_COLUMN_MISMATCH
在 <columnName>
中未指定列 INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
自动压缩类型无效:<value>
。 允许的值为:<allowed>
。
DELTA_INVALID_BUCKET_COUNT
无效桶计数:<invalidBucketCount>
。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>
。
DELTA_INVALID_BUCKET_INDEX
无法在分区列中找到 Bucket 列
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
间隔不能为 null 或空白。
DELTA_INVALID_CDC_RANGE
从起始值 <start>
到结束值 <end>
的 CDC 范围无效。 结束值不能早于起始值。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
属性名称“<columnName>
”包含无效字符“,;{}()\n\t=”。 请使用别名对其进行重命名。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
在架构列名的“,;{}()\n\t=”中发现无效字符。
无效的列名:<invalidColumnNames>
。
请使用其他字符,然后重试。
或者,启用列映射以继续使用这些字符。
DELTA_INVALID_CLONE_PATH
CLONE
的目标位置需要是绝对路径或表名。 使用
绝对路径而不是 <path>
。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
在架构列名的“,;{}()\n\t=”中发现无效字符。
无效的列名:<invalidColumnNames>
。
如果列名中存在无效字符,则无法删除列映射。
请重命名列以删除该无效字符,然后再次执行此命令。
DELTA_INVALID_FORMAT
检测到不兼容的格式。
在 <deltaRootPath>
/_delta_log`` 处找到 Delta 的事务日志,
但你正在尝试使用 format("<format>
") 执行 <operation> <path>
。 读取和写入 Delta 表时
必须使用“format("delta")”。
若要详细了解 Delta,请参阅 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成的列不能使用不存在的列或其他生成的列
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
幂等 Dataframe 写入的选项无效:<reason>
DELTA_INVALID_INTERVAL
<interval>
不是有效的 INTERVAL
。
DELTA_INVALID_INVENTORY_SCHEMA
指定的 INVENTORY
的架构未包含所有必填字段。 必填字段为:<expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
无效隔离级别“<isolationLevel>
”
DELTA_INVALID_LOGSTORE_CONF
无法同时设置 <classConfig>
和 <schemeConfig>
。 请仅设置其中一组。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
你正在尝试使用 Delta 创建托管表 <tableName>
但未指定架构。
若要详细了解 Delta,请参阅 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
不是表 <tableName>
中的有效分区列。
DELTA_INVALID_PARTITION_COLUMN_NAME
在“,;{}()nt=”中找到包含无效字符的分区列。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。
DELTA_INVALID_PARTITION_COLUMN_TYPE
不支持使用 <dataType>
类型的 <name>
列作为分区列。
DELTA_INVALID_PARTITION_PATH
分区路径片段的形式应为 part1=foo/part2=bar
。 分区路径:<path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
协议版本无法从 <oldProtocol>
降级到 <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
不支持的 Delta 协议版本:表“<tableNameOrPath>
”需要读取器版本 <readerRequired>
和写入器版本 <writerRequired>
,但此版本的 Databricks 支持读取器版本 <supportedReaders>
和写入器版本 <supportedWriters>
。 请升级到较新版本。
DELTA_INVALID_TABLE_VALUE_FUNCTION
函数 <function>
是不支持用于 CDC 读取的表值函数。
DELTA_INVALID_TIMESTAMP_FORMAT
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
DELTA_LOG_ALREADY_EXISTS
Delta 日志已存在于 <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
<tableName>
缺少具体化行 <rowTrackingColumn>
列名称。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
请使用小于 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
此提交失败,因为它已尝试 <numAttempts>
次,但均未成功。
这可能是由多个并发提交连续提交 Delta 表
造成的。
提交开始于版本:<startVersion>
提交失败的版本:<failVersion>
尝试提交的操作数:<numActions>
尝试此提交所花费的总时间:<timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
文件列表必须最多有 <maxFileListSize>
个条目,实际有 <numFiles>
个。
DELTA_MERGE_ADD_VOID_COLUMN
无法添加类型为 VOID 的列 <newColumn>
。 请显式指定非 void 类型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
未能合并不兼容的数据类型 <currentDataType>
和 <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
无法将十进制类型与不兼容的 <decimalRanges>
合并
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
使 MERGE
语句的源保持具体化状态反复失败。
DELTA_MERGE_MISSING_WHEN
WHEN
语句中必须至少包含一个 MERGE
子句。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
运算符 <merge>
中的 <input>
缺失已解析属性 <missingAttributes>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
意外分配密钥:<unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
无法解析给定 <cols>
中 <clause>
的 <sqlExpr>
。
DELTA_METADATA_CHANGED
MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_MISSING_CHANGE_DATA
获取 [<startVersion>
, <endVersion>
] 范围的更改数据时出错,因为未记录
版本 [<version>
] 的更改数据。 如果在此表上启用了更改数据馈送,
请使用 DESCRIBE HISTORY
查看它首次启用的时间。
否则,若要开始记录更改数据,请使用 ALTER
TABLE` table_name SET TBLPROPERTIES
(<key>
=true)`。
DELTA_MISSING_COLUMN
无法在表列中找到 <columnName>
:<columnList>
DELTA_MISSING_COMMIT_INFO
此表启用了特征 <featureName>
,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version>
中缺少 CommitInfo 操作。
DELTA_MISSING_COMMIT_TIMESTAMP
此表启用了特征 <featureName>
,这要求 CommitInfo 操作中存在 commitTimestamp。 但是,提交版本 <version>
中尚未设置此字段。
DELTA_MISSING_DELTA_TABLE
<tableName>
不是 Delta 表。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
表不存在。 首先使用 CREATE TABLE <tableName>
创建空的 Delta 表。
DELTA_MISSING_ICEBERG_CLASS
找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。
有关更多详细信息,请参阅 <docLink>
。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
写入表中的数据中缺失具有 <columnName>
约束的 NOT NULL
列。
DELTA_MISSING_PARTITION_COLUMN
在架构 <columnList>
中找不到分区列 <columnName>
DELTA_MISSING_PART_FILES
找不到检查点版本的所有组成部分文件:<version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT
TO DELTA
仅支持 parquet 表。 请将目标重写为 Parquet。如果它是 Parquet 目录,则为 <path>
DELTA_MISSING_SET_COLUMN
SET
列 <columnName>
没有找到给定列:<columnList>
。
DELTA_MISSING_TRANSACTION_LOG
检测到不兼容的格式。
你正在尝试使用 Delta 执行 <operation> <path>
,但没有
事务日志。 检查上游作业,确保它正在使用
format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。
若要详细了解 Delta,请参阅 <docLink>
DELTA_MODE_NOT_SUPPORTED
不支持指定模式“<mode>
”。 支持的模式包括:<supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
为 CDC 读取提供的多个 <startingOrEnding>
参数。 请提供一个 <startingOrEnding>
时间戳或 <startingOrEnding>
版本。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
传递给列命令的多个 bloom 筛选器索引配置:<columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
无法执行合并,因为多个源行匹配并尝试
以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,
当多个源行在同一目标行上匹配时,结果可能是不明确的,
因为不清楚应该使用哪一个源行来更新或删除匹配的
目标行。 你可以预处理源表来消除
出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在 <command>
期间,两个协调提交配置(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>
”。 请在 TBLPROPERTIES
子句中指定此配置或移除其他配置,然后再次重试该命令。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
在 <command>
期间,两个协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>
”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
以下列名仅限 Delta Bucket 表内部使用:<names>
DELTA_NESTED_FIELDS_NEED_RENAME
输入架构包含大小写与目标表不同的嵌套字段。
需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。
字段:
<fields>
。
原始架构:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
字段 <parent>
的 <nestType>
类型包含 NOT NULL
约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL
约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 <configKey>
= true。
分析的 <nestType>
类型:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
<operation>
条件不支持嵌套子查询。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<tableName>
中有 <numRows>
行违反新的 CHECK
约束 (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<tableName>
中有 <numRows>
行违反 NOT NULL
上的新 <colName>
约束
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK
约束“<name>
”(<expr>
) 应是一个布尔表达式。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
已找到 <expr>
。 生成的列不能使用非确定性表达式。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
<operation> <expression>
中不支持非确定性函数
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略该条件。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略该条件。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
当 NOT MATCHED
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED
子句可以省略该条件
DELTA_NON_PARSABLE_TAG
无法分析标记 <tag>
。
文件标记为:<tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
写入 Delta 的数据需要包含至少一个非分区列。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
谓词引用非分区列“<columnName>
”。 只能引用分区列:[<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
指定了非分区列 <columnList>
,但只能指定分区列:<fragment>
。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta 目录需要一个单部分命名空间,但 <identifier>
是多部分命名空间。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
不是 Delta 表。 如果要使用 Databricks Delta 创建表,请先删除此表。
DELTA_NOT_A_DELTA_TABLE
<tableName>
不是 Delta 表。 如果要使用 Delta Lake 重新创建表,请先删除此表。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
未在结构中找到不可为 null 的列:<struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
列违反了 NOT NULL
约束:<columnName>
。
DELTA_NOT_NULL_NESTED_FIELD
不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 null 性。
DELTA_NO_COMMITS_FOUND
未在 <logPath>
处找到提交
DELTA_NO_RECREATABLE_HISTORY_FOUND
在 <logPath>
处找不到可重新创建的提交
DELTA_NO_REDIRECT_RULES_VIOLATED
不允许的操作:不能对具有重定向功能的表执行 <operation>
。
没有一项重定向规则未得到满足 <noRedirectRules>
。
DELTA_NO_RELATION_TABLE
找不到表 <tableIdent>
DELTA_NO_START_FOR_CDC_READ
没有为 CDC 读取提供 startingVersion 或 startingTimestamp。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta 不接受在架构中使用 NullTypes 进行流写入。
DELTA_ONEOF_IN_TIMETRAVEL
请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。
DELTA_ONLY_OPERATION
<operation>
仅支持用于 Delta 表。
DELTA_OPERATION_MISSING_PATH
请为 <operation>
提供路径或表标识符。
DELTA_OPERATION_NOT_ALLOWED
不允许操作:Delta 表不支持 <operation>
DELTA_OPERATION_NOT_ALLOWED_DETAIL
不允许的操作:不支持对 Delta 表执行 <operation>
:<tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
具有非默认排序规则 <collation>
的列 <colName>
不支持 <operation>
。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
表达式 <exprText>
不支持 <operation>
,因为它使用非默认排序规则。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation>
命令。 请直接对 Delta 表运行 <operation>
命令
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
不允许执行操作:不能对视图执行 <operation>
。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
只有具有非空聚类分析列的聚类分析表才支持 OPTIMIZE FULL
。
DELTA_OVERWRITE_MUST_BE_TRUE
如果不设 OVERWRITE
= 'true',则无法指定复制选项 overwriteSchema。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
“overwriteSchema”不能在动态分区覆盖模式下使用。
DELTA_PARTITION_COLUMN_CAST_FAILED
未能将分区列 <columnName>
的值 <value>
强制转换为 <dataType>
DELTA_PARTITION_COLUMN_NOT_FOUND
在架构 [<schemaMap>
] 中找不到分区列 <columnName>
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。
DELTA_PATH_DOES_NOT_EXIST
<path>
不存在或不是 Delta 表。
DELTA_PATH_EXISTS
如果不设置 <path>
= 'true',则无法写入已存在的路径 OVERWRITE
。
DELTA_POST_COMMIT_HOOK_FAILED
可成功提交 Delta 表版本 <version>
,但在执行提交后挂钩 <name> <message>
时出错
DELTA_PROTOCOL_CHANGED
ProtocolChangedException:Delta 表的协议版本已由并发更新更改。 <additionalInfo> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_PROTOCOL_PROPERTY_NOT_INT
协议属性 <key>
需是整数。 已找到 <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion>
才能继续。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_READ_TABLE_WITHOUT_COLUMNS
尝试读取没有任何列的 Delta 表 <tableName>
。
使用 mergeSchema = true
选项写入一些新数据,以便能够读取表。
DELTA_REGEX_OPT_SYNTAX_ERROR
请重新检查“<regExpOption>
”的语法
DELTA_REPLACE_WHERE_IN_OVERWRITE
不能将 replaceWhere 与“按筛选器覆盖”结合使用
DELTA_REPLACE_WHERE_MISMATCH
写入的数据不符合部分表覆盖条件或约束“<replaceWhere>
”。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:<dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
无法分配缺少行计数统计信息的行 ID。
通过在 Scala 笔记本中运行以下代码来收集表的统计信息,然后重试:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
在版本 <version>
中检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。 如果该问题在更改为
新的检查点目录后仍然出现,你可能需要更改现有的
“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录
从高于 <version>
的版本重新开始。
DELTA_SCHEMA_CHANGED_WITH_VERSION
在版本 <version>
中检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
自创建 DataFrame 或 DeltaTable 对象以来,
Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。
更改:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
未提供表架构。 使用 REPLACE
表且未提供 AS SELECT
查询时,请提供表的架构(列定义)。
DELTA_SCHEMA_NOT_SET
表架构未设置。 将数据写入其中或使用 CREATE TABLE
设置架构。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新 Delta 位置的架构不同于当前表架构。
原始架构:
<original>
目标架构:
<destination>
如果这是预期更改,可以通过运行以下内容来关闭此检查:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
无法修改以 <prefix>
开头的预定义属性。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
数据受收件人属性 <property>
的限制,此属性不适用于会话中的当前收件人。
有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
不能在跨帐户共享的增量共享视图中使用 <operation>
。
DELTA_SHARING_INVALID_PROVIDER_AUTH
提供程序 <provider>
的身份验证类型 <authenticationType>
非法。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
收件人 <recipient>
的身份验证类型 <authenticationType>
非法。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
引用共享内 <type>
的名称无效。 可以按照 [schema].[<type>
] 格式在共享中使用 <type>
的名称,也可以按照 [catalog].[schema].[>type>] 格式使用表的原始全名。
如果不确定要使用的名称,则可以运行“SHOW ALL IN SHARE
[share]”,并找到要移除的 <type>
名称:列“name”是共享中 <type>
的名称,列“shared_object”是 <type>
的原始全名。
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
收件人 <recipient>
有多个令牌。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
收件人属性 <property>
不存在。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
收件人 <recipient>
中缺少收件人令牌。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
为 <badCols>
指定了非分区列 SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
在未分区的表上不允许 SHOW PARTITIONS
:<tableName>
DELTA_SOURCE_IGNORE_DELETE
在版本 <version>
的流源中检测到已删除的数据(例如 <removedFile>
)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在路径 <dataPath>
中找到。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
在版本 <version>
的源表中检测到数据更新(例如 <file>
)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询,或者如果你使用的是 DLT,请进行完全刷新。 如果需要处理这些更改,请切换到 MV。 源表可以在路径 <dataPath>
中找到。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
请提供“<version>
”或“<timestamp>
”
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
在 Parquet 元数据中找不到列的 <statsType>
统计信息:<columnPath>
。
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
我们检测到 Delta 流式处理源中 Delta 版本 <previousSchemaChangeVersion>
与 <currentSchemaChangeVersion>
之间的一个或多个非累加架构更改 (<opType>
)。
在我们使用 <currentSchemaChangeVersion>
处的最终架构继续进行流处理之前,请检查是否要手动将架构更改传播到接收器表。
修复接收器表的架构或确定无需修复后,可以设置以下 SQL 配置之一,以解除阻止非累加架构更改并继续进行流处理。
若要仅针对此系列架构更改解除阻止此特定流,请设置 <allowCkptVerKey> = <allowCkptVerValue>
。
若要解除阻止此特定流,请设置 <allowCkptKey> = <allowCkptValue>
若要解除阻止所有流,请设置 <allowAllKey> = <allowAllValue>
。
或者,在适用的情况下,可以在 SQL 配置中将 <allowAllMode>
替换为 <opSpecificMode>
,以便仅解除阻止此架构更改类型的流。
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>
”设置为“true”来强制启用流式读取,但需自负风险。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。
有关解决此问题的更多信息和可能的后续步骤,请查看 <docLink>
上的文档
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。
请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。
有关详细信息,请参阅 <docLink>
。
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_METADATA_EVOLUTION
Delta 表的架构、表配置或协议在流式处理期间已更改。
架构或元数据跟踪日志已更新。
请重启流以使用更新的元数据继续处理。
更新的架构:<schema>
。
更新的表配置:<config>
。
更新的表协议:<protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
使用架构跟踪从源表 <tableId>
进行流式处理不支持行筛选器或列掩码。
请删除行筛选器或列掩码,或禁用架构跟踪。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
从位于“<table>
”的表流式传输时检测到有冲突的架构位置“<loc>
”。
另一个流可能正在重用相同的架构位置,这是不允许的。
请为此表中的某个流提供新的唯一 schemaTrackingLocation
路径或 streamingSourceTrackingId
作为读取器选项。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
架构位置“<schemaTrackingLocation>
”必须放在检查点位置“<checkpointLocation>
”下。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
“<location>
”处的 Delta 流式处理源架构日志中的日志文件不完整。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。
持久化表 ID:<persistedId>
,表 ID:<tableId>
架构日志可能已重复使用。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
尝试读取 Delta 流时检测到不兼容的分区架构。
持久化架构:<persistedSchema>
,Delta 分区架构:<partitionSchema>
如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
无法初始化 Delta 流式处理源架构日志,因为
在提供从表版本 <a>
到 <b>
的流式处理批时,我们检测到不兼容的架构或协议更改。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
无法从 Delta 流式处理源架构日志分析架构。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
无法对表启用变更数据捕获。 表已包含
保留的列 <columnList>
,
这些列将在内部用作表的更改数据馈送的元数据。 若要为
表上的更改数据馈送将重命名/删除这些列。
DELTA_TABLE_ALREADY_EXISTS
表 <tableName>
已存在。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
DeltaTable.forPath 目前仅支持以 <allowedPrefixes>
开头的 hadoop 配置键,但获取的键为 <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
<tableLocation>
处的 Delta 表已替换,但此命令使用的是该表。
表 ID 之前为 <oldId>
,但现在为 <newId>
。
请重试当前命令,确保它读取的是一致的表视图。
DELTA_TABLE_LOCATION_MISMATCH
现有表 <tableName>
的位置为 <existingTableLocation>
。 它与指定的位置 <tableLocation>
不匹配。
DELTA_TABLE_NOT_FOUND
Delta 表 <tableName>
不存在。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
表在 <operation>
中不受支持。 请改用路径。
DELTA_TABLE_ONLY_OPERATION
<tableName>
不是 Delta 表。 <operation>
仅支持用于 Delta 表。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
目标表最终架构为空。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
提供的时间戳 (<providedTimestamp>
) 晚于此
表 (<tableName>
) 可用的最新版本。 请使用早于或等于 <maximumTimestamp>
的时间戳。
DELTA_TIMESTAMP_INVALID
提供的时间戳 (<expr>
) 无法转换为有效时间戳。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
需是有效的开始值。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
:由于手动删除或日志保留策略 (<logRetentionKey>=<logRetention>
) 和检查点保留策略 (<checkpointRetentionKey>=<checkpointRetention>
) 导致事务日志被截断,无法在版本 <version>
中重构状态
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
不允许操作:Delta 表上的 TRUNCATE TABLE
不支持分区谓词;使用 DELETE
删除特定的分区或行。
DELTA_UDF_IN_GENERATED_COLUMN
已找到 <udfExpr>
。 生成的列不能使用用户定义的函数
DELTA_UNEXPECTED_ACTION_EXPRESSION
意外的操作表达式 <expression>
。
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
需要 <expectedColsSize>
分区列 <parsedColsSize>
,但通过分析文件名 <path>
找到了 <expectedCols>
分区列 <parsedCols>
DELTA_UNEXPECTED_PARTIAL_SCAN
应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
需要分区列 <expectedCol>
,但通过分析文件名 <path>
找到了分区列 <parsedCol>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
用于调用CONVERT
TO DELTA
的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。
目录分区架构:
<catalogPartitionSchema>
提供的分区架构:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
无法更改 delta.universalFormat.compatibility.location。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location 未在目录中注册。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
统一兼容性格式的位置缺失或无效。 请为 delta.universalFormat.compatibility.location 设置空目录。
失败的原因:
有关更多详细信息,请参阅 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
具有 Delta Uniform 的 Read Iceberg 的失败。
有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
不支持创建或刷新统一入口表。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
不支持格式 <fileFormat>
。 仅支持作为原始文件格式的 iceberg。
DELTA_UNIFORM_NOT_SUPPORTED
仅 Unity Catalog 表支持通用格式。
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
标识符 SYNC UNIFORM
不受支持,原因如下:
有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
托管的 Iceberg 表不支持具有 REFRESH TABLE
的 METADATA_PATH
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
未能将表版本 <version>
转换为通用格式 <format>
。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
通用格式 (<format>
) 验证失败:<violation>
DELTA_UNKNOWN_CONFIGURATION
指定了未知配置:<config>
DELTA_UNKNOWN_PRIVILEGE
未知特权:<privilege>
DELTA_UNKNOWN_READ_LIMIT
未知 ReadLimit:<limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
无法识别的列更改 <otherClass>
。 运行的 Delta Lake 版本可能已过时。
DELTA_UNRECOGNIZED_INVARIANT
无法识别的不变量。 请升级 Spark 版本。
DELTA_UNRECOGNIZED_LOGFILE
无法识别的日志文件 <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
尝试取消设置表 <tableName>
中不存在的属性“<property>
”
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
不支持使用绝对路径添加文件
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
不支持将列 <fieldPath>
从 <oldField>
更改为 <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
不支持的 ALTER TABLE REPLACE COLUMNS
操作。 原因:<details>
无法将架构从
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
你尝试将现有表 (REPLACE
) <tableName>
为 CLONE
。 此操作
不受支持。 尝试使用其他 CLONE
目标位置或删除当前目标位置中的表。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
不支持将列映射模式从“<oldMode>
”更改为“<newMode>
”。
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
当前表协议版本不支持使用
使用 <config>
。
列映射所需的 Delta 协议版本:
<requiredVersion>
表的当前 Delta 协议版本:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
检测到架构更改:
旧架构:
<oldTableSchema>
新架构:
<newTableSchema>
在更改列映射模式期间不允许更改架构。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
不支持使用列映射模式写入数据。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
不支持在类型为 <dataType>
的列上创建 bloom 筛选器索引:<columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
无法向 <fieldPath>
添加注释。 不支持向映射键/值或数组元素添加注释。
DELTA_UNSUPPORTED_DATA_TYPES
发现有列使用不受支持的数据类型:<dataTypeList>
。 可以将“<config>
”设置为“false”以禁用类型检查。 禁用此类型检查后,用户可以创建不受支持的 Delta 表,并且仅应在尝试读取/写入旧表时使用此选项。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
不能是生成的列的结果
DELTA_UNSUPPORTED_DEEP_CLONE
此 Delta 版本不支持深度克隆。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
是视图。 DESCRIBE DETAIL
仅支持用于表。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
不允许删除群集列 (<columnList>
)。
DELTA_UNSUPPORTED_DROP_COLUMN
Delta 表不支持 DROP COLUMN
。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
只能从 StructType 中删除嵌套列。 已找到 <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
不允许删除分区列 (<columnList>
)。
DELTA_UNSUPPORTED_EXPRESSION
<causedBy>
不支持的表达式类型 (<expType>
)。 支持的类型为 [<supportedTypes>
]。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
无法在生成的列中使用 <expression>
DELTA_UNSUPPORTED_FEATURES_FOR_READ
不支持的 Databricks 读取功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
不支持的 Databricks 写入功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>
。
DELTA_UNSUPPORTED_FEATURE_STATUS
预期表功能 <feature>
的状态是“supported”,但却是“<status>
”。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <dataType>
的 <columnName>
的字段。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
缺少删除向量文件的表版本不支持“FSCK REPAIR TABLE
”命令。
请联系客户支持。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
包含删除向量的表版本不支持“GENERATE
symlink_format_manifest”命令。
若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE
table APPLY (PURGE
)”。 然后,重新运行“GENERATE
”命令。
请确保没有并发事务再次在 REORG
和 GENERATE
之间添加删除向量。
如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE
表 SET TBLPROPERTIES
(delta.enableDeletionVectors = false)”禁用此表中的删除向量。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支持 StructType 以外的嵌套字段上的不变量。
DELTA_UNSUPPORTED_IN_SUBQUERY
<operation>
条件中不支持 In 子查询。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix 不可用
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
带有架构演变的 MERGE INTO
操作目前不支持写入 CDC 输出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<operation>
条件中不支持多列 In 谓词。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
目前不支持在嵌套列 <columnName>
上创建 bloom 筛选器索引
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
<operation>
中不支持嵌套字段(字段 = <fieldName>
)。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
克隆目标表不为空。 请在运行 CLONE
前 TRUNCATE
或 DELETE FROM
表。
DELTA_UNSUPPORTED_OUTPUT_MODE
数据源 <dataSource>
不支持 <mode>
输出模式
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
不支持在分区列 <columnName>
上创建 bloom 筛选器索引
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta 表不支持列重命名。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta 不支持在读取时指定架构。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
Delta Bucket 表不支持 SORTED BY
DELTA_UNSUPPORTED_SOURCE
<operation>
目标仅支持 Delta 源。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
目前在插入期间不支持在分区规格中指定静态分区
DELTA_UNSUPPORTED_STRATEGY_NAME
不支持的策略名称:<strategy>
DELTA_UNSUPPORTED_SUBQUERY
<operation>
(条件 = <cond>
)中不支持子查询。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
分区谓词中不支持子查询。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
无法以多种格式指定“按时间顺序查看”。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
无法按时间顺序查看视图、子查询、流或更改数据馈送查询。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
不支持截断示例表
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
由于应用了不支持的类型更改,无法对此表执行操作。 字段 <fieldName>
已从 <fromType>
更改为 <toType>
。
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
清空 Delta 表时,请提供基本路径 (<baseDeltaPath>
)。 目前不支持清空特定分区。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
表实现不支持写入操作:<tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
您正尝试对已向提交协调器 <coordinatorName>
注册的表执行写入操作。 但是,当前环境中不提供此协调器实现,而且不允许在没有协调器的情况下进行写入。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支持写入示例表
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
无法将 <fromCatalog>
强制转换为 <toCatalog>
。 所有嵌套列必须匹配。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
数据文件上的 VACUUM
成功,但 COPY INTO
状态垃圾回收失败。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本 (<versionList>
) 不是连续的。
有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
具有值的行违反了CHECK
约束 <constraintName> <expression>
:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
违反了表 <table>
的属性验证:
有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
是视图。 不能将数据写入视图。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
数据架构中不存在 Z 排序列 <columnName>
。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
<cols>
上的 Z 排序将
无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的
<link>
有关数据跳过和 Z 排序的详细信息。 可以通过
设置“%%sql set = false”
'%%sql set <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
是分区列。 只能对数据列执行 Z 排序
增量共享
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE:未分配
找不到激活 nonce。 使用的激活链接无效或已过期。 重新生成激活链接,然后重试。
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE:未分配
不支持在 <regionHint>
区域和其外部的区域外部共享。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE:未分配
使用 current_recipient
函数定义的视图仅用于共享,只能从数据接收方查询。 提供的具有 ID <securableId>
的安全对象不是增量共享视图。
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE:未分配
提供的安全对象类型 <securableKind>
在增量共享中不支持可变性。
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未分配
提供的安全对象类型 <securableKind>
不支持轮换商城服务发起的令牌操作。
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE:未分配
<dsError>
:在提供程序实体 <providerEntity>
中不可用的身份验证类型。
DS_CDF_NOT_ENABLED
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 未在原始增量表上启用 CDF。 请联系你的数据提供程序。
DS_CDF_NOT_SHARED
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 CDF 不在表上共享。 请联系你的数据提供程序。
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE:未分配
<dsError>
:云供应商暂时不可用于 <rpcName>
,请重试。<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE:未分配
<dsError>
:从组织 <orgId>
运行 <runId>
的数据具体化任务在命令 <command>
中失败
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE:未分配
<dsError>
:从组织 <orgId>
运行 <runId>
的数据具体化任务不支持命令 <command>
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE:未分配
<dsError>
:找不到用于创建 <tableName>
具体化的有效命名空间。 请联系数据提供程序修复此问题。
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE:未分配
<dsError>
:从组织 <orgId>
运行 <runId>
的数据具体化任务不存在
DS_DELTA_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE:未分配
<dsError>
:找不到检查点版本的所有组成部分文件:<version>
。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未分配
<dsError>
:提供的安全对象类型 <securableKind>
不支持使商城服务发起的令牌操作过期。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_FILE_LISTING_EXCEPTION
SQLSTATE:未分配
<dsError>
:<storage>
:<message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE:未分配
<dsError>
:<rpcName>
的网络连接不可靠,请重试。<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE:未分配
<dsError>
:<message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE:未分配
<dsError>
:<key>
不是调用方设置的。
DS_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_AZURE_PATH
SQLSTATE:未分配
<dsError>
:无效的 Azure 路径:<path>
。
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_FIELD
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_PARTITION_SPEC
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE:未分配
<dsError>
:<schema>
的查询失败。共享 <share>
中的 <table>
。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE:未分配
<dsError>
:<schema>
的查询超时。共享中的 <timeoutInSec>
在 <table>
秒后 <share>
。
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE:未分配
<dsError>
:查询 <schema>
时需要幂等密钥。共享中的 <table>
异步 <share>
。
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE:未分配
<dsError>
:请仅提供以下项之一:<parameters>
。
DS_NO_METASTORE_ASSIGNED
SQLSTATE:未分配
<dsError>
:未为当前工作区分配元存储(workspaceId:<workspaceId>
)。
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE:未分配
<dsError>
:分页或查询参数不匹配。
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE:未分配
<dsError>
:共享表上重命名的分区列 [<renamedColumns>
]。 请联系数据提供程序修复此问题。
DS_QUERY_BEFORE_START_VERSION
SQLSTATE:未分配
<dsError>
:只能查询自版本 <startVersion>
以来的表数据。
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE:未分配
<dsError>
:在 <numIter>
次迭代中进行 <queryType>
此更新后,在处理 <tableName>
上的 <numActions>
时发生超时。<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE:未分配
<dsError>
:<message>
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_RESOURCE_EXHAUSTED
SQLSTATE:未分配
<dsError>
:<resource>
超出限制:[<limitSize>
]<suggestion>
。<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE:未分配
<dsError>
:除非在 <tableName>
上共享历史记录,否则不允许进行时间旅行查询。 请联系你的数据提供程序。
DS_UNAUTHORIZED
SQLSTATE:未分配
<dsError>
:未授权。
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE:未分配
<dsError>
:未授权的 D2O OIDC 收件人:<message>
。
DS_UNKNOWN_EXCEPTION
SQLSTATE:未分配
<dsError>
:<traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE:未分配
<dsError>
:<schema>
的未知查询 ID <queryID>
。共享 <share>
中的 <table>
。
DS_UNKNOWN_QUERY_STATUS
SQLSTATE:未分配
<dsError>
:<schema>
的查询 ID <queryID>
的未知查询状态。共享 <share>
中的 <table>
。
DS_UNKNOWN_RPC
SQLSTATE:未分配
<dsError>
:未知 rpc <rpcName>
。
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE:未分配
<dsError>
:增量协议读取器版本 <tableReaderVersion>
高于 <supportedReaderVersion>
,在增量共享服务器中不能受到支持。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE:未分配
<dsError>
:在表 <versionStr> <historySharingStatusStr> <optionStr>
中找到表功能 <tableFeatures>
DS_UNSUPPORTED_OPERATION
SQLSTATE:未分配
<dsError>
:<message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE:未分配
<dsError>
:不支持的存储架构:<scheme>
。
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE:未分配
<dsError>
:无法检索 <schema>
。共享 <share>
中的 <table>
,因为具有类型 [<tableType>
] 的表目前在增量共享协议中不受支持。
DS_USER_CONTEXT_ERROR
SQLSTATE:未分配
<dsError>
:<message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE:未分配
<dsError>
:视图共享查询中不允许使用以下函数:<functions>
。
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE:未分配
<dsError>
:未设置工作区 <workspaceId>
域。
DS_WORKSPACE_NOT_FOUND
SQLSTATE:未分配
<dsError>
:未找到工作区 <workspaceId>
。
自动换带机
CF_ADD_NEW_NOT_SUPPORTED
指定了架构时不支持架构演变模式 <addNewColumnsMode>
。 若要使用此模式,可以通过 cloudFiles.schemaHints
提供架构。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
找到了(默认)目录列表模式的通知设置
身份验证选项:
<options>
如果要使用文件通知模式,请显式设置:
.option("cloudFiles.<useNotificationsKey>
", "true")
如果要跳过选项验证步骤并忽略这些
身份验证选项,也可以设置:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量列表模式 (cloudFiles.<useIncrementalListingKey>
)
和文件通知 (cloudFiles.<useNotificationsKey>
)
已同时启用。
请确保仅选择一个。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH
文件事件 <fileEvent>
中的 <storeType>
与源 <source>
所预期的不同。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
架构日志为空时无法演变架构。 架构日志位置:<logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
无法分析以下队列消息:<message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
无法从路径 <path>
解析容器名称,解析的 URI 为 <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
当有异步回填线程在运行时,无法运行目录列表
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
自动加载程序无法删除已处理的文件,因为它对源目录没有写入权限。
<reason>
若要修复,可以执行以下操作之一:
- 授予对源目录的写入权限,或
- 将 cleanSource 设置为“OFF”
还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。
CF_DUPLICATE_COLUMN_IN_DATA
尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用 .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}") 显式提供分区列
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
输入路径 <path>
为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。
CF_EVENT_GRID_AUTH_ERROR
无法创建事件网格订阅。 请确保服务
主体具有 <permissionType>
事件网格订阅。 有关详细信息,请参阅:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
无法创建事件网格订阅。 请确保 Microsoft.EventGrid
在订阅中注册为资源提供程序。 有关详细信息,请参阅:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
无法创建事件网格订阅。 请确保存储
帐户 (<storageAccount>
) 位于资源组 (<resourceGroup>
) 的下面,并且
存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
<cloudStore>
不支持自动加载程序事件通知模式。
CF_FAILED_TO_CHECK_STREAM_NEW
无法检查流是否为新流
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
无法创建订阅 <subscriptionName>
。 已存在同名订阅,并与另一个主题 <otherTopicName>
相关联。 所需主题为 <proposedTopicName>
。 要么删除现有订阅,要么创建采用新资源后缀的订阅。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
无法创建主题 <topicName>
。 已存在同名的主题。<reason>
请删除现有主题或使用其他资源后缀重试
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
未能删除主题 <topicName>
的存储桶 <bucketName>
上 ID 为 <notificationId>
的通知。 请重试或通过 GCP Console 手动删除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
无法从字符串反序列化持久化架构:“<jsonSchema>
”
CF_FAILED_TO_EVOLVE_SCHEMA
无法在没有架构日志的情况下演变架构。
CF_FAILED_TO_FIND_PROVIDER
找不到 <fileFormatInput>
的提供程序
CF_FAILED_TO_INFER_SCHEMA
无法从输入路径 <path>
中的现有文件推断 <fileFormatInput>
格式的架构。
有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
无法写入位于 <path>
的架构日志。
CF_FILE_FORMAT_REQUIRED
无法找到所需选项:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
发现主题 <topicName>
有多个(<num>
个)订阅使用自动加载程序前缀:
<subscriptionList>
每个主题只能有一个订阅。 请手动确保主题没有多个订阅。
CF_GCP_AUTHENTICATION
请提供以下所有凭据:<clientEmail>
、<client>
、
<privateKey>
和 <privateKeyId>
,或者一个都不提供,以使用默认的
GCP 凭据提供程序链对 GCP 资源进行身份验证。
CF_GCP_LABELS_COUNT_EXCEEDED
收到太多 GCP 资源的标签(<num>
个)。 每项资源的最大标签计数为 <maxNum>
。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
收到太多 GCP 资源的资源标记(<num>
个)。 每项资源的最大资源标记计数为 <maxNum>
,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
路径 <path>
上的架构日志中的日志文件不完整
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自动加载程序检查点中的元数据文件不完整
CF_INCORRECT_BATCH_USAGE
CloudFiles 是流式处理源。 请使用 spark.readStream,而不是 spark.read。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
CF_INCORRECT_SQL_PARAMS
cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>
CF_INCORRECT_STREAM_USAGE
若要使用“cloudFiles”作为流式处理源,请使用“cloudFiles.format”选项提供文件格式,并使用 .load() 创建 DataFrame。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
CF_INTERNAL_ERROR
内部错误。
有关更多详细信息,请参阅 CF_INTERNAL_ERROR
CF_INVALID_ARN
无效 ARN:<arn>
CF_INVALID_AZURE_CERTIFICATE
无法分析随选项 cloudFiles.certificate 提供的私钥。 请提供 PEM 格式的有效公钥。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
无法分析随选项 cloudFiles.certificatePrivateKey 提供的私钥。 请提供 PEM 格式的有效私钥。
CF_INVALID_CHECKPOINT
此检查点不是有效的 CloudFiles 源
CF_INVALID_CLEAN_SOURCE_MODE
清理源选项 <value>
的模式无效。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 资源的资源标记密钥 <key>
无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 资源的资源标记值 <value>
无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自动加载程序与托管文件事件一起使用时,不支持以下选项:
<optionList>
建议删除这些选项,然后重启流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
来自托管文件事件服务的响应无效。 请联系 Databricks 支持人员获取帮助。
有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
必须是下列其中一项:{
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
架构提示只能指定特定列一次。
在这种情况下,请在架构提示中多次重新定义列:<columnName>
多次重新定义列
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
架构提示无法用于覆盖映射和数组的嵌套类型。
有冲突的列:<columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
应在此源上使用 ReadLimit 调用 latestOffset。
CF_LOG_FILE_MALFORMED
日志文件格式不正确:无法从 <fileName>
中读取正确的日志版本。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在托管文件事件服务发现外部位置的所有文件后重试。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>
”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>
”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
只能在 Databricks 无服务器版本上使用托管文件事件的自动加载程序。 若要继续,请将此工作负载移动到 Databricks 无服务器版本或关闭 cloudFiles.useManagedFileEvents 选项。
CF_MAX_MUST_BE_POSITIVE
最大值必须为正数
CF_METADATA_FILE_CONCURRENTLY_USED
多个流式处理查询在同时使用 <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
流式处理源检查点目录中的元数据文件丢失。 此元数据
文件包含流的重要默认选项,因此流无法立即
重启。 请联系 Databricks 支持人员获取帮助。
CF_MISSING_PARTITION_COLUMN_ERROR
提供的架构中不存在分区列 <columnName>
:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在存储桶 <topicName>
上发现主题 <bucketName>
的现有通知:
notification,id
<notificationList>
若要避免意外事件污染订阅服务器,请删除上述通知并重试。
CF_NEW_PARTITION_ERROR
从文件中推断出新的分区列:[<filesList>
]。 请提供架构中的所有分区列,或者提供想要通过使用 .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") 提取其中的值的分区列列表
CF_PARTITON_INFERENCE_ERROR
尝试推断当前文件批次的分区架构时出错。 请使用 .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}") 显式提供分区列
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
当输入路径 <path>
不存在时无法读取文件。 请确保该输入路径存在,然后重试。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing
设置为 true 来启用异步回填/目录列表
CF_PREFIX_MISMATCH
找到不匹配的事件:密钥 <key>
没有前缀:<prefix>
CF_PROTOCOL_MISMATCH
<message>
如果无需对代码进行任何其他更改,请设置 SQL
配置:“<sourceProtocolVersionKey> = <value>
”
以恢复流。 请参阅:
<docLink>
以获取更多详细信息。
CF_REGION_NOT_FOUND_ERROR
无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。
CF_RESOURCE_SUFFIX_EMPTY
无法创建通知服务:资源后缀不能为空。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>
)。
CF_RESOURCE_SUFFIX_LIMIT
无法创建通知服务:资源后缀不能超过 <limit>
个字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP
无法创建通知服务:资源后缀的字符数介于 <lowerLimit>
和 <upperLimit>
之间。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
找到受限的 GCP 资源标记密钥 (<key>
)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
无法为前缀为 <prefix>
的主题 <topic>
创建通知。 已经有一个具有相同名称且前缀为 <oldPrefix>
的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
请提供带有选项 path
的源目录路径
CF_SOURCE_UNSUPPORTED
云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及表示要为其加载状态的检查点版本的可选第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>
CF_STATE_INVALID_CHECKPOINT_PATH
输入检查点路径 <path>
无效。 路径不存在,或者找不到 cloud_files 源。
CF_STATE_INVALID_VERSION
指定的版本 <version>
不存在,或在分析期间已删除。
CF_THREAD_IS_DEAD
<threadName>
线程终止。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
无法从源检查点位置派生流检查点位置:<checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
无法在 <fileSize>
采样文件中检测源文件格式,找到了 <formats>
。 请指定格式。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
无法提取存储桶信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_KEY_INFO
无法提取密钥信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
无法提取存储帐户信息。路径:“<path>
”,解析的 URI:“<uri>
”
CF_UNABLE_TO_LIST_EFFICIENTLY
已收到路径 <path>
的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。
CF_UNEXPECTED_READ_LIMIT
意外的 ReadLimit:<readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知选项密钥:
<optionList>
请确保所有提供的选项密钥都正确。 如果要跳过
选项验证步骤并忽略这些未知选项,你可以设置:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
未知 ReadLimit:<readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
仅在增量实时表管道中支持用于创建自动加载程序流式处理源的 SQL 函数“cloud_files”。 有关详细信息,请参阅:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
格式 <format>
不支持架构推理。 请指定架构。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>``, but encountered v``<version>
。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
格式 <format>
不支持架构演变模式 <mode>
。 请将架构演变模式设置为“none”。
CF_USE_DELTA_FORMAT
此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (<deltaDocLink>
),或读取 Delta 表作为流源 (<streamDeltaDocLink>
)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。
地理空间
EWKB_PARSE_ERROR
分析 EWKB 时出错:<pos>
位置处的 <parseError>
GEOJSON_PARSE_ERROR
分析 GeoJSON 时出错:<pos>
位置处的 <parseError>
有关更多详细信息,请参阅 GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
不是有效的 H3 单元格 ID
有关更多详细信息,请参阅 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 网格距离 <k>
必须为非负数
有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 分辨率 <r>
必须介于 <minR>
和 <maxR>
(含)之间
有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
被禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层
有关更多详细信息,请参阅 H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
计算网格距离为 <k>
的 <h3Cell>
的六边形环时出现五边形
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1>
和 <h3Cell2>
之间的 H3 网格距离未定义
ST_DIFFERENT_SRID_VALUES
“<sqlFunction>
”的参数必须具有相同的 SRID 值。 找到 SRID 值:<srid1>
、<srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
":<reason>
ST_INVALID_ARGUMENT_TYPE
“<sqlFunction>
”的参数必须为 <validTypes>
类型
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
:从 SRID <srcSrid>
到 SRID <trgSrid>
的 CRS 转换无效或不受支持
ST_INVALID_ENDIANNESS_VALUE
Endianness“<e>
”必须是“NDR”(little-endian) 或“XDR”(big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
:无效的 geohash 值:“<geohash>
”。 Geohash 值必须是有效的小写 base32 字符串。
ST_INVALID_PRECISION_VALUE
精度 <p>
必须介于 <minP>
和 <maxP>
(含)之间
ST_INVALID_SRID_VALUE
SRID <srid>
无效或不受支持
ST_NOT_ENABLED
<stExpression>
已禁用或不受支持。 请考虑启用 Photon 或切换到支持 ST 表达式的层
ST_UNSUPPORTED_RETURN_TYPE
无法在查询中返回 GEOGRAPHY
和 GEOMETRY
数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>
。
WKB_PARSE_ERROR
分析 WKB 时出错:<pos>
位置处的 <parseError>
有关更多详细信息,请参阅 WKB_PARSE_ERROR
WKT_PARSE_ERROR
分析 WKT 时出错:<pos>
位置处的 <parseError>
有关更多详细信息,请参阅 WKT_PARSE_ERROR
Unity Catalog
CONFLICTING_COLUMN_NAMES_ERROR
列 <columnName>
与同名的另一个列冲突,但带有/没有尾随空格(例如,名为 <columnName>
的现有列)。 请使用其他名称重命名列。
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
SQLSTATE:未分配
获取类型 <connectionType>
的连接的连接级别凭证的请求无效。 此类凭证仅适用于托管 PostgreSQL 连接。
CONNECTION_TYPE_NOT_ENABLED
SQLSTATE:未分配
连接类型“<connectionType>
”未启用。 请启用连接以使用它。
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
SQLSTATE:未分配
已存在具有相同共享标识符“<existingRecipientName>
”的收件人对象“<existingMetastoreId>
”。
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE:未分配
增量共享安全对象类型的 <securableKindName>
数据是只读的,不能创建、修改或删除。
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
SQLSTATE:未分配
由于为元存储 <metastoreName>
禁用了外部数据访问,非 Databricks 计算环境拒绝凭证销售。 请联系元存储管理员,以在元存储上启用“外部数据访问”配置。
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
SQLSTATE:未分配
由于表的类型为 <securableKind>
,无法从 Databricks 计算环境外部访问具有 ID <tableId>
的表。 只能从外部访问“TABLE_EXTERNAL
”、“TABLE_DELTA_EXTERNAL
”和“TABLE_DELTA
”表类型。
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
SQLSTATE:未分配
特权 EXTERNAL
USE SCHEMA
不适用于此实体 <assignedSecurableType>
,只能分配给架构或目录。 请从 <assignedSecurableType>
对象中删除该权限,并改为将其分配给架构或目录。
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
SQLSTATE:未分配
由于表的类型为 <securableKind>
,无法从 Databricks 计算环境外部写入具有 ID <tableId>
的表。 只能从外部写入“TABLE_EXTERNAL
”和“TABLE_DELTA_EXTERNAL
”表类型。
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
SQLSTATE:未分配
类型为 <catalogType>
的外部目录的存储位置将用于卸载数据,不能是只读的。
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
SQLSTATE:未分配
输入路径 <url>
的 <resourceType>
的数量超过了重叠 HMS <overlapLimit>
的允许限制 (<resourceType>
)。
INVALID_RESOURCE_NAME_DELTA_SHARING
SQLSTATE:未分配
不支持使用资源名进行增量共享请求
INVALID_RESOURCE_NAME_ENTITY_TYPE
SQLSTATE:未分配
提供的资源名称引用实体类型 <provided>
,但预期的是 <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE:未分配
提供的资源名称引用不在当前请求范围内的元存储
LOCATION_OVERLAP
SQLSTATE:未分配
输入路径 URL“<path>
”与“<caller>
”调用内的 <overlappingLocation>
重叠。 <conflictingSummary>
。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE:未分配
Redshift 外部目录的存储根必须是 AWS S3。
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE:未分配
类型为 <securableKind>
的安全对象不支持 Lakehouse 联合身份验证。
SECURABLE_KIND_NOT_ENABLED
SQLSTATE:未分配
未启用安全对象类型“<securableKind>
”。 如果这是与预览功能关联的安全对象类型,请在工作区设置中启用它。
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE:未分配
类型为 <securableType>
的安全对象不支持 Lakehouse 联合身份验证。
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
SQLSTATE:未分配
源表包含的列数多于 <columnCount>
。 请将列数减少到 <columnLimitation>
或以下。
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
SQLSTATE:未分配
交换的 AAD 令牌生存期为 <lifetime>
,配置的太短。 请检查 Azure AD 设置,确保临时访问令牌至少具有一小时的生存期。https://docs.azure.cn/active-directory/develop/active-directory-configurable-token-lifetimes
UC_AUTHZ_ACTION_NOT_SUPPORTED
SQLSTATE:未分配
不支持授权 <actionName>
;请检查是否已为此资源类型实现了 RPC 调用
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
SQLSTATE:未分配
无法为内置 hive 元存储创建连接,因为用户 <userId>
不是工作区的管理员:<workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
SQLSTATE:未分配
尝试修改内置的 HMS 连接“<connectionName>
”中的受限字段。 只能更新“warehouse_directory”。
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
SQLSTATE:未分配
无法重命名表列 <originalLogicalColumn>
,因为它用于 <sharedTableName>
中的分区筛选。 若要继续操作,可以从共享中删除表,重命名列,然后再次与所需的分区筛选列共享它。 不过,这可能会中断收件人的流式处理查询。
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
SQLSTATE:未分配
无法在 <parentSecurableType>
“<parentSecurable>
”下创建 <securableType>
“<securable>
”,因为请求不是来自 UC 群集。
UC_CLOUD_STORAGE_ACCESS_FAILURE
SQLSTATE:未分配
无法访问云存储:<errMsg>
exceptionTraceId=<exceptionTraceId>
UC_CONFLICTING_CONNECTION_OPTIONS
SQLSTATE:未分配
无法同时使用用户名/密码和 oauth 身份验证选项创建连接。 请选择一个。
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
SQLSTATE:未分配
凭证“<credentialName>
”具有一个或多个依赖连接。 可以使用强制选项继续更新或删除凭证,但使用此凭证的连接可能不再有效。
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
SQLSTATE:未分配
与连接关联的刷新令牌已过期。 请更新连接以重启 OAuth 流,检索新的令牌。
UC_CONNECTION_IN_FAILED_STATE
SQLSTATE:未分配
连接处于 FAILED
状态。 请使用有效的凭证更新连接以重新激活连接。
UC_CONNECTION_MISSING_REFRESH_TOKEN
SQLSTATE:未分配
没有与连接关联的刷新令牌。 请更新标识提供者中的 OAuth 客户端集成以返回刷新令牌,并更新或重新创建连接以重启 OAuth 流并检索所需的令牌。
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
SQLSTATE:未分配
OAuth 令牌交换失败,并显示 HTTP 状态代码 <httpStatus>
。 返回的服务器响应或异常消息为:<response>
UC_COORDINATED_COMMITS_NOT_ENABLED
SQLSTATE:未分配
未启用对协调提交的支持。 请联系 Databricks 支持人员。
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
SQLSTATE:未分配
无法创建 <securableType>
“<securableName>
”,因为它位于不活动的 <parentSecurableType>
“<parentSecurableName>
”。 请删除父级安全对象并重新创建父级。
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE:未分配
未能分析提供的访问连接器 ID:<accessConnectorId>
。 请验证其格式设置并重试。
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE:未分配
注册凭证需要具有 ID <accessConnectorId>
的相应访问连接器上的参与者角色。 请联系帐户管理员。
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
SQLSTATE:未分配
出于目的“<credentialType>
”,不支持凭证类型“<credentialPurpose>
”
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的凭证。
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE:未分配
用于允许 Databricks 帐户承担角色的 IAM 角色的信任策略应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 这种行为是为了防范混淆的副手问题 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE:未分配
服务主体不能使用 CREATE_STORAGE_CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持以非帐户管理员身份创建或更新凭证。 请改用工作区级 API。
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
SQLSTATE:未分配
无法从元数据位置 <metadataLocation>
分析 Iceberg 表版本。
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE:未分配
检测到对同一 iceberg 元数据版本的并发更新。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
SQLSTATE:未分配
提交的元数据位置 <metadataLocation>
无效。 它不是表根目录 <tableRoot>
的子目录。
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
SQLSTATE:未分配
提供的增量 iceberg 格式转换信息缺少必填字段。
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE:未分配
不支持在创建时设置增量 iceberg 格式信息。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
SQLSTATE:未分配
提供的增量 iceberg 格式转换信息太大。
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE:未分配
只能在启用了统一的增量表上更新统一元数据。
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
SQLSTATE:未分配
<resourceType>
“<ref>
”深度超过限制(或具有循环引用)。
UC_DEPENDENCY_DOES_NOT_EXIST
SQLSTATE:未分配
<resourceType>
“<ref>
”无效,因为其中一个基础资源不存在。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED
SQLSTATE:未分配
<resourceType>
“<ref>
”没有足够的权限执行,因为其中一个基础资源的所有者未能通过授权检查。 <cause>
UC_DUPLICATE_CONNECTION
SQLSTATE:未分配
连接:URL 为“<url>
”的“<connectionName>
”已存在。
UC_DUPLICATE_FABRIC_CATALOG_CREATION
SQLSTATE:未分配
尝试创建 URL 为“<storageLocation>
”的 Fabric 目录,该目录与现有目录匹配,这是不允许的。
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE:未分配
标记键为 <tagKey>
的标记分配已存在
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
SQLSTATE:未分配
实体 <securableType> <entityId>
不具有相应的联机群集。
UC_EXCEEDS_MAX_FILE_LIMIT
SQLSTATE:未分配
文件多于 <maxFileResults>
个。 请指定 [max_results] 以限制返回的文件数。
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
SQLSTATE:未分配
无法 <opName> <extLoc> <reason>
。 <suggestion>
。
UC_FEATURE_DISABLED
SQLSTATE:未分配
<featureName>
当前在 UC 中处于禁用状态。
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
不支持为连接类型“<connectionType>
”创建外部目录。 此连接类型只能用于创建托管引入管道。 有关详细信息,请参阅 Databricks 文档。
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
SQLSTATE:未分配
只能检索外表的 READ 凭证。
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
SQLSTATE:未分配
外键 <constraintName>
子列和父列的大小不同。
UC_FOREIGN_KEY_COLUMN_MISMATCH
SQLSTATE:未分配
外键父列与引用的主键子列不匹配。 外键父列为 (<parentColumns>
),主键子列为 (<primaryKeyChildColumns>
)。
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
SQLSTATE:未分配
外键子列类型与父列类型不匹配。 外键子列 <childColumnName>
具有类型 <childColumnType>
,父列 <parentColumnName>
具有类型 <parentColumnType>
。
UC_GCP_INVALID_PRIVATE_KEY
SQLSTATE:未分配
访问被拒绝。 原因:服务帐户私钥无效。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
SQLSTATE:未分配
Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
SQLSTATE:未分配
Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。 缺少的字段为 <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未分配
发现此存储凭证的 IAM 角色是非自假设的。 请检查角色的信任和 IAM 策略,以确保 IAM 角色可以根据 Unity Catalog 存储凭证文档自行承担。
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE:未分配
无法提交 <tableName>
:元数据位置 <baseMetadataLocation>
已从 <catalogMetadataLocation>
变更。
UC_ICEBERG_COMMIT_INVALID_TABLE
SQLSTATE:未分配
无法对非托管 Iceberg 表执行托管 Iceberg 提交:<tableName>
。
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE:未分配
提供的托管 Iceberg 提交信息缺少必填字段。
UC_ID_MISMATCH
SQLSTATE:未分配
<type> <name>
不具有 ID <wrongId>
。 请重试该操作。
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE:未分配
联合目录 <catalogName>
中的 <securableType> <securableName>
访问无效。 <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE:未分配
Cloudflare 帐户 ID 无效。
UC_INVALID_CREDENTIAL_CLOUD
SQLSTATE:未分配
凭证云提供商“<cloud>
”无效。 允许的云提供商“<allowedCloud>
”。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
SQLSTATE:未分配
凭据“purpose”的值“<value>
”无效。 允许的值“<allowedValues>
”。
UC_INVALID_CREDENTIAL_TRANSITION
SQLSTATE:未分配
无法将连接从 <startingCredentialType>
更新为 <endingCredentialType>
。 唯一有效的转换是从基于用户名/密码的连接转换到基于 OAuth 令牌的连接。
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE:未分配
无效的 cron 字符串。 找到了:“<cronString>
”并出现分析异常:“<message>
”
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
SQLSTATE:未分配
直接访问托管表 <tableName>
无效。 确保未定义源表和管道定义。
UC_INVALID_EMPTY_STORAGE_LOCATION
SQLSTATE:未分配
目录“<catalogName>
”中的 <securableType>
“<securableName>
”出现意外空存储位置。 若要修复此错误,请运行 DESCRIBE SCHEMA <catalogName>
。<securableName>
并刷新此页面。
UC_INVALID_OPTIONS_UPDATE
SQLSTATE:未分配
提供的更新选项无效。 无效选项:<invalidOptions>
。 允许的选项:<allowedOptions>
。
UC_INVALID_OPTION_VALUE
SQLSTATE:未分配
“<value>
”的“<option>
”值无效。 允许的值“<allowedValues>
”。
UC_INVALID_OPTION_VALUE_EMPTY
SQLSTATE:未分配
“<option>
”不能为空。 请输入非空值。
UC_INVALID_R2_ACCESS_KEY_ID
SQLSTATE:未分配
R2 访问密钥 ID 无效。
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE:未分配
R2 机密访问密钥无效。
UC_INVALID_RULE_CONDITION
SQLSTATE:未分配
规则“<ruleName>
”中的条件无效。 包含消息“<message>
”的编译错误。
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
SQLSTATE:未分配
无法更新 <securableType>
“<securableName>
”,因为它由内部组拥有。 有关其他详细信息,请联系 Databricks 支持人员。
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
SQLSTATE:未分配
如果存储凭证 <storageCredentialName>
不与 DBFS 根关联,则禁止创建 wasbs 外部位置。
UC_LOCATION_INVALID_SCHEME
SQLSTATE:未分配
存储位置的 URI 架构无效:<scheme>
。
UC_MALFORMED_OAUTH_SERVER_RESPONSE
SQLSTATE:未分配
令牌服务器的响应缺少字段 <missingField>
。 返回的服务器响应为:<response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
SQLSTATE:未分配
无法分配“<metastoreAssignmentStatus>
'。 仅支持 MANUALLY_ASSIGNABLE
和 AUTO_ASSIGNMENT_ENABLED
。
UC_METASTORE_CERTIFICATION_NOT_ENABLED
SQLSTATE:未分配
未启用元存储认证。
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE:未分配
由于内部错误,无法为 Metastore ID <metastoreId>
检索元存储到数据库分片的映射。 请联系 Databricks 支持人员。
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE:未分配
元存储 <metastoreId>
具有 <numberManagedOnlineCatalogs>
个托管联机目录。 请显式删除它们,然后重试元存储删除。
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE:未分配
更新元存储根位置时,无法定义元存储根凭证。 将从元存储父级外部位置提取凭证。
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE:未分配
删除元存储根位置失败。 <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
SQLSTATE:未分配
元存储的根 <securableType>
不能为只读。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
SQLSTATE:未分配
设置元存储根后,无法对其进行更新。
UC_MODEL_INVALID_STATE
SQLSTATE:未分配
无法为状态为 <modelVersionStatus>
的模型版本 <modelVersion>
生成临时“<opName>
”凭证。 “<opName>
”凭证只能为状态为 <validStatus>
的模型版本生成
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE:未分配
已尝试访问组织 ID(或工作区 ID),但上下文中没有。
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用在线存储计算选项卡修改联机目录的注释、所有者和隔离模式以外的任何内容。
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
SQLSTATE:未分配
不能在元存储中创建 <quota>
个以上在线存储,已存在 <currentCount>
。 你可能无法访问任何现有的存储在线存储。 请联系元存储管理员,以获取访问权限或进一步说明。
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE:未分配
联机索引目录必须为通过 /vector-search API 的 <action>
。
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用 /vector-search API 修改联机索引目录的注释、所有者和隔离模式以外的任何内容。
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
SQLSTATE:未分配
不能在元存储中创建 <quota>
个以上联机索引目录,已存在 <currentCount>
。 你可能无权访问任何现有的联机索引目录。 请联系元存储管理员,以获取访问权限或进一步说明。
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE:未分配
联机索引必须为通过 /vector-search API 的 <action>
。
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE:未分配
在线存储必须为通过在线存储计算选项卡的 <action>
。
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
SQLSTATE:未分配
源表列名称 <columnName>
太长。 最大长度为 <maxLength>
个字符。
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE:未分配
列 <columnName>
不能用作联机表的主键列,因为它不属于源表的现有 PRIMARY KEY
约束的一部分。 有关详细信息,请参阅 <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE:未分配
列 <columnName>
不能用作联机表的时序键,因为它不属于源表的现有 PRIMARY KEY
约束的时序列。 有关详细信息,请参阅 <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE:未分配
无法为每个源表创建 <quota>
个以上联机表。
UC_ONLINE_VIEW_ACCESS_DENIED
SQLSTATE:未分配
访问资源 <resourceName>
需要使用无服务器 SQL 仓库。 请确保用于在 UI 中执行查询或查看数据库目录的仓库是无服务器的。 有关详细信息,请参阅 <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
SQLSTATE:未分配
无法在在线存储中创建 <quota>
个以上连续联机视图,并且已存在 <currentCount>
。 你可能无法访问任何现有的存储在线视图。 请联系在线存储管理员,以获取访问权限或进一步说明。
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE:未分配
<tableKind>
不能使用 Databricks 托管密钥在存储位置下创建。 请在存储位置中选择一个不同的架构/目录,而不使用 Databricks 托管密钥加密。
UC_ONLINE_VIEW_INVALID_CATALOG
SQLSTATE:未分配
类型为 <catalogKind>
的要在其中创建 <tableKind>
的目录 <catalogName>
无效。 <tableKind>
只能在类型目录下创建:<validCatalogKinds>
。
UC_ONLINE_VIEW_INVALID_SCHEMA
SQLSTATE:未分配
类型为 <schemaKind>
的要在其中创建 <tableKind>
的架构 <schemaName>
无效。 <tableKind>
只能在类型架构下创建:<validSchemaKinds>
。
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE:未分配
类型为 <columnType>
的列 <columnName>
不能用作 TTL 时间列。 允许的类型是 <supportedTypes>
。
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE:未分配
授权路径错误。 未在目录的授权路径中定义 <securableType>
位置 <location>
:<catalogName>
。
UC_OVERLAPPED_AUTHORIZED_PATHS
SQLSTATE:未分配
“authorized_paths”选项包含重叠的路径:<overlappingPaths>
。 确保每个路径都是唯一的,并且不会与列表中的其他路径相交。
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE:未分配
查询参数“<arg>
”设置为“<received>
”,它与第一个分页调用(“<expected>
”)中使用的值不同
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE:未分配
从元存储 <metastoreId>
向数据库发出的请求过多。 请稍后重试。”
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
SQLSTATE:未分配
无法创建主键 <constraintName>
,因为它的子列可为 <childColumnNames>
Null。 请更改列的可为 Null 性,然后重试。
UC_REQUEST_TIMEOUT
SQLSTATE:未分配
此操作耗时过长。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE:未分配
Unity Catalog 不支持包含点的根存储 S3 存储桶名称:<uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
SQLSTATE:未分配
目录“<schemaName>
”中的架构“<catalogName>
”出现意外空存储位置。 请确保架构使用路径方案 <validPathSchemesListStr>
。
UC_SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE:未分配
处理请求时,我们遇到了暂时性问题。 请稍后重试。 如果问题仍然存在,请与支持部门联系。
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE:未分配
未能分析提供的访问连接器 ID:<accessConnectorId>
。 请验证其格式设置并重试。
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE:未分配
无法为 DBFS 根创建存储凭证,因为用户 <userId>
不是工作区的管理员:<workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE:未分配
位置 <location>
不在 DBFS 根 <dbfsRootLocation>
内
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE:未分配
包含启用了防火墙的 DBFS 的工作区尚不支持 DBFS 根存储凭证
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE:未分配
当前工作区尚不支持 DBFS 根存储凭证
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE:未分配
未为工作区 <workspaceId>
启用 DBFS 根
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE:未分配
注册存储凭证需要具有 ID <accessConnectorId>
的相应访问连接器上的参与者角色。 请联系帐户管理员。
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的存储凭证。
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
SQLSTATE:未分配
缺少服务主体的验证令牌。 请在“X-Databricks-Azure-SP-Management-Token”请求标头中提供有效的 ARM 范围内的 Entra ID 令牌,然后重试。 有关详细信息,请查看https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE:未分配
用于允许 Databricks 帐户承担角色的 IAM 角色的信任策略应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 这种行为是为了防范混淆的副手问题 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE:未分配
服务主体不能使用 CREATE_STORAGE_CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE:未分配
位置 <location>
不在 DBFS 根内,因此,我们无法创建存储凭证 <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持以非帐户管理员身份创建或更新存储凭证。 请改用工作区级 API。
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
SQLSTATE:未分配
具有标记键 <tagKey>
的标记分配不存在
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE:未分配
提供的基路径无效,基路径应类似于 /api/resources/v1。 不支持的路径:<path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
SQLSTATE:未分配
提供的主机名无效,主机名应类似于 https://www.databricks.com,不包含路径后缀。 不支持的主机:<host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE:未分配
外部位置/卷/表路径仅支持基本 Latin/Latin-1 ASCII
字符。 不支持的路径:<path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
SQLSTATE:未分配
无法更新 <securableType>
“<securableName>
”,因为它正在预配。
UC_WRITE_CONFLICT
SQLSTATE:未分配
<type> <name>
已由另一个请求修改。 请重试该操作。
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>
”执行 commit/getCommits 的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建临时表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建非外部表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为路径“<path>
”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>
”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为安全对象获取外部凭证的请求。
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部更新元数据快照的请求。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
SQLSTATE:未分配
获取联机目录中托管联机表的写入凭证的请求无效。
文件 API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE:未分配
<api_name> API 未启用
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE:未分配
云路径不支持文件 API 请求的方法
FILES_API_AWS_ACCESS_DENIED
SQLSTATE:未分配
AWS 拒绝对存储桶的访问。
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE:未分配
对存储桶的所有访问已在 AWS 中禁用。
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE:未分配
AWS 中不存在存储桶。
FILES_API_AWS_FORBIDDEN
SQLSTATE:未分配
AWS 禁止对存储桶的访问。
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE:未分配
工作区配置错误:它必须与 AWS 工作区根存储桶位于同一区域。
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE:未分配
存储桶名称无效。
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE:未分配
配置的用于访问存储桶的 KMS 密钥在 AWS 中被禁用。
FILES_API_AWS_UNAUTHORIZED
SQLSTATE:未分配
对 AWS 资源的访问未获授权。
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE:未分配
在 Azure 中禁用存储帐户。
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE:未分配
Azure 容器不存在。
FILES_API_AZURE_FORBIDDEN
SQLSTATE:未分配
Azure 禁止对存储容器的访问。
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE:未分配
Azure 响应称,资源当前存在租赁情况。 请稍后重试。
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE:未分配
要访问的帐户没有足够的权限来执行此操作。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE:未分配
无法访问 Azure 中的存储帐户:存储帐户名称无效。
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE:未分配
未在 Azure 中找到密钥保管库。 检查客户管理的密钥设置。
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE:未分配
未在 Azure 中找到 Azure Key Vault 密钥。 检查客户管理的密钥设置。
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE:未分配
未在 Azure 中找到密钥保管库。 检查客户管理的密钥设置。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE:未分配
找不到具有访问连接器的 Azure 托管标识凭证。 这可能是因为 IP 访问控制拒绝了你的请求。
FILES_API_AZURE_PATH_INVALID
SQLSTATE:未分配
请求的路径对 Azure 无效。
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE:未分配
请求的路径是不可变的。
FILES_API_CATALOG_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE:未分配
<message>
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE:未分配
路径不支持字符“:”
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE:未分配
不允许 Databricks 控制平面网络区域。
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE:未分配
提供了正文,但目录中不能有文件正文
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE:未分配
目录不为空。 非空目录不支持此操作。
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE:未分配
找不到要访问的目录。
FILES_API_DUPLICATED_HEADER
SQLSTATE:未分配
请求包含只允许一次的标头的多个副本。
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>”必须恰好存在一次,但提供了多次。
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE:未分配
DBFS 存储桶名称为空。
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE:未分配
到期时间必须存在
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE:未分配
到期时间必须是将来的时间
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE:未分配
请求的 TTL 比支持时间长(1 小时)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE:未分配
正在创建的文件已存在。
FILES_API_FILE_NOT_FOUND
SQLSTATE:未分配
找不到要访问的文件。
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE:未分配
不支持以“.”字符结尾的文件或目录。
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE:未分配
文件大小不应超过 <max_download_size_in_bytes> 个字节,但发现了 <size_in_bytes> 个字节。
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE:未分配
对存储桶的访问已在 GCP 中禁用。
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE:未分配
GCP 中不存在存储桶。
FILES_API_GCP_FORBIDDEN
SQLSTATE:未分配
GCP 禁止对存储桶的访问。
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE:未分配
为该位置配置的客户管理的加密密钥被禁用或销毁。
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE:未分配
策略禁止向存储桶发出的 GCP 请求,检查 VPC 服务控制措施。
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE:未分配
云提供商主机暂时不可用;请稍后重试。
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE:未分配
提供的页面令牌无效。
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE:未分配
页面令牌无效
FILES_API_INVALID_PATH
SQLSTATE:未分配
无效路径:<validation_error>
FILES_API_INVALID_RANGE
SQLSTATE:未分配
范围标头无效。
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE:未分配
会话令牌无效
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE:未分配
会话令牌类型无效。 应是“<expected>
”,但收到的是“<actual>
”。
FILES_API_INVALID_TIMESTAMP
SQLSTATE:未分配
时间戳无效。
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE:未分配
上传类型无效。 应是“<expected>
”,但收到的是“<actual>
”。
FILES_API_INVALID_URL_PARAMETER
SQLSTATE:未分配
作为参数传递的 URL 无效
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“overwrite”必须是 true、false 中的一个,但却为:<got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>”必须是以下值之一:<expected>
,但却为:<actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE:未分配
格式不正确的请求正文
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE:未分配
作业后台计算项目存储不支持文件 API 的请求方法。
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE:未分配
请求中需要 content-length 标头。
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>”是必需的,但请求中缺失该参数。
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE:未分配
请求缺少必要的参数。
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE:未分配
模型版本尚未就绪
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE:未分配
未为此工作区/帐户启用 <place>
的文件 API
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE:未分配
内部工作区存储不支持文件 API 的请求方法
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE:未分配
操作必须存在
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE:未分配
page_size 必须大于或等于 0
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE:未分配
以“/”字符结尾的路径表示目录。 此 API 不支持对目录执行的操作。
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE:未分配
给定路径指向现有目录。 此 API 不支持对目录执行的操作。
FILES_API_PATH_IS_A_FILE
SQLSTATE:未分配
给定路径指向现有文件。 此 API 不支持对文件执行的操作。
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE:未分配
给定路径不是有效的 UTF-8 编码 URL
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE:未分配
未为数据平面代理启用给定路径
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE:未分配
路径必须存在
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE:未分配
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE:未分配
提供的文件路径太长。
FILES_API_PRECONDITION_FAILED
SQLSTATE:未分配
请求由于前置条件而失败。
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE:未分配
目前不支持用于模型的预签名 URL 的文件 API
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE:未分配
目前不支持 R2。
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE:未分配
无法满足请求的范围。
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE:未分配
不支持以递归方式列出文件。
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE:未分配
请求路由不正确
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE:未分配
请求必须包含帐户信息
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE:未分配
请求必须包含用户信息
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE:未分配
请求必须包含工作区信息
FILES_API_RESOURCE_IS_READONLY
SQLSTATE:未分配
资源是只读的。
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE:未分配
无法访问 URL。
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE:未分配
签名验证失败。
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE:未分配
无法访问此工作区的存储配置。
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
<table_type> 不支持 文件 API
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE:未分配
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE:未分配
分析 URI 时出现意外错误
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE:未分配
意外的查询参数:<unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE:未分配
未知方法 <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE:未分配
未知的服务器错误。
FILES_API_UNKNOWN_URL_HOST
SQLSTATE:未分配
URL 主机未知。
FILES_API_UNSUPPORTED_PATH
SQLSTATE:未分配
文件 API 不支持提供的路径。 确保提供的路径不包含“../”或“./”序列的实例。 确保提供的路径不使用多个连续斜线(例如“///”)。
FILES_API_URL_GENERATION_DISABLED
SQLSTATE:未分配
未为 <cloud>
启用预签名的 URL 生成。
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
<volume_type> 不支持 文件 API。
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE:未分配
工作区已取消。
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE:未分配
无法访问此工作区的存储配置。
杂项
ABAC_ROW_COLUMN_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE:未分配
不支持在分配的群集上使用通过策略规则分配的行筛选器或列掩码对表 <tableFullName>
进行查询。
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE:未分配
Azure Entra(又称 Azure Active Directory)凭证缺失。
确保已使用 Entra 帐户登录
或在用户设置 > Git 集成中设置 Azure DevOps 个人访问令牌(PAT)。
如果未使用 PAT,并且正在将 Azure DevOps 与 Repos API 配合使用,
则必须使用 Azure Entra 访问令牌。
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE:未分配
Azure Entra (Azure Active Directory) 凭证遇到错误。 请尝试注销
Entra https://portal.azure.cn) 并重新登录。
或者,还可以访问用户设置 > Git 集成来设置
Azure DevOps 个人访问令牌。
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE:未分配
Azure Active Directory 凭证遇到错误。 请尝试注销
Azure Active Directory https://portal.azure.cn) 并重新登录。
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE:未分配
无法请求为清洁室增量共享安全对象生成凭证。
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE:未分配
具有类型 <securableType>
和类型 <securableKind>
的安全对象 <securableName>
由清洁室系统管理,用户无权访问。
CONSTRAINT_ALREADY_EXISTS
SQLSTATE:未分配
名称为 <constraintName>
的约束已存在,请选择其他名称。
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE:未分配
约束 <constraintName>
不存在。
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE:未分配
无法读取远程存储库 (<repoUrl>
)。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
- 远程 Git 存储库 URL 有效。
- 你的个人访问令牌或应用密码具有正确的存储库访问权限。
Git 中的错误:<gitErrorMessage>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE:未分配
无法解析 <repoUrl>
的主机。
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE:未分配
参数 beginning_of_time
不能为 true。
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE:未分配
找不到延续令牌的已请求对象。
CSMS_INVALID_CONTINUATION
SQLSTATE:未分配
同时提供了“beginning_of_time=true”和“continuation_token”。 当“beginning_of_time”设置为“true”时,不应提供“continuation_token”。
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE:未分配
延续令牌无效。 原因:<msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE:未分配
参数 max_objects 的值 <value>
无效, [<minValue>
, <maxValue>
] 中的预期值
CSMS_INVALID_URI_FORMAT
SQLSTATE:未分配
无效的 URI 格式。 需要卷(例如“/Volumes/catalog/schema/volume”)或云存储路径(例如“s3://some-uri”)
CSMS_LOCATION_ERROR
SQLSTATE:未分配
无法列出对象。 需要解决的位置存在问题。 详细信息: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE:未分配
找不到 URI <path>
的位置
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE:未分配
无法确定请求的元存储。
CSMS_SERVICE_DISABLED
SQLSTATE:未分配
服务已禁用
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE:未分配
找不到 Unity Catalog 实体。 确保存在目录、架构、卷和/或外部位置。
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE:未分配
Unity Catalog 外部位置不存在。
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE:未分配
URI 与其他卷重叠
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE:未分配
无法确定请求的元存储。 元存储不存在
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE:未分配
权限被拒绝
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE:未分配
Unity Catalog 表不存在。
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE:未分配
Unity Catalog 卷不存在。
CSMS_URI_MISSING
SQLSTATE:未分配
必须提供 URI
CSMS_URI_TOO_LONG
SQLSTATE:未分配
提供的 URI 太长。 允许的最大长度为 <maxLength>
。
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE:未分配
无法使用经典计算访问 Databricks 默认存储。 请使用无服务器计算访问默认存储中的数据
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE:未分配
操作失败,因为无法刷新链接的 GitHub 应用凭证。
请重试或转到用户设置 > Git 集成,然后尝试重新链接 Git 提供程序帐户。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
- 存储库的管理员必须转到 https://github.com/apps/databricks/installations/new 并在存储库上安装 Databricks GitHub 应用。
或者,GitHub 帐户所有者可以在帐户上安装应用,以授予对帐户存储库的访问权限。
- 如果已安装应用,则让管理员确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE:未分配
链接的 GitHub 应用凭证在处于非活动状态 6 个月后过期。
转到用户设置 > Git 集成,然后尝试重新链接凭证。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
- GitHub 用户
<gitCredentialUsername>
应转到 https://github.com/apps/databricks/installations/new 并在<gitCredentialUsername>
帐户上安装应用以允许访问。 - 如果用户
<gitCredentialUsername>
已安装应用并且使用范围内的访问权限和“仅选择存储库”选项,则他们应确保已通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
- GitHub 组织
<organizationName>
的所有者应转到 https://github.com/apps/databricks/installations/new 并在组织<organizationName>
上安装应用以允许访问。 - 如果应用已安装在 GitHub 组织
<organizationName>
上,则让该组织的所有者确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
- 转到 https://github.com/apps/databricks/installations/new 并在帐户
<gitCredentialUsername>
上安装应用以允许访问。 - 如果已安装应用,并且你在使用范围内的访问权限和“仅选择存储库”选项,则确保你已通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序凭证无效。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
转到用户设置 > Git 集成以查看凭证。
请转到远程 Git 提供程序,以确保:
- 你已使用 Git 提供程序凭证输入正确的 Git 用户电子邮件或用户名。
- 你的令牌或应用密码具有正确的存储库访问权限。
- 你的令牌未过期。
- 如果你在 Git 提供程序中启用了 SSO,请确保授权你的令牌。
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序个人访问令牌凭证无效。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
转到用户设置 > Git 集成以查看凭证。
请转到远程 Git 提供程序,以确保:
- 你已使用 Git 提供程序凭证输入正确的 Git 用户电子邮件或用户名。
- 你的令牌或应用密码具有正确的存储库访问权限。
- 你的令牌未过期。
- 如果你在 Git 提供程序中启用了 SSO,请确保授权你的令牌。
GIT_CREDENTIAL_MISSING
SQLSTATE:未分配
未配置 Git 凭证,但此存储库需要凭证 (<repoUrl>
)。
转到用户设置 > Git 集成以设置 Git 凭证。
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE:未分配
未授予对 <gitCredentialProvider>
存储库 (<repoUrl>
) 的写入访问权限。
请确保 (<gitCredentialUsername>
) 对此远程存储库具有写入访问权限。
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE:未分配
存储库的 Git 凭据提供程序不正确。
当前 Git 凭证的提供程序 (<gitCredentialProvider>
) 与存储库的 Git 提供程序 <repoUrl>
的不匹配。
请尝试其他存储库,或转到用户设置 > Git 集成以更新 Git 凭证。
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE:未分配
Azure 存储帐户未启用分层命名空间。
INVALID_FIELD_LENGTH
SQLSTATE:未分配
<rpcName> <fieldName>
过长。 最大长度为 <maxLength>
个字符。
INVALID_PARAMETER_VALUE
SQLSTATE:未分配
<msg>
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务的任务运行输出。
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务的任务运行状态。
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE:未分配
具有 ID <taskId>
的任务的 RPC ClientConfig 不存在。
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE:未分配
具有 ID <taskId>
的任务不存在。
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE:未分配
任务注册表:类为 <taskClassName>
的不支持或未知的 JobTask。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE:未分配
不支持对外部浅表克隆表 <tableFullName>
进行基于路径的访问。 请改用表单名称来访问浅表克隆。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE:未分配
找不到位于 URL“<url>
”的 Fabric 表。 请使用 REFRESH FOREIGN CATALOG
命令填充 Fabric 表。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE:未分配
不支持对具有行筛选器或列掩码的表 <tableFullName>
进行基于路径的访问。
PERMISSION_DENIED
SQLSTATE:未分配
用户在 <msg>
“<resourceType>
”上没有 <resourceName>
。
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE:未分配
无法删除不在回收站中的对象 <resourceName>
REDASH_PERMISSION_DENIED
SQLSTATE:未分配
找不到或没有访问资源 <resourceId>
的权限
REDASH_QUERY_NOT_FOUND
SQLSTATE:未分配
无法从查询 ID 中查找资源 <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE:未分配
无法创建新的查询片段
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE:未分配
已达到查询片段数的配额。 当前配额为 <quota>
。
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE:未分配
指定的触发器 <trigger>
已被此工作区中的另一个查询片段使用。
REDASH_RESOURCE_NOT_FOUND
SQLSTATE:未分配
所请求的资源 <resourceName>
不存在
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE:未分配
无法还原不在回收站中的对象 <resourceName>
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE:未分配
无法将已放入回收站的对象 <resourceName>
放入回收站
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE:未分配
无法从 ID <id>
中生成资源名称
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE:未分配
无法创建新的可视化效果
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE:未分配
找不到可视化效果 <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE:未分配
已达到查询 <query_id> 上的可视化效果数配额。 当前配额为 <quota>
。
REPOSITORY_URL_NOT_FOUND
SQLSTATE:未分配
找不到远程存储库 (<repoUrl>
)。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
请确保:
- 远程 Git 存储库 URL 有效。
- 你的个人访问令牌或应用密码具有正确的存储库访问权限。
RESOURCE_ALREADY_EXISTS
SQLSTATE:未分配
<resourceType>
“<resourceIdentifier>
”已存在
RESOURCE_DOES_NOT_EXIST
SQLSTATE:未分配
<resourceType>
“<resourceIdentifier>
”不存在。
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE:未分配
不支持在分配的群集上使用行筛选器或列掩码对表 <tableFullName>
进行查询。
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE:未分配
表 <tableFullName>
正与增量共享进行共享,不能使用行/列安全性。
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE:未分配
服务 <serviceName>
暂时处于维护状态。 请稍后重试。”
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE:未分配
表 <tableFullName>
不能同时具有行/列安全性和联机具体化视图。
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE:未分配
要更新的行太多,导致更新中止。