适用于 Databricks SQL、
Databricks Runtime 12.2 及更高版本
错误条件是描述性的、可读字符串,它们所描述的错误是唯一的。
可以使用错误条件以编程方式处理应用程序中的错误,而无需分析错误消息。
这是 Azure Databricks 返回的常见命名错误条件的列表。
Databricks Runtime 和 Databricks SQL
ADD_DEFAULT_UNSUPPORTED
无法执行 <statementType>
命令,因为在使用表提供程序“DEFAULT
”向以前存在的目标数据源添加新列时不支持 <dataSource>
值。
聚合函数_包含不确定表达式
非确定性表达式 <sqlExpr>
不应出现在聚合函数的参数中。
AI功能HTTP解析转换错误
强制转换为指定的 returnType:“<dataType>
”时未能解析模型输出,响应 JSON 为:“<responseString>
”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
实际模型输出具有多个列“<responseString>
”。 但是,指定的返回类型[“<dataType>
”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。
AI功能HTTP请求错误 (AI_FUNCTION_HTTP_REQUEST_ERROR)
对函数 <funcName>
发出 HTTP 请求时出错:<errorMessage>
AI功能_HTTP响应无效
函数 <funcName>
的 HTTP 响应无效:<errorMessage>
AI_函数_最大词数无效
最大字词数必须是非负整数,但获得 <maxWords>
。
AI功能无效模型参数
提供的模型参数 (<modelParameters>
) 在提供端点“AI_QUERY
”的 <endpointName>
函数中无效。
有关更多详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI功能无效响应格式类型
AI 函数:“<functionName>
”要求 <format>
参数具有有效的 responseFormat
字符串,但发现的响应格式是:“<invalidResponseFormat>
”。 异常:<errorMessage>
AI_函数_JSON_解析错误
分析函数 <funcName>
的 JSON 响应时出错:<errorMessage>
AI_功能_模型_架构_解析_错误
未能分析服务终结点“<endpointName>
”的架构:<errorMessage>
,响应 JSON 为:“<responseJson>
”。
在 returnType
函数中手动设置 AI_QUERY
参数以替代架构解析。
AI_FUNCTION_UNSUPPORTED_ERROR
函数 <funcName>
在当前环境中不受支持。 它仅在 Databricks SQL Pro 和无服务器版本中可用。
AI功能不支持请求
无法评估 SQL 函数“<functionName>
”,因为提供的 <invalidValue>
参数具有“<invalidDataType>
”,但仅支持以下类型:<supportedDataTypes>
。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。
AI功能不支持的响应格式
找到不支持的响应格式。
有关更多详细信息,请参阅 AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_函数_不支持_返回_类型
AI 函数:“<functionName>
”不支持将以下类型作为返回类型:“<typeName>
”。 返回类型必须是 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>
AI_无效参数值错误
参数“<argValue>
”不支持提供的值“<argName>
”。 支持的值为:<supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT (AI查询端点不支持结构化输出)
对于结构化输出支持,预期服务终结点任务类型为“聊天”,但发现终结点“<taskType>
”为“<endpointName>
”。
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
参数 returnType 不支持提供的“<sqlExpr>
”。
查询参数冲突错误 - AI搜索
为 vector_search
SQL 函数检测到的冲突参数:<conflictParamNames>
。<hint>
AI搜索嵌入列类型不支持错误
不支持包含嵌入列类型 vector_search
的 <embeddingColumnType>
SQL 函数。
AI搜索空查询参数错误
vector_search
SQL 函数缺少查询输入参数,请指定至少一个来自:<parameterNames>
。
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
参数 query
到 vector_search
的 SQL 函数不支持用于 hybrid
矢量搜索。 请改用 query_text
。
AI_SEARCH_混合文本未找到_错误
vector_search
SQL 函数中找不到用于 hybrid
矢量搜索的查询文本。 请提供 query_text
。
AI 搜索索引类型不支持错误
不支持包含索引类型 vector_search
的 <indexType>
SQL 函数。
人工智能搜索缺失嵌入输入错误
必须为索引 query_vector
指定 <indexName>
,因为它与嵌入模型终结点无关。
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
在请求编码期间,未能将 vector_search
SQL 函数查询从 spark 类型 <dataType>
具体化到 scala-native 对象,并出现错误:<errorMessage>
。
AI搜索查询类型不支持错误
不支持查询类型为 vector_search
的 SQL 函数 <unexpectedQueryType>
。 请从以下选项中指定一个:<supportedQueryTypes>
。
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
不支持 num_results 大于 vector_search
的 <maxLimit>
SQL 函数。 指定的限制为 <requestedLimit>
。 请尝试再次使用num_results <= <maxLimit>
。
AI_主要驱动参数超出范围
ai_top_drivers
参数<param>
必须介于<lo>
和 <hi>
.
AI_TOP_DRIVERS_不支持的_汇总类型
ai_top_drivers
不支持 <aggName>
聚合。 选择以下支持的聚合之一: <allowed>
AI_主要驱动_不支持的维度类型
ai_top_drivers
不支持数值、映射或结构维度列。 列 <colName>
具有类型 <dataType>
。 移除这个维度或将其转换为支持的类型。
Unsupported Label Type for AI Top Drivers (if a description is needed in a specific context)
ai_top_drivers
要求标签列类型为布尔值。 列 <colName>
具有类型 <dataType>
。 更改标签列或将其转换成受支持的类型。
AI_顶级驱动程序_不支持的指标类型
ai_top_drivers
要求指标列类型为数值。 列 <colName>
具有类型 <dataType>
。 更改指标列或将其强制转换为受支持的类型。
ALL_PARAMETERS_MUST_BE_NAMED
使用名称参数化查询时需要命名所有参数。 参数缺少名称 <exprs>
。
所有分区列不允许
无法将所有列用于分区列。
修改的计划不存在
在没有现有计划或触发器的情况下无法更改表上的 <scheduleType>
。 在尝试更改计划或触发器之前,请向表添加计划或触发器。
更改表列描述符重复
ALTER TABLE <type>
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的。
嵌套CTE中的模糊别名
嵌套 CTE 中的名称 <name>
不明确。
请将 <config>
设置为“CORRECTED
”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY
”,则外部 CTE 定义将优先。
请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine”。
列或字段不明确
列或字段 <name>
不明确且具有 <n>
个匹配项。
模糊列引用 (AMBIGUOUS_COLUMN_REFERENCE)
列 <name>
不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。
此列指向其中一个 DataFrame,但 Spark 无法确定是指向哪一个。
请在联接 DataFrame 之前,通过 DataFrame.alias
将 DataFrame 命名为不同的别名,
然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)指定该列。
模糊约束
对约束 <constraint>
的引用不明确。
不明确的侧向列别名
横向列别名 <name>
不明确且具有 <n>
个匹配项。
模糊引用
引用 <name>
不明确,可能是:<referenceNames>
。
模糊字段引用
对字段 <field>
的引用不明确。 它在架构中出现了 <count>
次。
不支持分析约束
不支持 ANALYZE CONSTRAINTS
。
ANSI配置无法禁用
无法在此产品中禁用 ANSI SQL 配置 <config>
。
AQE_THREAD_INTERRUPTED
AQE 线程中断,可能是由于用户取消查询。
参数_非常数
函数 <functionName>
在需要常量参数的位置 <parameterName>
处包含参数 <pos>
。 请单独计算参数 <sqlExpr>
,并以常量形式传递结果。
ARITHMETIC_OVERFLOW
<message>
。
<alternative>
如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW
赋值参数个数不匹配
分配或别名的列数或变量数:<numTarget>
与源表达式的数目:<numExpr>
不匹配。
AS_OF_JOIN
截止联接无效。
有关更多详细信息,请参阅 AS_OF_JOIN
不支持AVRO默认值
如果启用 rescuedDataColumn
,则不支持使用默认值。 可以将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
设置为 false 来删除此检查,但仍然不会使用默认值,而是使用 null 值。
AVRO_INCOMPATIBLE_READ_TYPE
无法将 Avro <avroPath>
转换为 SQL <sqlPath>
,因为原始编码的数据类型为 <avroType>
,但是你尝试将字段读取为 <sqlType>
,这会导致错误的答案。
若要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。
不支持AVRO位置字段匹配
如果启用 rescuedDataColumn
或 failOnUnknownFields
,则不支持使用位置字段匹配。 可以删除这些选项继续操作。
批处理元数据未找到 (BATCH_METADATA_NOT_FOUND)
无法找到批处理 <batchMetadataFile>
。
BigQuery选项是互斥的
必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据
二进制算术溢出
<value1> <symbol> <value2>
导致溢出。 使用 <functionName>
忽略溢出问题并返回 NULL
。
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
布尔语句 <invalidStatement>
无效。 需要值类型为 BOOLEAN
的单个行,但得到空行。
内置目录
<operation>
不支持内置目录。
在流数据集上调用不支持
无法对流式处理数据集/数据帧调用 <methodName>
方法。
无法修改排序规则桶列
ALTER TABLE (ALTER|CHANGE) COLUMN
无法更改存储桶列的类型/子类型的排序规则,但在表 <columnName>
中找到了存储桶列 <tableName>
。
无法更改分区列
不支持对分区列使用 ALTER TABLE (ALTER|CHANGE) COLUMN
,但却在表 <columnName>
中发现分区列 <tableName>
。
无法分配事件时间列(CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK)
需要定义水印,才能重新分配事件时间列。 未能在流式处理查询中找到水印定义。
无法转换数据类型
无法将 <sourceType>
强制转换为 <targetType>
。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
无法将 Protobuf <protobufColumn>
转换为 SQL <sqlColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
无法将 Protobuf 消息类型转换为 SQL 类型
无法将 Protobuf 的 <protobufType>
转换为 SQL 类型 <toType>
。
无法将SQL类型转换为Protobuf字段类型
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为架构不兼容(protobufType = <protobufType>
,sqlType = <sqlType>
)。
无法将 SQL 值转换为 PROTOBUF 枚举类型
无法将 SQL <sqlColumn>
转换为 Protobuf <protobufColumn>
,因为 <data>
不在枚举 <enumString>
的定义值中。
无法复制状态
无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。
无法创建数据源表
未能创建数据源表 <tableName>
:
有关详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE
无法解码网址
无法解码提供的 URL:<url>
。 请确保 URL 格式正确,然后重试。
无法删除系统所有的
无法删除系统拥有的 <resourceType>
。
无法删除不明确的约束
无法删除名称 <constraintName>
由 CHECK
约束共享的约束
和 PRIMARY KEY
或 FOREIGN KEY
约束。 可以删除 PRIMARY KEY
或
按查询划分的 FOREIGN KEY
约束:
ALTER TABLE
..
DROP PRIMARY KEY
或
ALTER TABLE
..
DROP FOREIGN KEY
..
无法建立连接
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细错误消息:<causeErrorMessage>
。
无法建立无服务器连接
无法与远程 <jdbcDialectName>
数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请允许从 Internet 到主机的入站流量,因为你使用的是无服务器计算。 如果你的网络策略不允许入站 Internet 流量,请使用非无服务器计算,或者可以联系 Databricks 代表了解无服务器专用网络。 ** 详细错误消息:<causeErrorMessage>
。
无法在转换中调用
数据集转换和作只能由驱动程序调用,而不能在其他数据集转换中调用;例如, dataset1.map(x => dataset2.values.count() * x)
由于值转换和计数作不能在 dataset1.map 转换内部执行,因此无效。 有关详细信息,请参阅 SPARK
-28702。
无法加载函数类
注册函数 <className>
时无法加载类 <functionName>
,请确保它位于类路径上。
无法加载PROTOBUF类
无法加载名称为 <protobufClassName>
的 Protobuf 类。
<explanation>
。
无法加载状态存储
加载状态期间出错。
有关详细信息,请参阅 CANNOT_LOAD_STATE_STORE
无法合并不兼容的数据类型
无法合并不兼容的数据类型 <left>
和 <right>
。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请考虑在尝试合并之前将列强制转换为兼容的数据类型。
无法合并模式
架构合并失败:
初始架构:
<left>
无法与初始架构合并的架构:
<right>
。
无法修改配置
无法修改 Spark 配置值:<key>
。
另请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements”。
无法解析小数
无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。
无法解析间隔
无法分析 <intervalString>
。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。 如果问题仍然存在,请仔细检查输入值不为 null 或为空,然后重试。
无法解析JSON字段
无法将 JSON 标记类型 <fieldName>
的字段名称 <fieldValue>
和值 <jsonType>
分析为目标 Spark 数据类型 <dataType>
。
不能解析PROTOBUF描述符
将描述符字节解析为 Protobuf FileDescriptorSet 时出错。
无法解析时间戳
<message>
。 使用 <func>
来容忍无效的输入字符串并改为返回 NULL
。
初始化期间无法查询表
初始化期间无法查询 MV/ST。
有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
无法读取归档文件
无法读取路径 <path>
处的文件,因为该文件已存档。 请调整查询筛选器以排除已存档的文件。
无法读取文件
无法读取路径 <format>
处的 <path>
文件。
有关详细信息,请参阅 CANNOT_READ_FILE
无法从安全提供者读取敏感密钥
无法从安全提供程序读取敏感密钥“<key>
”。
无法识别HIVE_TYPE
无法识别 hive 类型字符串:<fieldType>
,列:<fieldName>
。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保你使用的是受支持的 Spark SQL 版本。
CANNOT_REFERENCE_UC_IN_HMS
无法在 Hive 元存储对象中引用 Unity Catalog <objType>
。
无法移除保留属性
无法移除预留属性:<property>
。
无法跨目录重命名
不允许跨目录重命名 <type>
。
无法跨架构重命名
不允许跨架构重命名 <type>
。
无法解析数据框列
无法解析 DataFrame 列 <name>
。 这可能是因为非法引用,如 df1.select(df2.col("a"))
。
无法解析星展开
无法解析 <targetString>
.* 给定的输入列 <columns>
。 请检查指定的表或结构是否存在并且可在输入列中访问。
无法恢复路径的权限
无法将创建的路径 <path>
上的权限设置回 <permission>
。
无法跨统一通信和华为移动服务进行浅克隆
无法跨 Unity Catalog 和 Hive 元存储浅度克隆表。
无法进行浅层克隆嵌套
无法对已经是浅度克隆的表 <table>
执行浅度克隆。
无法将非UC托管表作为源或目标进行浅克隆
只有 MANAGED
表类型支持浅度克隆。 表 <table>
不是 MANAGED
表。
CANNOT_UPDATE_FIELD
无法更新 <table>
字段 <fieldName>
类型:
有关详细信息,请参阅 CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
无法将 <expression>
从 <sourceType>
强制转换为 <targetType>
。
<details>
无法使用KRYO
无法加载 Kryo 序列化编解码器。 无法在 Spark Connect 客户端中使用 Kryo 序列化。 使用 Java 序列化、提供自定义编解码器或使用 Spark 经典版。
无法验证连接
不支持验证 <jdbcDialectName>
连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。
无法写入状态存储
为提供程序 <providerClass>
写入状态存储文件时出错。
有关详细信息,请参阅 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
类型 <expression>
的值 <sourceType>
无法强制转换为 <targetType>
,因为其格式错误。 根据语法更正值,或更改其目标类型。 使用 try_cast
来容许格式错误的输入并改为返回 NULL
。
有关更多详细信息,请参阅 CAST_INVALID_INPUT
CAST_OVERFLOW
由于溢出,类型 <value>
的值 <sourceType>
无法强制转换为 <targetType>
。 使用 try_cast
容许溢出,并返回 NULL
。
表插入中的类型溢出
由于溢出,无法将 <sourceType>
类型分配到 <targetType>
类型列或变量 <columnName>
。 对输入值使用 try_cast
以容许溢出并改为返回 NULL
。
目录未找到
找不到目录 <catalogName>
。 请考虑将 SQL 配置 <config>
设置为目录插件。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
找不到检查点块 <rddBlockId>
!
可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。
如果此问题仍然存在,可以考虑改用 rdd.checkpoint()
,这个检查点比本地检查点慢,但容错能力更高。
循环类引用
类中不能有循环引用,但获得了类 <t>
的循环引用。
类未覆盖预期的方法
<className>
必须替代 <method1>
或 <method2>
。
类不受地图对象支持
MapObjects
不支持将类 <cls>
作为生成的集合。
无法支持洁净室命令
不支持清洁室命令
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
引用清洁室内 <type>
的名称无效。 按照 [catalog].[schema].[<type>
] 的格式,在清洁室内使用 <type>
的名称。
如果不确定要使用的名称,则可以运行“SHOW ALL IN CLEANROOM
[clean_room]”,并使用“name”列中的值。
克隆历史无效选项
使用历史记录进行克隆时指定了无效选项: <invalidOption>
。
有效语法:CREATE
(或 REPLACE) TABLE
... 深 CLONE
... WITH HISTORY
.
克隆_不支持_历史记录
不支持带历史记录的克隆。
云文件源文件未找到
已收到文件 <filePath>
的文件通知,但该文件不再存在。 请确保在处理文件之前该文件未被删除。 若要继续处理流,可以将 Spark SQL 配置 <config>
设置为 true。
云服务提供商错误
云提供商错误:<message>
聚类列不匹配
指定的聚类分析与现有表 <tableName>
的聚类分析不匹配。
指定的聚类分析列:[<specifiedClusteringString>
]。
现有聚类分析列:[<existingClusteringString>
]。
不支持集群
“<operation>
”不支持聚类分析。
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
请联系 Databricks 代表来启用群集自动功能。
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY
AUTO。
自动聚类需预测优化
CLUSTER BY
AUTO 要求启用预测性优化。
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
仅 UC 托管表支持 CLUSTER BY
AUTO。
CODEC_NOT_AVAILABLE
编解码器 <codecName>
不可用。
有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
找不到编解码器 <codecName>
的短名称。
排序无效名称
值 <collationName>
不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>
]。
排序无效提供程序
值 <provider>
不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>
]。
排序不匹配
无法确定要用于字符串函数和运算符的排序规则。
有关更多详细信息,请参阅 COLLATION_MISMATCH
集合大小超出限制
无法使用超过数组大小限制 <numberOfElements>
的 <maxRoundedArrayLength>
元素创建数组,
有关详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED
列别名不允许
<op>
中不允许使用列别名。
列已存在
列 <columnName>
已存在。 选择其他名称或重命名现有列。
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
字段 <pos>
中的某些值与列数组类型不兼容。 预期的类型 <type>
。
列掩码_基于属性访问控制_不匹配
无法解析列掩码 <tableName>
,因为从策略继承的列掩码与显式定义的列掩码之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。
列掩码检查约束不支持
不支持使用列掩码策略对表 CHECK
创建 <tableName>
约束。
列掩码通过列名重复
<statementType>
语句尝试将列掩码策略分配到某个列,而该列包含 USING COLUMNS
列表中的其他两个或更多个具有名称 <columnName>
的被引用列,这是无效操作。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED(列掩码功能不支持)
不支持 <tableName>
的列掩码策略:
有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED
列掩码不兼容的模式更改
无法从表 <statementType> <columnName>
执行 <tableName>
,因为它已在列 <maskedColumn>
的列掩码策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。
列掩码合并不支持的来源
MERGE INTO
操作不支持源表 <tableName>
中的列掩码策略。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作不支持写入具有列掩码策略的表 <tableName>
。
列掩码多部分目标列名
此语句尝试将列掩码策略分配到具有多个名称部分的列 <columnName>
,这是无效操作。
列掩码使用列名进行多部分处理
此语句尝试将列掩码策略分配到某个列,而 USING COLUMNS
列表包含的名称 <columnName>
具有多个名称部分,这是无效操作。
列掩码未启用
未启用对定义列掩码的支持
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
列掩码策略仅在 Unity Catalog 中受支持。
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
具有列掩码的 SHOW PARTITIONS
表不支持 <format>
命令。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED(列掩码表克隆源不支持)
不支持使用列掩码策略从表 <mode>
进行 <tableName>
克隆。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
不支持使用列掩码策略将 <mode>
克隆到表 <tableName>
。
列掩码不支持常量作为参数
不支持将常数用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。
COLUMN_MASKS_UNSUPPORTED_DATA_TYPE(列掩码不支持的数据类型)
用作列掩码策略的函数 <functionName>
包含数据类型不受支持的 <dataType>
参数。
列掩码不支持提供者
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配列掩码策略。
列掩码不支持子查询
无法对表 <operation>
执行 <tableName>
,因为表中包含一个或多个具有子查询表达式的列掩码策略,尚不支持此操作。 请联系表的所有者以更新列掩码策略,以便继续操作。
列掩码使用与目标列相同的列名
列 <columnName>
与目标列同名,这是无效的;请从 USING COLUMNS
列表中删除该列,然后重试命令。
列在表中未定义
<colType>
列 <colName>
未在表 <tableName>
中定义,定义的表列为:<tableCols>
。
列未找到
找不到列 <colName>
。 根据 SQL 配置 <caseSensitiveConfig>
验证列名的拼写和正确性。
列序数超出范围
列序号超出边界。 表中的列数为 <attributesLength>
,但列序号为 <ordinal>
。
属性如下:<attributes>
。
逗号前置约束错误
约束定义前出现意外的“,”。 确保未定义列(和预期)时,约束子句不以逗号开头。
尚未实现连接注释
命令 COMMENT ON CONNECTION
尚未实现
比较器返回空值
对于 NULL
和 <firstValue>
之间的比较,比较器返回了 <secondValue>
。
它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。
若要恢复已弃用的行为,即,将 NULL
视为 0(使用“等于”运算符),必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。
复杂表达式不支持的输入
无法处理表达式的输入数据类型:<expression>
。
有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
并发查询
此查询的另一个实例 [id:<queryId>
] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>
,新 runId:<newQueryRunId>
]。
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
群集中所需的最小可用槽数是 <numTasks>
,而群集只有 <numSlots>
个可用槽。 查询将停止或失败。 增加群集大小以继续。
并行流日志更新
并发更新日志。 检测到多个流式处理作业的 <batchId>
。
请确保一次只有一个流式处理作业在特定检查点位置运行。
配置不可用
配置 <config>
不可用。
目录结构冲突
检测到冲突的目录结构。
可疑路径:
<discoveredBasePaths>
如果提供的路径是分区目录,请在数据源的选项中设置“basePath”,以指定表的根目录。
如果有多个根目录,请单独加载它们,然后将它们联合起来。
冲突的分区列名称
检测到的分区列名称冲突:
<distinctPartColLists>
对于已分区表目录,数据文件应仅位于叶目录中。
同一级别的目录应具有相同的分区列名称。
请检查以下目录是否有意外文件或不一致的分区列名称:
<suspiciousPaths>
冲突的提供者
指定的提供程序 <provider>
与现有目录提供程序 <expectedProvider>
不一致。 请使用“USING <expectedProvider>
”,然后重试该命令。
连接
泛型 Spark 连接错误。
有关详细信息,请参阅 CONNECT
连接已存在
连接无法创建连接 <connectionName>
,因为它已存在。
选择其他名称、删除或替换现有连接,或者添加 IF NOT EXISTS
子句以容许现有的连接。
连接名称不能为空
无法执行此命令,因为连接名称必须非空。
未找到连接
无法执行此命令,因为找不到连接名称 <connectionName>
。
连接选项不受支持
“<connectionType>
”类型的连接不支持以下选项:<optionsNotSupported>
。 支持的选项:<allowedOptions>
。
连接类型不支持
无法创建“<connectionType>
”类型的连接。 支持的连接类型:<allowedTypes>
。
会话迁移连接
泛型会话迁移错误(userId:<userId>
、sessionId:<sessionId>
、serverSessionId:<serverSessionId>
)。
有关更多详细信息,请参阅 CONNECT_SESSION_MIGRATION
约束需要统一目录
表约束仅在 Unity Catalog 中受支持。
转换_输入无效
无法将值 <str> (<fmt>
转换为 <targetType>
,因为它的格式错误。 请根据语法更正值,或更改其格式。 使用 <suggestion>
来容许格式错误的输入并改为返回 NULL
。
COPY_INTO_COLUMN_ARITY_MISMATCH
无法写入 <tableName>
,原因是
有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
方案 <scheme>
无效。
COPY INTO
源凭证目前仅支持 s3/s3n/s3a/wasbs/abfss。
需要复制到凭证中
COPY INTO
源凭证必须指定 <keyList>
。
无法复制到重复文件中——不允许复制
复制的文件在并发 COPY INTO
操作中提交。 请稍后再试。
不允许复制到加密中
方案 <scheme>
无效。
COPY INTO
源加密目前仅支持 s3/s3n/s3a/abfss。
复制到 Azure 的加密不支持
COPY INTO
加密仅支持 ADLS Gen2 或 abfss:// 文件方案
复制需加密
COPY INTO
源加密必须指定“<key>
”。
需要加密并预计的复制
无效加密选项 <requiredKey>
。
COPY INTO
源加密必须指定“<requiredKey>
”=“<keyValue>
”。
复制到特性中不兼容的设置
COPY INTO
功能“<feature>
”与“<incompatibleSetting>
”不兼容。
禁止将数据复制到非盲追加模式
除了追加数据外,COPY INTO
不能与其他事务同时运行。 请稍后再试。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
无法加载其状态,超过最大重试次数。
复制操作中,架构与目标表不匹配
复制到 Delta 表(表:<table>
)时检测到架构不匹配。
这可能表示传入数据存在问题,或者 Delta 表架构通过以下设置根据传入数据进行了自动演变:
COPY_OPTIONS
(‘mergeSchema’ = ‘true’)
架构差异:
<schemaDiff>
复制到源文件格式不受支持
源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET
、TEXT 或 BINARYFILE
中的一种。 不支持在 Delta 表上使用 COPY INTO
作为源,因为在进行 OPTIMIZE
操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false
来关闭此检查。
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
源目录不包含 <format>
类型的任何可分析文件。 请检查“<source>
”的内容。
通过将“<config>
”设置为“false”,可以将错误静音。
COPY_INTO_STATE_INTERNAL_ERROR
处理 COPY INTO
状态时出现内部错误。
有关详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR
复制到语法错误
未能分析 COPY INTO
命令。
有关详细信息,请参阅 COPY_INTO_SYNTAX_ERROR
复制到不支持的功能
不支持 COPY INTO
功能“<feature>
”。
COPY_UNLOAD_格式类型_不支持
无法卸载格式为“<formatType>
”的数据。
<connectionType>
的受支持格式包括:<allowedFormats>
。
创建外部架构功能尚未实现
命令 CREATE FOREIGN SCHEMA
尚未实现
外部表创建尚未实现
命令 CREATE FOREIGN TABLE
尚未实现
不支持创建或刷新MV
不支持 CREATE OR REFRESH STREAMING TABLE
。 请改用 CREATE OR REPLACE MATERIALIZED VIEW
。
CREATE_OR_REFRESH_MV_ST_ASYNC
无法 CREATE
或 REFRESH
指定了 ASYNC
的具体化视图或流式处理表。 请从 ASYNC
或 CREATE
语句中删除 REFRESH
,或使用 REFRESH ASYNC
异步刷新现有具体化视图或流式处理表。
创建无别名永久视图
不允许在未显式分配表达式 <name>
的别名的情况下创建永久视图 <attr>
。
创建表列描述符重复
CREATE TABLE
列 <columnName>
多次指定了描述符“<optionName>
”,这是无效的。
创建视图列数目不匹配
无法创建视图 <viewName>
,原因为
有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH
资凭证丢失
创建或更新外部位置时请提供凭据。
凭据目的不匹配
凭据 <credentialName>
具有用途 <actualPurpose>
,但命令中给出的用途是 <expectedPurpose>
。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
使用 enforceSchema
或 rescuedDataColumn
时,无法设置 CSV 选项 failOnUnknownFields
,因为列是按名称读取的,而不是序号。
循环函数引用
检测到循环函数引用:<path>
。
DATABRICKS_DELTA_NOT_ENABLED
未在帐户中启用 Databricks Delta。<hints>
数据类型不匹配
由于数据类型不匹配,无法进行解析 <sqlExpr>
:
有关更多详细信息,请参阅 DATATYPE_MISMATCH
数据类型缺少大小
DataType <type>
需要长度参数,例如 <type>
(10)。 请指定长度。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
写入世系失败:缺少与 CLM/RLS 策略对应的关系。
数据源已存在
数据源“<provider>
”已存在。 请为新数据源选择其他名称。
数据源外部错误 (DATA_SOURCE_EXTERNAL_ERROR)
保存到外部数据源时遇到错误。
数据源不存在 (DATA_SOURCE_NOT_EXIST)
找不到数据源“<provider>
”。 请确保已注册该数据源。
数据源未找到 (DATA_SOURCE_NOT_FOUND)
未能找到数据源:<provider>
。 请确保提供程序名称正确,并且包已正确注册且与 Spark 版本兼容。
数据源选项包含无效字符
选项 <option>
不能为空,且不应包含无效字符、查询字符串或参数。
数据源选项是必填项
选项 <option>
是必需的。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH (数据源表模式不匹配)
数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或要创建表,请避免指定该架构。
数据源架构:<dsSchema>
预期架构:<expectedSchema>
数据源URL不允许
数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。
日期时间字段超出范围
<rangeMessage>
。 如有必要,请将 <ansiConfig>
设置为“false”以绕过此错误。
日期时间溢出
日期/时间操作溢出:<operation>
。
DC_接口_配额_已超出
已超出数据源 <sourceName>
的 API 配额。
有关详细信息,请参阅 DC_API_QUOTA_EXCEEDED
直流连接错误
未能连接到 <sourceName>
源。 错误代码:<errorCode>
。
有关更多详情,请参阅 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE:未分配
架构更改发生在 <tableName>
源的表 <sourceName>
中。
有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
若要重试,可以重新运行整个管道或刷新此特定的目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>
。 作业状态:<jobStatus>
。
DC_SHAREPOINT_API_ERROR
Sharepoint API 调用中出错,errorCode:<errorCode>
。
有关更多详细信息,请参阅 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<apiType>
。 错误代码:<errorCode>
。
有时,在达到 <sourceName>
API 限制时,可能会发生这种情况。 如果你未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。
DC_UNSUPPORTED_ERROR
数据源 <sourceName>
中出现“不受支持”错误。
有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 调用发生错误,errorCode:<errorCode>
。
有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR
小数精度超出最大精度
小数精度 <precision>
超过最大精度 <maxPrecision>
。
默认数据库不存在
默认数据库 <defaultDatabase>
不存在,请先创建该数据库,或将默认数据库更改为 <defaultDatabase>
。
默认文件未找到
可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时,或者基础文件已删除,可以通过重启群集手动使磁盘缓存失效。
默认位置无效
无法将 DEFAULT
、MERGE
、INSERT
或 UPDATE
命令中的 SET VARIABLE
关键字直接分配给目标列,因为它是表达式的一部分。
例如: UPDATE
允许 SET c1 = DEFAULT
,但 UPDATE T
不允许 SETc1 =
DEFAULT + 1
。
默认不支持
无法执行 <statementType>
命令,因为不支持使用表提供程序“DEFAULT
”为目标数据源分配 <dataSource>
值。
描述_JSON_未扩展
DESCRIBE TABLE
...仅当指定 [EXTENDED|FORMATTED
] 时,才支持 AS JSON。
例如:DESCRIBE EXTENDED <tableName>
支持 AS JSON,但 DESCRIBE <tableName>
AS JSON 不受支持。
不同 Delta 表由流媒体源读取
流式处理查询从意外的 Delta 表(id =“<newTableId>
”)中读取。
它用于根据检查点从另一个 Delta 表(id =“<oldTableId>
”)中读取。
当更改代码以从新表读取,或删除并重新创建表时,
可能会发生此错误。 请还原更改或删除流式处理查询检查点
以从头开始。
不支持的 DISTINCT 窗口函数
不支持不同的窗口函数:<windowExpr>
。
DIVIDE_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。 如有必要,请将 <config>
设置为“false”以绕过此错误。
有关更多详细信息,请参阅 DIVIDE_BY_ZERO
不支持DLT期望
仅在 DLT 管道中支持预期。
不支持按视图群集
具有 MATERIALIZED
子句的 CLUSTER BY
视图仅在 DLT 管道中受支持。
DLT_查看位置不支持
物化视图的位置仅在 DLT 数据流管道中受支持。
DLT_视图_模式_带有_类型_不支持
仅 DLT 管道支持具有指定类型的具体化视图架构。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
视图中的 CONSTRAINT
子句仅在 DLT 管道中受支持。
删除计划不存在
在没有现有计划或触发器的情况下无法删除表上的 SCHEDULE
。
重复的CTE名称
CTE 定义不能有重复的名称:<duplicateNames>
。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
箭头结构中不允许出现重复的字段名称,已得到 <fieldNames>
。
重复的映射键
找到重复的映射键 <key>
,请检查输入数据。
如果你要删除重复的键,可以将 <mapKeyDedupPolicy>
设置为“LAST_WIN
”,使最后插入的键优先。
重复的指标名称
指标名称不唯一:<metricName>
。 同一名称不能用于具有不同结果的指标。
但是,允许具有相同结果和名称的多个指标实例(例如自联接)。
重复分配
列或变量 <nameList>
作为赋值目标出现多次。
重复条款
发现重复子句:<clauseName>
。 请删除其中的一个。
作用域内的重复条件
在作用域中找到重复条件 <condition>
。 请删除其中的一个。
重复异常处理器
找到重复的处理程序。 请删除其中的一个。
有关详细信息,请参阅DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_KEY
发现重复键 <keyColumn>
。
重复例程参数分配
对例程 <routineName>
的调用无效,因为它包含对同一参数名称 <parameterName>
的多个参数赋值。
有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
重复例程参数名称 (DUPLICATE_ROUTINE_PARAMETER_NAMES)
在用户定义的例程 <routineName>
的参数列表中发现重复的名称:<names>
。
重复的例程返回列
在用户定义的例程 RETURNS
的 <routineName>
子句列列表中发现重复的列:<columns>
。
不允许发出超过时间标记的行
上一个节点发出了 eventTime=<emittedRowEventTime>
早于 current_watermark_value=<currentWatermark>
的行
这可能会导致执行管道下游有状态运算符出现正确性问题。
请更正运算符逻辑,以在当前全局水印值之后发出行。
空的JSON字段值
无法分析数据类型 <dataType>
的空字符串。
本地文件在阶段访问查询中为空
暂存 <operation>
查询中包含空本地文件
数据源不支持空架构
<format>
数据源不支持编写空架构或嵌套的空架构。 请确保数据架构至少有一列或多列。
编码器未找到
找不到 Spark SQL 内部表示形式的 <typeName>
类型编码器。
考虑将输入类型更改为“<docroot>
/sql-ref-datatypes.html”支持的其中一个类型。
标签结束未见标签开始
没有开始标签情况下结束标签 <endLabel>
无法存在。
结束偏移量的主题分区偏移量大于最新可用触发器偏移量
在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
最新偏移量:<latestOffset>
,结束偏移量:<endOffset>
结束偏移量对主题分区大于预取偏移量
对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
预提取的偏移量:<prefetchedOffset>
,结束偏移量:<endOffset>
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT (错误读取AVRO数据: 未知指纹)
读取 avro 数据时出错 -- 遇到未知指纹: <fingerprint>
不确定要使用的架构。
如果在启动 Spark 上下文后注册了其他架构,则可能会发生这种情况。
事件日志需要共享计算资源
无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。
事件日志 TVF 不支持流水线
EVENT_LOG
使用“架构”字段或发布到默认存储的管道不支持 Table-Valued 函数。
若要查询事件日志,请在管道设置中指定event_log字段,将其发布到元存储。
有关详细信息,请参阅“监控 DLT 管道”文档: https://docs.databricks.com/aws/en/dlt/observability
事件日志不可用
没有任何适用于 <tableOrPipeline>
的事件日志。 请稍后在生成事件后重试
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier>
的表类型为 <tableType>
。
查询事件日志仅支持具体化视图、流式表或 DLT 管道。
事件时间不在时间戳类型上
事件时间 <eventName>
的 <eventType>
类型无效,应为“TIMESTAMP
”。
超出限制长度
超过 char/varchar 类型长度限制:<limit>
。
除外_嵌套列_类型无效
EXCEPT
列 <columnName>
已解析,本应该为 StructType,但发现类型为 <dataType>
。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT
列表中的列必须非重复且不重叠,但出现了 (<columns>
)。
减去未匹配的已解决列
EXCEPT
列 [<exceptColumns>
] 已解析,但不与星形扩展中的任何 [<expandedColumns>
] 列匹配。
结构扩展过程中未解析的列异常
无法解析 <objectName>
子句中的列/字段名称 EXCEPT
。 你是否指的是下列其中一项:[<objectList>
]?
注意:在结构扩展期间,EXCEPT
子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。
执行器_广播_连接_内存不足
内存不足,无法生成广播关系 <relationClassName>
。 关系大小 = <relationSize>
. 此任务使用的内存总量 = <taskMemoryUsage>
。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。
EXECUTOR_BROADCAST_JOIN_STORE_OOM
内存不足,无法存储广播关系 <relationClassName>
。 关系大小 = <relationSize>
. StorageLevel = <storageLevel>
。 [sparkPlanId: <sparkPlanId>
] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
此 USING
命令的 EXECUTE IMMEDIATE
子句包含多个具有相同别名 (<aliases>
) 的参数,这是无效的;请更新命令以指定唯一的别名,然后重试。
期望永久视图而非临时视图
“<operation>
”需要永久视图,但 <viewName>
是临时视图。
EXPECT_TABLE_NOT_VIEW
应该为“<operation>
”提供表,但 <viewName>
是视图。
有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
表 <tableName>
不支持 <operation>
。
有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
无法将行解码为表达式的值:<expressions>
。
表达式编码失败 (EXPRESSION_ENCODING_FAILED)
无法将表达式的值 <expressions>
解码为行。
表达式类型不可排序
列表达式 <expr>
无法排序,因为其类型 <exprType>
不可排序。
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
无法在源表<sourceTable>
上运行操作,因为浅表克隆<targetTable>
仍然存在,其状态无效。 如果确实想要继续此操作,请通过显式运行 DROP
命令清理这个浅表克隆。
外部表无效方案
外部表不支持 <scheme>
方案。
FABRIC_REFRESH_INVALID_SCOPE (无效的刷新范围)
运行“REFRESH FOREIGN <scope> <name>
”时出错。 无法直接刷新 Fabric <scope>
,请改用“REFRESH FOREIGN CATALOG <catalogName>
”刷新 Fabric Catalog。
执行用户自定义函数失败
用户自定义函数 (<functionName>
: (<signature>
) =>
<result>
) 由于 <reason>
而失败。
函数调用失败
为调用准备函数 <funcName>
失败。 请仔细检查函数的参数。
FAILED_JDBC
操作上的 JDBC <url>
失败:
有关详细信息,请参阅 FAILED_JDBC
解析结构类型失败
解析结构 <raw>
失败。
文件读取失败
读取文件 <path>
时出错。
有关更多详细信息,请参阅 FAILED_READ_FILE
使用KRYO注册类失败
无法向 Kryo 注册课程。
重命名路径失败
无法将 <sourcePath>
重命名为 <targetPath>
,因为目标已存在。
无法重命名临时文件
无法将临时文件 <srcPath>
重命名为<dstPath>
,因为 FileSystem.rename 返回 false。
行转换为JSON失败
未能将类 <value>
的行值 <class>
转换为 JSON 格式的目标 SQL 类型 <sqlType>
。
无法加载例程
无法加载例程 <routineName>
。
解析失败_内容过于复杂
该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。
若要缓解此错误,可将语句划分为多个不太复杂的区块。
功能未启用
功能 <featureName>
未启用。 请考虑将配置 <configKey>
设置为 <configValue>
以启用此功能。
功能_不在_经典仓库
<feature>
在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。
FEATURE_REQUIRES_UC
<feature>
在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。
功能不可用
<feature>
在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。
字段已存在
无法 <op>
列,因为 <fieldNames>
已在 <struct>
中存在。
字段未找到
<fieldName>
中没有此类结构字段 <fields>
。
文件在暂存路径中已存在
暂存路径 <path>
中的文件已存在,但未设置 OVERWRITE
FLATMAPGROUPSWITHSTATE 用户函数错误 (USER_FUNCTION_ERROR)
用户在 flatMapGroupsWithState 中提供的函数出错。 原因:<reason>
禁止的数据源在无服务器环境中
不允许在无服务器计算中查询数据源 <source>
。 无服务器计算仅支持 <allowlist>
数据源。
禁止操作
不允许对 <statement>
执行 <objectType>
操作:<objectName>
。
FOREACH_BATCH_USER_FUNCTION_ERROR
用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>
针对每个用户的函数错误
用户在 foreach 接收器中提供的函数中发生错误。 原因:<reason>
外键不匹配
外键父列 <parentColumns>
与主键子列 <childColumns>
不匹配。
外部对象名称不能为空
无法执行此命令,因为外部 <objectType>
名称必须非空。
发现多个数据源
检测到名称为“<provider>
”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。
来自JSON的冲突模式更新
from_json 推理在以下位置遇到冲突的架构更新:<location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord
选项“columnNameOfCorruptRecord”。
从JSON格式损坏的模式
from_json 推理无法读取存储在以下位置的架构:<location>
FROM_JSON_INFERENCE_FAILED (从 JSON 推断失败)
from_json 无法推断架构。 请改为提供一个架构。
不支持FROM_JSON推断
仅当定义流式处理表时,才支持 from_json 推理
从JSON无效配置
from_json 配置无效:
有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json 无法从 <old>
发展为 <new>
函数参数必须命名
函数 <function>
需要命名参数。 参数缺少名称 <exprs>
。 请更新函数调用以添加所有参数的名称,例如 <function>(param_name => ...)
。
生成列,默认值
列不能同时具有默认值和生成表达式,但列 <colName>
具有默认值 (<defaultValue>
) 和生成表达式 (<genExpr>
)。
获取表格按类型_Hive版本不支持
Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。
获取预热追踪失败
未能获取预热跟踪。 原因:<cause>
。
热身跟踪功能不允许
不允许使用函数 get_warmup_tracing()。
石墨接收器_协议无效
无效的 Graphite 协议:<protocol>
。
石墨接收器属性缺失
Graphite 接收器需要“<property>
”属性。
分组列不匹配
在分组列 <grouping>
中找不到分组 (<groupingColumns>
) 的列。
分组ID列不匹配
grouping_id (<groupingIdColumn>
) 的列与分组列 (<groupByColumns>
) 不匹配。
分组大小超过限制
分组集大小不能大于 <maxSize>
。
GROUP_BY_AGGREGATE
GROUP BY
中不允许使用聚合函数,但找到了 <sqlExpr>
。
有关更多详细信息,请参阅 GROUP_BY_AGGREGATE
按位置分组聚合
GROUP BY <index>
引用了包含聚合函数的表达式 <aggExpr>
。
GROUP BY
中不允许使用聚合函数。
分组位置超出范围
GROUP BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
分组表达式类型不可排序
表达式 <sqlExpr>
无法用作分组表达式,因为其数据类型 <dataType>
不是可排序的数据类型。
HDFS_HTTP_ERROR
尝试从 HDFS 读取时,HTTP 请求失败。
有关更多详细信息,请参阅 HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
对 <function>
的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如 hll_sketch_agg
函数生成的缓冲区)。
HLL_INVALID_LG_K
对 <function>
的调用无效;lgConfigK
值必须介于 <min>
和 <max>
之间,包括:<value>
。
HLL_UNION_DIFFERENT_LG_K
草图具有不同的 lgConfigK
值:<left>
和 <right>
。 将 allowDifferentLgConfigK
参数设置为 true 以使用不同的 <function>
值调用 lgConfigK
。
HMS_FEDERATION_浅克隆_未找到_IN_UC
浅克隆路径“<path>
”无法解析为Unity目录中的表。 请确保该表存在并且已集成到 Unity Catalog。
HYBRID_ANALYZER_EXCEPTION
尝试使用旧的固定点分析器和单传递解析程序解析查询或命令时出现失败。
有关更多详细信息,请参阅 HYBRID_ANALYZER_EXCEPTION
标识符_名称部分过多
<identifier>
不是有效的标识符,因为它的名称部分超过 2 个。
身份列重复序列生成器选项
重复的 IDENTITY
列序列生成器选项:<sequenceGeneratorOption>
。
标识列不合法步骤
IDENTITY
列步长不能为 0。
唯一标识列不支持的数据类型
<dataType>
列不支持 DataType IDENTITY
。
非法的星期几
非法输入一周中的某天:<string>
。
ILLEGAL_STATE_STORE_VALUE
提供给状态存储的非法值
有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE
连接选项的不当URI方案
由于为连接选项“<uri>
”提供的 URI <option>
架构不当,无法创建连接。
允许的架构:<allowedSchemes>
。
如果架构不存在于 URI 中,请添加架构,或从允许的值指定架构。
无法比较的透视列
无效透视列 <columnName>
。 透视列必须可比较。
列类型不兼容 (INCOMPATIBLE_COLUMN_TYPE)
只能对具有兼容列类型的表执行 <operator>
。
<columnOrdinalNumber>
表的 <tableOrdinalNumber>
列是 <dataType1>
类型,与第一个表同一列的 <dataType2>
不兼容。<hint>
。
不兼容的数据源注册
检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:<message>
表格不兼容的数据
无法为表 <tableName>
写入不兼容的数据:
有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
联接类型 <joinType1>
和 <joinType2>
不兼容。
视图模式更改不兼容
视图 <viewName>
的 SQL 查询包含不兼容的架构更改,无法解析列 <colName>
。 需要名为 <expectedNum>
的 <colName>
列,但收到的列为 <actualCols>
。
请尝试通过运行 <suggestion>
重新创建视图。
不完整类型定义
不完整的复杂类型:
有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION
版本间行为不一致
由于升级到,可能会得到其他结果
有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION
参数数量不正确
<failure>
,<functionName>
至少需要 <minArgs>
个参数,最多需要 <maxArgs>
个参数。
错误的加速率
<rowsPerSecond>
rowsPerSecond 的最大偏移量为 <maxSeconds>
,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>
。
不确定的排序
无法确定要用于字符串操作的排序规则。 使用 COLLATE
子句显式设置排序规则。
表达式中的不明确排序规则
<expr>
的数据类型具有不确定的排序规则。 使用 COLLATE
子句显式设置排序规则。
架构中不可确定的排序规则
架构包含不确定的排序规则:[<columnPaths>
]。 使用 COLLATE
子句显式设置排序规则。
索引已存在
无法在表 <indexName>
上创建索引 <tableName>
,因为它已存在。
索引未找到
在表 <indexName>
上找不到索引 <tableName>
。
不支持INFINITE_STREAMING_TRIGGER
此群集类型不支持触发器类型 <trigger>
。
使用不同的触发器类型,例如 AvailableNow、Once。
插入列数量不匹配
无法写入 <tableName>
,原因是
有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH
插入分区列的元数不匹配
无法中写入“<tableName>
”,<reason>
:
表列:<tableColumns>
。
使用静态值对列进行分区:<staticPartCols>
。
数据列:<dataColumns>
。
使用的列集合无效,无法进行插入或替换操作
表必须分区,所有指定的列都必须表示表的分区列的完整集。
以下列不是分区列: <nonPartitionColumns>
缺少以下分区列: <missingPartitionsColumns>
插入替换未启用
请联系 Databricks 代表启用 INSERT INTO
... REPLACE USING
(...) 功能。
权限不足
权限不足:
<report>
权限不足_EXT_LOC
用户 <user>
对外部位置 <location>
的特权不足。
权限不足_无所有者
<securableName>
没有所有者。 要求管理员设置所有者。
权限不足_所有权_可安全保护
用户不拥有 <securableName>
。
权限不足_可保护对象
用户对 <action>
没有 <securableName>
权限。
权限不足_可安全父对象_所有者
<securableName>
的所有者不同于 <parentSecurableName>
的所有者。
权限不足存储凭据
存储凭据 <credentialName>
的特权不足。
权限不足_底层可保护对象
由于对基础安全对象的权限,用户无法对 <action>
执行 <securableName>
。
权限不足_基础可保护对象_详细说明
由于对基础安全对象的权限,用户无法对 <action>
执行 <securableName>
:
<underlyingReport>
间隔算术溢出 (INTERVAL_ARITHMETIC_OVERFLOW)
使用间隔操作时的整数溢出。
有关更多详细信息,请参阅 INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
被零除。 使用 try_divide
容许除数为 0,并返回 NULL
。
无效的聚合过滤器
聚合函数中的 FILTER
表达式 <filterExpr>
无效。
有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER
INVALID_无偏编码器
找到无效的不可知编码器。 预计会得到 AgnosticEncoder 的一个实例,但却得到 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
无效算法值
无效或不受支持的边缘内插算法值 <alg>
。
无效的数组索引
索引 <indexValue>
超出界限。 数组具有 <arraySize>
个元素。 使用 SQL 函数 get()
容许访问无效索引上的元素,并改为返回 NULL
。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX
元素中的无效数组索引
索引 <indexValue>
超出界限。 数组具有 <arraySize>
个元素。 使用 try_element_at
容许访问无效索引上的元素,并返回 NULL
。
有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
无效的属性名称语法
属性名称中的语法错误:<name>
。 检查反引号是否成对显示,带引号的字符串是一个完整的名称部分,并且仅在带引号的名称部分内使用反引号。
无效的AWS认证
请选择以下身份验证方法之一:
提供 Databricks 服务凭据(
<serviceCredential>
)的名称(作为 spark 流选项或群集环境变量)。提供 AWS AccessKey(
<awsAccessKey>
)和 SecretAccessKey(<awsSecretKey>
)以使用 AWS 密钥。请勿提供 AWS 密钥或 Databricks 服务凭据,以使用用于 Kinesis 身份验证的默认 AWS 凭据提供程序链。
AWS身份验证显式选项无效
请提供您的 Databricks 服务凭据的名称或编号(<serviceCredential>
)
或 <awsAccessKey>
和 <awsSecretKey>
无效的位图位置
索引为 0 的位图位置 <bitPosition>
超出边界。 位图具有 <bitmapNumBits>
位(<bitmapNumBytes>
字节)。
无效布尔声明
期望条件中有布尔语句,但 <invalidStatement>
已找到。
无效边界
边界 <boundary>
无效:<invalidValue>
。
有关更多详细信息,请参阅 INVALID_BOUNDARY
无效的分桶列数据类型
不能对存储桶列使用 <type>
。 存储桶不支持排序规则数据类型。
无效的桶文件
无效的桶文件:<path>
。
INVALID_BYTE_STRING
预期的格式为 ByteString,但实际为 <unsupported> (<class>
)。
无效的列名称作为路径
数据源 <datasource>
无法保存列 <columnName>
,因为它的名称包含文件路径中不允许的某些字符。 请使用别名将其重命名。
无效的列或字段数据类型
列或字段 <name>
的类型是 <type>
,但必须是 <expectedType>
。
INVALID_CONF_VALUE
配置“<confValue>
”中的值“<confName>
”无效。
有关更多详细信息,请参阅 INVALID_CONF_VALUE
无效或损坏的记录类型
损坏记录的列 <columnName>
必须具有可为 STRING
null 的类型,但获得了 <actualType>
。
无效的坐标参考系统值
无效或不受支持的 CRS(坐标引用系统)值 <crs>
。
当前收件人用法无效
要在 Unity Catalog 中定义仅共享视图,current_recipient
函数只能在 CREATE VIEW
语句或 ALTER VIEW
语句中使用。
INVALID_CURSOR
游标无效。
有关更多详细信息,请参阅 INVALID_CURSOR
无效日期时间模式
无法识别的日期/时间模式:<pattern>
。
有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN
无效的默认值
无法执行 <statement>
命令,因为目标列或变量 <colName>
具有 DEFAULT
值 <defaultValue>
,
有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE
无效的分隔符值
分隔符的值无效。
有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE
无效的目标目录
SYNC
命令的目标目录必须位于 Unity Catalog 中。 已找到 <catalog>
。
无效的驱动程序内存 (INVALID_DRIVER_MEMORY)
系统内存 <systemMemory>
必须至少为 <minSystemMemory>
。
请通过在 Spark 配置中使用 --driver-memory 选项 或 "<config>
" 来增加内存堆的大小。
无效的动态选项
禁止为外部表 <option_list>
提供的选项 <table_name>
。
无效的空位置
位置名称不能为空字符串,但已给出 <location>
。
无效错误条件声明
条件声明无效。
有关详细信息 ,请参阅INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
发现无效的转义字符串:<invalidEscape>
。 转义字符串只能包含一个字符。
无效的转义字符
EscapeChar
应该是长度为 1 的字符串字面量,但收到了 <sqlExpr>
。
无效的执行器内存
执行程序内存 <executorMemory>
必须至少为 <minSystemMemory>
。
请使用 Spark 配置中的 --executor-memory 选项或“”<config>
增加执行程序内存。
表达式编码器无效
找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>
。 有关详细信息,请参阅“<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html”。
无效的外部类型
外部类型 <externalType>
对表达式 <type>
中的类型 <expr>
无效。
无效提取基本字段类型
无法从 <base>
中提取值。 需要复杂类型 [STRUCT
, ARRAY
, MAP
],但得到 <other>
。
INVALID_EXTRACT_FIELD (提取字段无效)
无法从 <field>
中提取 <expr>
。
无效的提取字段类型
字段名称应是非 null 字符串文本,但它是 <extraction>
。
无效字段名称
字段名称 <fieldName>
无效:<path>
不是结构。
格式无效
格式无效:<format>
。
有关更多详细信息,请参阅 INVALID_FORMAT
无效的秒分数错误
秒的有效范围为 [0, 60](含首尾),但提供的值为 <secAndMicros>
。 若要避免此错误,请使用 try_make_timestamp
,将在发生错误时返回 NULL
。
如果不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntz
或 try_make_timestamp_ltz
。
无效的获取诊断使用
GET DIAGNOSTICS
语句的使用无效。
有更详细的信息请参阅INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
GET DIAGNOSTICS
语句的使用无效。 GET DIAGNOSTICS
语句中条件编号的唯一支持值为 1。
INVALID_HANDLE
句柄 <handle>
无效。
有关更多详细信息,请参阅 INVALID_HANDLE
无效的处理程序声明
处理程序声明无效。
有关详细信息,请参阅INVALID_HANDLER_DECLARATION。
无效的HTTP请求方法
输入参数:方法、值:<paramValue>
不是 http_request 的有效参数,因为它不是有效的 HTTP 方法。
无效的HTTP请求路径
输入参数:路径、值:<paramValue>
不是 http_request 的有效参数,因为不允许路径遍历。
INVALID_IDENTIFIER
未加引号的标识符 <ident>
无效,必须反引号为:<ident>
。
不带引号的标识符只能包含 ASCII
字母(“a”-“z”、“A”-“Z”)、数字(“0”-“9”)和下划线(“_”)。
未加引号的标识符也不得以数字开头。
不同的数据源和元存储可能会对有效标识符施加额外的限制。
无效的零索引
索引 0 无效。 索引应为< 0
或> 0
(第一个元素的索引为1)。
无效内联表
无效的内联表。
有关更多详细信息,请参阅 INVALID_INLINE_TABLE
无效的时间间隔格式
将“<input>
”分析为间隔时出错。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。
有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT
无效的间隔微秒添加
无法将间隔添加到日期,因为它的微秒部分不是 0。 若要解决此问题,请将输入日期转换为时间戳,以支持添加包含非零微秒的间隔。
INVALID_INVERSE_DISTRIBUTION_FUNCTION
反向分布函数 <funcName>
无效。
有关详细信息,请参阅 INVALID_INVERSE_DISTRIBUTION_FUNCTION
无效的 Java 标识符作为字段名称
<fieldName>
不是 Java 的有效标识符,不能用作字段名称
<walkedTypePath>
。
无效的JoinWith连接类型
joinWith 中的加入类型无效:<joinType>
。
INVALID_JSON_DATA_TYPE (JSON 数据类型无效)
无法将 JSON 字符串“<invalidType>
”转换为数据类型。 请输入有效的数据类型。
无效的JSON数据类型用于排序规则
排序规则只能应用于字符串类型,但 JSON 数据类型为 <jsonType>
。
无效的 JSON 记录类型
在推断模式 <failFastMode>
中的通用架构时检测到 JSON 记录的类型无效。 期望 STRUCT
类型,但找到 <invalidType>
。
无效的JSON根字段
无法将 JSON 根字段转换为目标 Spark 类型。
无效的_JSON_模式_映射_类型
输入架构 <jsonSchema>
只能包含 STRING
作为 MAP
的键类型。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE(无效的 Kryo 序列化器缓冲区大小)
配置“<bufferSizeConfKey>
”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue>
MiB。
标签使用无效
标签 <labelName>
的使用无效。
有关更多详细信息,请参阅 INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
无效的 lambda 函数调用。
有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
不允许使用具有 <joinType>
关联的 LATERAL
JOIN,因为 OUTER
子查询无法与其连接伙伴相关联。 删除 LATERAL
关联,或者改用 INNER
JOIN 或 LEFT OUTER
JOIN。
INVALID_LIMIT_LIKE_EXPRESSION
表达式 <expr>
等限制无效。
有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion。
有关详细信息,请参阅 INVALID_LOG_VERSION
无效的非绝对路径
提供的非绝对路径 <path>
不符合资格。 请将路径更新为有效的 dbfs 装载位置。
无效的非确定性表达式
运算符需要确定性表达式,但实际表达式为 <sqlExprs>
。
无效数字字面量范围
数值 <rawStrippedQualifier>
超出了 <typeName>
的有效范围,最小值为 <minValue>
,最大值为 <maxValue>
。 请相应地调整值。
无效观察指标
观察到的指标无效。
有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS
无效选项
无效选项:
有关更多详细信息,请参阅 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT(无效的Pandas用户定义函数位置)
组聚合 pandas UDF <functionList>
不能与其他非 pandas 聚合函数一起调用。
INVALID_PARAMETER_MARKER_VALUE
提供的参数映射无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE
参数值无效
<parameter>
中参数 <functionName>
的值无效:
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
无效的分区列数据类型
不能对分区列使用 <type>
。
无效分区操作
分区命令无效。
有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION
无效的分区值
未能将分区列 <value>
的值 <dataType>
强制转换为数据类型 <columnName>
。 确保该值与此分区列的预期数据类型匹配。
无效_PIPELINE_ID
管道 ID <pipelineId>
无效。
管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID
无效权限
特权 <privilege>
对于 <securable>
无效。
无效的属性键
<key>
是一个无效的属性键,请使用引号,例如 SET <key>=<value>
。
属性值无效
<value>
是一个无效的属性值,请使用引号,例如 SET <key>=<value>
无效的合格列名
列名 <columnName>
无效,因为它没有限定表名,或者由超过 4 个名称部分组成。
查询无效,混合查询参数。
参数化查询必须使用位置参数或命名参数,但不能同时使用这两种参数。
无效的递归CTE
找到的递归定义无效。 递归查询必须包含一个 UNION
或一个包含 2 个子项的 UNION ALL
语句。 首个子级必须是锚定词,并且没有任何递归引用。
INVALID_RECURSIVE_REFERENCE
在 WITH RECURSIVE
子句中找到无效的递归引用。
有关详细信息,请参阅INVALID_RECURSIVE_REFERENCE
无效的正则表达式替换
无法对源 =“<source>
”、模式 =“<pattern>
”、更换 =“<replacement>
”和位置 = <position>
执行 regexp_replace。
无效重置命令格式
预期格式为“RESET
”或“RESET
key”。 如果你要在键中包含特殊字符,请使用引号,例如 RESET key
。
无效的重新信号使用
RESIGNAL
当处理程序未处于活动状态时。
RESIGNAL
语句只能在异常处理程序正文中使用。
无效的S3复制凭证
COPY INTO
凭证必须包括 AWS_ACCESS_KEY
、AWS_SECRET_KEY
和 AWS_SESSION_TOKEN
。
无效保存模式
指定的保存模式 <mode>
无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。
INVALID_SCHEMA
输入架构 <inputSchema>
不是有效的架构字符串。
有关更多详细信息,请参阅 INVALID_SCHEMA
无效的架构或关系名称
<name>
不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。
无效方案
Unity Catalog 不支持 <name>
作为默认文件方案。
INVALID_SECRET_LOOKUP
机密查找无效:
有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP
无效的设置语法
预期格式为“SET
”、“SET
key”或“SET
key=value”。 如果你要在键中包含特殊字符,或者在值中包含分号,请使用反引号,例如 SET key
=value
。
无效共享别名名称
<sharedObjectType>
别名必须采用“schema.name”格式。
无效单一变量列 (INVALID_SINGLE_VARIANT_COLUMN)
如果还有用户指定的架构,则无法使用 singleVariantColumn
选项。
无效的来源目录
源目录不得位于 SYNC
命令的 Unity Catalog 中。 已找到 <catalog>
。
无效的过滤服务合并命令源
筛选服务 MERGE
操作的源只能包含映射和筛选器。
请调整 MERGE
命令或使用暂存表作为源。
<stmt>
INVALID_SQLSTATE(无效的SQL状态)
无效 SQLSTATE
值:“<sqlState>
”。
SQLSTATE
长度必须为 5 个字符,且仅包含 A-Z 和 0-9。
SQLSTATE
不得以“00”、“01”或“XX”开头。
SQL参数无效
<name>
的参数 sql()
无效。 请考虑将其替换为 SQL 文本或集合构造函数 (如 map()
、array()
、struct()
)。
SQL语法错误
无效的 SQL 语法:
有关更多详细信息,请参阅 INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
暂存 <operation>
查询中的暂存路径无效:<path>
无效的执行语句
INTO
的 EXECUTE IMMEDIATE
子句仅适用于查询,但给定语句不是查询:<sqlString>
。
无效语句或子句
语句或子句:<operation>
无效。
流媒体实时模式触发间隔无效 (INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL)
实时触发器间隔设置为 <interval>
ms。 这小于 <minBatchDuration>
spark.databricks.streaming.realTimeMode.minBatchDuration 指定的毫秒最小值。
无效的流媒体实时模式触发覆盖间隔
无法分析实时触发器的检查点间隔 <interval>
。 请验证已传递正整数。
无效的子查询表达式
子查询无效:
有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION
用于ALTER命令的目标无效
ALTER <commandTableType>
... <command>
不支持 <tableName>
。 请改用ALTER <targetTableType>
... <command>
无效的目标用于SET_TBLPROPERTIES命令
ALTER <commandTableType>
... SET TBLPROPERTIES
不支持 <tableName>
。 请改用ALTER <targetTableType>
... SET TBLPROPERTIES
INVALID_TEMP_OBJ_REFERENCE
无法创建类型为 <objName>
的持久对象 <obj>
,因为该对象引用了类型为 <tempObjName>
的临时对象 <tempObj>
。 请将临时对象 <tempObjName>
设为持久对象,或将持久对象 <objName>
设为临时对象。
时间戳格式无效
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
无效时区
时区:<timeZone>
无效。 时区必须是基于地区的区域 ID 或区域偏移量。 区域 ID 必须具有“区域/城市”的格式,如“America/Los_Angeles”。 区域偏移量必须采用“(+|-)HH”、“(+|-)HH:mm”或“(+|-)HH:mm:ss”格式,例如“-08”、“+01:00”或“-13:33:33”,并且必须位于 -18:00 到 +18:00 的范围内。 “Z”和“UTC”被接受为“+00:00”的同义词。
时间旅行规范无效 (INVALID_TIME_TRAVEL_SPEC)
在按时间顺序查看表时,无法同时指定版本和时间戳。
时间旅行时间戳表达式无效
时间回溯时间戳表达式 <expr>
无效。
有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
无效的类型化文字
类型化文本 <valueType>
的值无效:<value>
。
INVALID_UDF_IMPLEMENTATION
函数 <funcName>
未实现 ScalarFunction 和 AggregateFunction。
无效的升级语法
<command> <supportedOrNot>
源表在 Hive 元存储中,而目标表在 Unity Catalog 中。
无效的URL
URL 无效:<url>
。 使用 try_parse_url
来容许无效的 URL 并改为返回 NULL
。
INVALID_USAGE_OF_STAR_OR_REGEX(星号或正则表达式的无效使用)
在 <elem>
中使用的 <prettyName>
无效。
无效的UTF8字符串
在字符串中找到的 UTF8 字节序列无效:<str>
。
无效的UUID
输入 <uuidInput>
不是有效的 UUID。
UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式
请检查 UUID 的格式。
无效变量声明
变量声明无效。
有关更多详细信息,请参阅 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE(查询执行即时的变量类型无效)
变量类型必须是字符串类型,但实际类型是 <varType>
。
信号语句的变量类型无效
变量类型必须是“MAP<STRING, STRING>
”类型,但得到的是<varType>
。
无效变体转换
变量值 <value>
不能强制转换为 <dataType>
。 请改用 try_variant_get
。
INVALID_VARIANT_FROM_PARQUET
变体无效。
有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET
无效的变体获取路径
路径 <path>
不是 <functionName>
中有效的变体提取路径。
有效路径应以 $
开头,后跟零个或多个段,例如 [123]
、.name
、['name']
或 ["name"]
。
无效变体碎片化架构
架构 <schema>
不是有效的变体分片架构。
无效的WHERE条件
WHERE
条件 <condition>
包含无效表达式:<expressionList>
。
重写查询以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
无效窗口规格定义用于聚合函数 (INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC)
无法为 ORDER BY
指定 <aggFunc>
或窗口框架。
无效的编写者提交消息
数据源写入器生成了无效数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>
。
无效写入分配
请求的写入分发无效。
有关详细信息,请参阅 INVALID_WRITE_DISTRIBUTION
隔离命令失败
未能执行 <command>
。 命令输出:
<output>
隔离命令未知故障
未能执行 <command>
。
联接条件不是布尔类型
联接条件 <joinCondition>
的 <conditionType>
类型无效,应为“BOOLEAN
”。
KAFKA_数据丢失
有些数据可能已经丢失,因为它们在 Kafka 中不再可用;
数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前
已被删除。
如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。
原因:
有关更多详情,请参阅 KAFKA_DATA_LOSS
KINESIS_无法读取分片至结束偏移量
在以下 Kinesis 流的分片 <endSeqNum>
达到所需的序列号 <shardId>
之前无法读取:
使用使用者模式 <stream>
的 kinesis 流 <consumerMode>
。 由于潜在的数据丢失,此
查询将失败。 最后读取记录的序列号为 <lastSeqNum>
。
如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已
删除并以相同名称进行了重建。 可以
在 spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false 替代此失败行为。
KINESIS_EFO_CONSUMER_NOT_FOUND
对于 kinesis 流 <streamId>
,已删除以前注册的流 EFO 使用者 <consumerId>
。
重启查询,以便注册新的使用者。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED(超出 Kinesis EFO 订阅限制)
对于分片 <shard>
,上一次 subscribeToShard API 调用在下一次调用的 5 秒内。
在 5 秒或更长时间后重启查询。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD(Kinesis 获取的分片小于追踪的分片)
从 Kinesis 提取的最小 shardId (<fetchedShardId>
)
小于跟踪的最小 shardId (<trackedShardId>
)。
此为意外错误,当删除 Kinesis 流并使用相同的名称重新创建,
并使用现有检查点位置重启使用此 Kinesis 流的流式处理查询时,会发生这种情况。
使用新的检查点位置重启流式处理查询,或使用新名称创建流。
KINESIS_POLLING_MODE_UNSUPPORTED
不支持 Kinesis 轮询模式。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION(Kinesis记录序列号顺序违反)
对于分片 <shard>
,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>
,
它大于当前提取中读取的记录的序列号 <recordSeqNum>
。
这是意外行为,当重试或下一次提取的开始位置未正确初始化时,可能会发生这种情况,并可能导致下游记录重复。
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
若要从具有使用者配置(consumerName
、consumerNamePrefix
或 registeredConsumerId
)的 Kinesis Streams 读取,consumerMode
必须是 efo
。
必须指定注册的消费者ID和类型的KINESIS源
若要从具有已注册使用者的 Kinesis Streams 读取,必须同时指定 registeredConsumerId
和 registeredConsumerIdType
选项。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS(必须指定流名称或ARNs)
若要从 Kinesis Streams 读取,必须将 streamName
或 streamARN
选项的任一个(但不是两者)配置为以逗号分隔的流名称/ARN 列表。
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
若要从具有已注册使用者的 Kinesis Streams 读取,请不要配置 consumerName
或 consumerNamePrefix
选项,因为它们不会生效。
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
已注册的使用者 ID 数应等于 Kinesis 流的数量,但却获得了 <numConsumerIds>
个使用者 ID 和 <numStreams>
个流。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND(未找到Kinesis源注册消费者)
找不到为 streamARN <consumerId>
提供的已注册使用者 <streamARN>
。 验证是否已注册使用者或未提供 registeredConsumerId
该选项。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
已注册的使用者类型 <consumerType>
无效。 它必须是 name
或 ARN
。
KRYO_BUFFER_OVERFLOW (KRYO 缓冲区溢出)
Kryo 序列化失败:<exceptionMsg>
。 若要避免这种情况,请增加“<bufferSizeConfKey>
”值。
标签不匹配
开始标签 <beginLabel>
与结束标签 <endLabel>
不匹配。
标签已存在
标签 <label>
已存在。 选择其他名称或重命名现有标签。
标签名称禁止
禁止标签名称 <label>
。
加载数据路径不存在
LOAD DATA 输入路径不存在:<path>
。
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
必须与 file
的架构配合使用,但收到了:<actualSchema>
。
位置已存在
无法将托管表命名为 <identifier>
,因为它的关联位置 <location>
已存在。 请选择其他表名,或者先删除现有位置。
丢失主题分区_在结束偏移量中_触发器_当前可用
在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区丢失。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
最新偏移量 <tpsForLatestOffset>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区
畸形的_AVRO_消息
在消息反序列化中检测到格式错误的 Avro 消息。 分析模式:<mode>
。 若要将格式错误的 Avro 消息作为 null 结果进行处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
格式错误的字符编码
使用 <function>
执行 <charset>
时找到的值无效
错误格式的CSV记录
CSV 记录的格式错误:<badRecord>
格式错误的日志文件
日志文件格式不正确:无法从 <text>
中读取正确的日志版本。
格式错误的_PROTOBUF_消息
在消息反序列化中检测到格式不正确的 Protobuf 消息。 分析模式:<failFastMode>
。 若要将格式不正确的 protobuf 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
解析中的记录格式错误
在记录分析中检测到格式错误的记录:<badRecord>
。
分析模式:<failFastMode>
。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE
”。
有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING
格式错误变体
变体二进制格式不正确。 请检查数据源是否有效。
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
托管冰山表不支持 <operation>
。
MANAGED_TABLE_WITH_CRED
不支持使用存储凭据创建托管表。
物化视图_MESA_刷新_无_PIPELINE_ID
无法对具体化视图运行 <refreshType>
,因为它之前包含 pipelineId。 若要启用 <refreshType>
,请删除再重新创建具体化视图。
物化视图操作不允许
不允许具体化视图操作 <operation>
:
有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
物化视图输出未明确别名
必须显式为具体化视图中的输出表达式 <expression>
指定别名。
流式查询上的物化视图无效
无法使用流式处理查询来创建具体化视图 <name>
。 请在您的CREATE [OR REFRESH] STREAMING TABLE
子句中使用STREAM
或删除FROM
关键字,以便将此关系转换为批处理查询。
物化视图不支持的操作
具体化视图目前不支持操作 <operation>
。
会话中的变量数量已超出最大限制
无法创建新变量 <variableName>
,因为会话中的变量数超过允许的最大数目 (<maxNumVariables>
)。
每次获取的记录数对Kinesis源无效
maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit>
的正整数
合并基数违法
ON
语句的 MERGE
搜索条件将目标表中的单行与源表的多行匹配。
这可能会导致对目标行执行多次更新或删除操作,这是不允许的。
合并无条件执行
WHEN
语句中必须至少包含一个 MERGE
子句。
指标约束不受支持
未启用 METRIC CONSTRAINT
。
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
<argValue>
表函数的参数“<argName>
”不支持提供的值“METRIC_STORE
”。
有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
指标存储不支持错误
Metric Store 例程 <routineName>
目前在此环境中已禁用。
模型视图_不明确的连接条件
指标视图定义包含具有不明确条件的联接: <expr>
。 使用 using
联接条件或使用 <sourceAlias>
别名显式限定列。
指标视图缓存表不被支持
不允许指标视图使用缓存表。
指标视图功能已禁用
指标视图功能已禁用。 请确保“spark.databricks.sql.metricView.enabled”设置为 true。
度量视图无效的测量函数输入
MEASURE
() 函数仅采用属性作为输入,但获得 <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
指标视图定义无效。 原因:<reason>
。
度量视图在CTE中不支持
CTE 定义中不允许使用指标视图。 计划:<plan>
指标视图连接不支持
不允许使用联接的指标视图。 计划:<plan>
度量视图缺失度量函数
度量值列 <column>
指标视图的使用需要 MEASURE
() 函数才能生成结果。
指标视图不支持的使用
不支持指标视图使用情况。 计划:<plan>
不支持METRIC_VIEW窗口函数
不允许指标视图使用窗口函数 <expr>
。
不支持迁移
<table>
不支持迁移到托管表,因为它不是 <tableKind>
表。
不支持迁移回滚
<table>
不支持从托管表回滚至外部表,因为它不是 <tableKind>
表。
主题分区在结束偏移量与预取数据之间不匹配
Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。
预提取偏移量 <tpsForPrefetched>
的主题分区,结束偏移量 <tpsForEndOffset>
的主题分区。
聚合缺失
非聚合表达式 <expression>
基于不参与 GROUP BY
子句的列。
将列或表达式添加到 GROUP BY
、聚合表达式,或者在不关心返回组中哪些值时使用 <expressionAnyValue>
。
有关更多详细信息,请参阅 MISSING_AGGREGATION
缺少操作所需条款
操作 <clauses>
缺少子句 <operation>
。 请添加所需的子句。
缺少连接选项
“<connectionType>
”类型的连接必须包括以下选项:<requiredOptions>
。
缺少用于V1会话目录的数据库
v1 会话目录中未指定数据库名称。 请确保在与 v1 目录交互时,提供有效的数据库名称。
缺少分组依据
查询不包含 GROUP BY
子句。 添加 GROUP BY
或使用 OVER 子句将其转换为窗口函数。
缺少检查约束名称
CHECK
约束必须具有名称。
MISSING_PARAMETER_FOR_KAFKA(缺少Kafka的参数)
参数 <parameterName>
对于 Kafka 是必需的,但未在 <functionName>
中指定。
缺少常规所需参数
需要参数 <parameterName>
,但未在 <functionName>
中指定。
缺少日程定义
必须遵循 SCHEDULE
提供计划定义。
缺少超时配置 (MISSING_TIMEOUT_CONFIGURATION)
操作已超时,但未配置超时持续时间。 若要设置基于时间的处理超时,请在“mapGroupsWithState”或“flatMapGroupsWithState”操作中使用“GroupState.setTimeoutDuration()”。 对于基于事件时间的超时,请使用“GroupState.setTimeoutTimestamp()”,并使用“Dataset.withWatermark()”定义水印。
MISSING_WINDOW_SPECIFICATION
Window 规范未在 WINDOW
的 <windowName>
子句中定义。 有关 WINDOW
子句的详细信息,请参阅“<docroot>
/sql-ref-syntax-qry-select-window.html”。
修改内置目录
不支持修改内置目录 <catalogName>
。
MULTIPLE_LOAD_PATH(多重加载路径)
Databricks Delta 在 load() API 中不支持多个输入路径。
路径:<pathList>
。 若要通过从同一 Delta 表加载多个路径来
生成单个数据帧,请加载
具有相应分区筛选器的 Delta 表。 如果多个路径
来自不同的 Delta 表,请使用数据集的 union()/unionByName() API
来合并由单独的 load() API 调用生成的数据帧。
多个匹配的约束条件
找到至少两个与给定条件匹配的约束。
多重查询结果子句与管道运算符
<clause1>
和 <clause2>
无法使用“|>”在同一 SQL 管道操作符中共存。 请将多个结果子句分隔为单独的管道操作符,然后再次重试查询。
多次时间旅行规范
无法在按时间顺序查看子句和选项中指定按时间顺序查看。
多个_XML_数据来源
检测到名称为 <provider> (<sourceNames>
的多个数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>
。
MULTI_ALIAS_WITHOUT_GENERATOR
<names>
不支持多部分别名 (<expr>
),因为它不是生成器函数。
多源不支持表达式
表达式 <expr>
不支持多个源。
不支持多语句事务
未能执行该语句。
有关详细信息 ,请参阅MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
MULTI_STATEMENT_TRANSACTION_NO_ACTIVE_TRANSACTION
没有活动事务到<action>
。
多UDF接口错误
不允许实现多个 UDF 接口,UDF 类 <className>
。
互斥条款
子句 <clauses>
或选项互斥。 请删除其中的一个子句。
MV_ST_改变查询不正确的支持类型
输入查询需要 <expectedType>
,但基础表是 <givenType>
。
不支持命名参数
函数 <functionName>
不支持命名参数;请改为使用函数调用的位置参数重试查询。
不支持用于SQL UDF的命名参数
无法调用函数 <functionName>
,因为不支持命名参数引用。 在此情况下,命名参数引用为 <argument>
。
已禁用命名参数支持
无法调用函数 <functionName>
,因为此处未启用命名参数引用。
在此情况下,命名参数引用为 <argument>
。
将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。
命名空间已存在
无法创建命名空间 <nameSpaceName>
,因为它已存在。
选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS
子句以容许现有的命名空间。
命名空间不为空
无法删除命名空间 <nameSpaceNameName>
,因为它包含对象。
使用 DROP NAMESPACE
... CASCADE
删除命名空间及其所有对象。
命名空间未找到
找不到命名空间 <nameSpaceName>
。 请验证该命名空间的拼写和正确性。
如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。
若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS
。
NATIVE_IO_ERROR(本地输入/输出错误)
本机请求失败。 requestId:<requestId>
,云:<cloud>
,操作:<operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
错误:<error>
XML数据源未启用
此群集中未启用本机 XML 数据源。
不允许负刻度
不允许负刻度:“<scale>
”。 将配置 <sqlConf>
设置为“true”以允许它。
频率表达式中的负值
在 <frequencyExpression>
中找到负值:<negativeValue>
,但预期为正整数值。
嵌套聚合函数
不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。
NESTED_EXECUTE_IMMEDIATE
不允许使用嵌套 EXECUTE IMMEDIATE
命令。 请确保提供的 SQL 查询 (<sqlString>
) 不包含另一个 EXECUTE IMMEDIATE
命令。
NONEXISTENT_FIELD_NAME_IN_LIST
字段 <nonExistFields>
不存在。 可用字段:<fieldNames>
NON_FOLDABLE_ARGUMENT
函数 <funcName>
要求参数 <paramName>
为 <paramType>
类型的可折叠表达式,但实际参数是不可折叠的。
非最后匹配子句忽略条件
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略该条件。
源条款不匹配且不省略条件非最终
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略该条件。
非最后未由目标子句匹配省略条件
当 NOT MATCHED [BY TARGET
语句中有多个 MERGE
] 子句时,只有最后一个 NOT MATCHED [BY TARGET
] 子句可以省略该条件。
非字面枢轴值
必须为透视值提供文本表达式,但找到的是 <expression>
。
非分区列
PARTITION
子句不能包含非分区列:<columnName>
。
不支持流媒体中的非时间窗口
流式处理数据帧/数据集的 <windowFunc>
(如列 <columnName>
)不支持窗口函数。
结构化流式处理仅支持使用 WINDOW
函数的时间窗口聚合。 (窗口规范:<windowSpec>
)
不允许在来源中
FROM
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM
不允许在管道操作符WHERE中使用
管道 WHERE
子句中不允许:
有关更多详细信息,请参阅 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
用于例程或 <expr>
子句的表达式 <name>
必须是 STRING
的常量 NOT NULL
。
有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING
不是分区表
不允许对 <operation>
执行操作 <tableIdentWithDB>
,因为它不是已分区表。
NOT_A_SCALAR_FUNCTION
<functionName>
此处显示为标量表达式,但函数定义为表函数。 请更新查询以将函数调用移动到 FROM
子句中,或者将 <functionName>
重新定义为标量函数。
不是表函数
<functionName>
此处显示为表函数,但函数定义为标量函数。 请更新查询以将函数调用移动到 FROM
子句外部,或者将 <functionName>
重新定义为表函数。
NOT_NULL_ASSERT_VIOLATION
NULL
值出现在不可为 null 的字段中:<walkedTypePath>
如果架构是从 Scala 元组/大小写类或 Java bean 推断的,请尝试使用 scala.Option[_],或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。
非空约束违规
此处不允许分配 NULL
。
有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION
不支持的更改列
ALTER TABLE ALTER
/
CHANGE COLUMN
不支持将 <table>
的类型为 <originName>
的列 <originType>
更改为类型为 <newName>
的 <newType>
。
不支持更改相同列
ALTER TABLE ALTER
/
CHANGE COLUMN
不支持在同一命令中多次更改 <table>
其列 <fieldName>
,包括其嵌套字段。
不支持V2表格命令
v2 表不支持 <cmd>
。
不支持不含 Hive 支持的命令
不支持 <cmd>
,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC 目录中不支持的命令:
有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
在 SQL <endpoint>
上不受支持。
不支持与无服务器架构一起使用
无服务器计算不支持 <operation>
。
NOT_UNRESOLVED_ENCODER
需要未解析的编码器,但找到了 <attr>
。
无默认列值可用
无法确定 <colName>
的默认值,因为它不可为空且没有默认值。
无处理程序用于用户定义的聚合函数
没有适用于 UDAF“<functionName>
”的处理程序。 请改用 sparkSession.udf.register(...)。
未指定合并操作
df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。
无路径的父级外部位置
SQLSTATE:未分配
找不到路径“<path>
”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA (无SQL类型在ProtoBuf架构中)
在 Protobuf 架构中找不到 <catalystFieldPath>
。
没有为表格指定存储位置
SQLSTATE:未分配
生成表凭据时,找不到表“<tableId>
”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。
没有此类目录异常
找不到目录“<catalog>
”。 请验证目录名称,然后再次重试查询或命令。
NO_SUCH_CLEANROOM_EXCEPTION (无此清净室异常)
SQLSTATE:未分配
洁净室“<cleanroom>
”不存在。 请验证洁净室名称拼写正确并且与有效的现有洁净室名称匹配,然后再次重试查询或命令。
NO_SUCH_CREDENTIAL_EXCEPTION
凭据“”<credential>
不存在。 请验证凭据名称拼写正确,并匹配有效现有凭据的名称,然后再次重试查询或命令。
没有此类外部位置异常
SQLSTATE:未分配
外部位置“<externalLocation>
”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE:未分配
找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。
没有这样的提供者异常 (NO_SUCH_PROVIDER_EXCEPTION)
SQLSTATE:未分配
共享提供程序“<providerName>
”不存在。 请验证共享提供程序名称是否拼写正确,以及是否匹配现有的有效提供程序名称,然后再次重试查询或命令。
找不到_此_收件人_异常
SQLSTATE:未分配
收件人“<recipient>
”不存在。 请验证收件人名称是否拼写正确,以及是否匹配现有的有效收件人的名称,然后再次重试查询或命令。
无此共享异常
SQLSTATE:未分配
共享“<share>
”不存在。 请验证共享名是否拼写正确,以及是否匹配现有的有效共享的名称,然后再次重试查询或命令。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE:未分配
存储凭据“<storageCredential>
”不存在。 请验证存储凭据名称是否拼写正确,以及是否匹配现有的有效存储凭据的名称,然后再次重试查询或命令。
无此用户异常
SQLSTATE:未分配
用户“<userName>
”不存在。 请验证你授予权限或更改所有权的用户名是否拼写正确,以及是否匹配现有的有效用户的名称,然后再次重试查询或命令。
NO_UDF_INTERFACE
UDF 类 <className>
不实现任何 UDF 接口。
可为空的列或字段
列或字段 <name>
可为 null,但它必须不可为 null。
可为空的行 ID 属性
行 ID 属性不可为 null:<nullableRowIdAttrs>
。
空数据源选项
数据源读/写选项 <option>
不能有 null 值。
NULL_MAP_KEY(空地图键)
不能使用 null 作为映射键。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName>
为 null。
空变量信号声明
Signal 语句需要非 null 变量,但提供的变量 <varName>
为 null。
数值超出支持范围
值 <value>
无法解释为数字,因为它的位数超过了 38 位。
数值超出范围
有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE
列数不匹配
只能对列数相同的输入执行 <operator>
,但第一个输入包含 <firstNumColumns>
列,而 <invalidOrdinalNum>
输入包含 <invalidNumColumns>
列。
数字表值别名不匹配
给定别名的数目与输出列数不匹配。
函数名称:<funcName>
;别名数:<aliasesNum>
;输出列数:<outColsNum>
。
未提供 OAUTH_CUSTOM_IDENTITY_CLAIM
未提供自定义标识声明。
此处仅支持秘密功能
此 <functionName>
不支持调用函数 <location>
;此处支持 <supportedFunctions>
。
仅支持UC_SQL_CONNECTOR
只有支持 Unity Catalog 的 Databricks SQL 连接器才支持 SQL 操作 <operation>
。
操作已取消
操作已取消。
操作需要 Unity 目录
操作 <operation>
需要启用 Unity Catalog。
操作不支持:只读模式
<plan>
在只读会话模式下不受支持。
按位置排序超出范围
ORDER BY
位置 <index>
不在选择列表中(有效范围为 [1, <size>
])。
PARQUET_CONVERSION_FAILURE
无法为 Parquet 类型为<dataType>
的数据类型 <parquetType>
创建 Parquet 转换器。
有关更多详细信息,请参阅 PARQUET_CONVERSION_FAILURE
PARQUET类型非法
非法 Parquet 类型:<parquetType>
。
PARQUET_TYPE_NOT_RECOGNIZED
无法识别的 Parquet 类型:<field>
。
PARQUET类型不被支持
尚不支持 Parquet 类型:<parquetType>
。
PARSE_EMPTY_STATEMENT
语法错误,意外空语句。
PARSE_MODE_UNSUPPORTED
<funcName>
模式不支持函数 <mode>
。 可接受的模式为 PERMISSIVE
和 FAILFAST
。
解析语法错误
<error> <hint>
位置或附近有语法错误。
分区已存在
无法在表 RENAME
中添加或 <partitionList>
TO 分区 <tableName>
,因为它们已存在。
选择其他名称、删除现有分区,或添加 IF NOT EXISTS
子句以容许现有的分区。
分区未找到
在表 <partitionList>
中找不到分区 <tableName>
。
请验证分区规范和表名。
若要容许删除时出错,请使用 ALTER TABLE
…
DROP IF EXISTS PARTITION
。
分区列在模式中未找到
在架构 <column>
中找不到分区列 <schema>
。 请提供用于分区的现有列。
分区位置已存在
表 <locationPath>
中已存在分区位置 <tableName>
。
分区位置不在表目录下
无法执行 ALTER TABLE SET PARTITION LOCATION
语句,因为
分区位置 <location>
不在表目录 <table>
下。
若要修复此问题,请将分区的位置设置为 <table>
的子目录。
PARTITION_METADATA
不允许对表 <action>
执行 <tableName>
,因为 Unity Catalog 中不支持存储分区元数据。
分区编号不匹配
值 (<partitionNumber>
) 的数量与架构大小 (<partitionSchemaSize>
) 不匹配:值为 <partitionValues>
,架构为 <partitionSchema>
,文件路径为 <urlEncodedPath>
。
请重新具体化表或联系所有者。
分区转换表达式不在分区中
表达式 <expression>
必须位于“partitionedBy”内。
路径已存在
路径 <outputPath>
已存在。 请将模式设置为“overwrite”以覆盖现有路径。
路径未找到
路径不存在:<path>
。
PHOTON_反序列化_PROTOBUF_内存限制_已超出
反序列化 Photon protobuf 计划至少需要 <size>
个字节数,超过
<limit>
个字节的限制。 这可能是由于非常大的计划或存在非常
宽的架构。 尝试简化查询、删除不必要的列或禁用 Photon。
PHOTON序列化的PROTOBUF内存限制已超出
序列化的 Photon protobuf 计划的大小为 <size>
字节数,超过
<limit>
个字节的限制。 计划中数据类型的序列化大小为 <dataTypeSize>
个字节。
这可能是由于非常大的计划或存在非常宽的架构。
请考虑重写查询,以删除不需要的操作和列或禁用 Photon。
管道操作符聚合表达式不包含聚合函数
非分组表达式 <expr>
作为管道运算符的参数 |> AGGREGATE
提供,但不包含任何聚合函数;请更新它以包含聚合函数,然后再次重试查询。
管道操作符_包含聚合函数
使用管道运算符<expr>
子句时不允许聚合函数|> <clause>
;请改用管道运算符|> AGGREGATE
子句。
透视值数据类型不匹配
透视值“<value>
”无效:值数据类型 <valueType>
与透视列数据类型 <pivotType>
不匹配。
策略已存在
无法创建策略 <policyName>
,因为它已存在。
选择其他名称或删除现有策略以容忍预先存在的连接。
策略_未找到
无法执行<commandType>
命令,因为找不到该策略<policyName>
<securableFullname>
。
请验证拼写和正确性。
不支持的可保护类型策略
无法在安全对象类型 <securableType>
上创建策略。 支持的安全对象类型: <allowedTypes>
。
参数数量与过程不匹配
过程 <procedureName>
需要 <expected>
参数,但提供了 <actual>
。
空例程创建过程
不允许使用具有空例程定义的 CREATE PROCEDURE
。
过程创建参数_OUT_INOUT_具有默认值
参数 <parameterName>
是使用参数模式 <parameterMode>
定义的。 调用例程时,不能省略 OUT 和 INOUT
参数,因此不支持 DEFAULT
表达式。 若要继续操作,请删除 DEFAULT
子句或将参数模式更改为 IN
。
不支持的过程
不支持存储过程
操作不支持HMS系统
Hive 元存储不支持存储过程。 请改用 Unity Catalog。
PROTOBUF_DEPENDENCY_NOT_FOUND
找不到依赖项:<dependencyName>
。
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
读取路径中的 Protobuf 描述符文件时出错:<filePath>
。
Google Protocol Buffer字段缺失
在 Protobuf 架构中的 <field>
处搜索与给定的 <protobufSchema>
匹配的 <matchSize>
。 候选项:<matches>
。
在SQL架构中缺少的PROTOBUF字段
在 Protobuf 架构中找到了 <field>
,但 SQL 架构中没有匹配项。
PROTOBUF_FIELD_TYPE_MISMATCH (Protobuf 字段类型不匹配)
字段的类型不匹配:<field>
。
不支持PROTOBUF Java类
<protobufFunction>
不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。
未找到PROTOBUF消息
无法在描述符中找到消息 <messageName>
。
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
无法调用 <functionName>
SQL 函数,因为未加载 Protobuf 数据源。
请使用加载的“spark-protobuf”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。
PROTOBUF_TYPE_NOT_SUPPORT
尚不支持 Protobuf 类型:<protobufType>
。
PS_FETCH_RETRY_EXCEPTION
无法重试 pubsub 提取阶段中的任务。 阶段 <partitionInfo>
中的分区 <stageInfo>
,TID <taskId>
。
PS_无效_空选项
<key>
不能为空字符串。
PS_无效密钥类型
无效的 PubSub dedup 密钥类型:<key>
。
PS_无效选项
PubSub 不支持选项 <key>
。 它只能在测试中使用。
PS_无效选项类型
无效的 <key>
类型。
<key>
的预期类型为类型 <type>
。
无效的读取限制
PubSub 流上的读取限制无效:<limit>
。
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>
。 输入 UnsafeRow 可能已损坏:<unsafeRow>
。
缺少授权信息
找不到完整的 PubSub 身份验证信息。
缺少必要选项
无法找到所需选项:<key>
。
检查点移动失败 (PS_MOVING_CHECKPOINT_FAILURE)
无法将原始数据检查点文件从 <src>
移动到目标目录:<dest>
。
多重认证选项
请提供 Databricks 服务凭据或 GCP 服务帐户凭据。
多个失败的阶段
无法启动 PubSub 流,因为存在多个失败的提取:<failedEpochs>
。
PS_OPTION_NOT_IN_BOUNDS(选项不在范围内)
<key>
必须在以下边界内:(<min>
, <max>
)(不包括这两个边界)。
请提供凭证(带选项)
共享群集不支持使用实例配置文件进行身份验证。 使用 .option() 直接向流提供凭据。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 源连接器仅在禁用 spark.speculation
的群集中可用。
无法创建订阅
尝试在主题 <subId>
上创建订阅 <topicId>
时出错。 请检查是否有足够的权限来创建订阅,然后重试。
PS_UNABLE_TO_PARSE_PROTO
无法分析串行化字节以生成 proto。
PS_UNSUPPORTED_GET_OFFSET_CALL不支持的获取偏移调用
如果不提供限制,则不支持 getOffset。
Python数据源错误
未能<action>
Python 数据源 <type>
:<msg>
PYTHON_流数据源_运行时错误
Python 流式处理数据源执行 <action>
时失败:<msg>
查询表与列掩码策略不兼容
无法访问被引用表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
查询的表与行级安全策略不兼容
无法访问被引用表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:
有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
查询执行超时时间已超出
由于超时(<timeoutSec>
秒)而取消了查询执行。 可以通过设置 <config>
来增加限制(以秒为单位)。
查询结果写入云存储权限错误
工作区内部存储配置可防止 Databricks 访问云存储。
无法找到当前文件
<message>
可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE
tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
为 <functionName>
函数调用设置了 <parameterName>
和 <alternativeName>
,它们是彼此的别名。 请仅设置其中一个。
READ_FILES_CREDENTIALS_PARSE_ERROR
分析 read_files() 函数的临时凭据时出错。
有关详细信息,请参阅 READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER(读取_TVF_意外的必需参数)
必须在没有名称的位置 <functionName>
分配函数 <parameterName>
的必需参数 <expectedPos>
。
接收者过期不支持
收件人过期时间戳仅支持 TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
类型。
递归_CTE_在_旧版模式
递归定义不能在旧 CTE 优先模式中使用(spark.sql.legacy.ctePrecedencePolicy=LEGACY
)。
强制内联时的递归常表达式
强制使用 CTE 内联时,不能使用递归定义。
RECURSIVE_PROTOBUF_SCHEMA
在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:<fieldDescriptor>
。 请尝试将选项 recursive.fields.max.depth
设置为 1 到 10 之间。 不允许超过 10 个递归级别。
递归视图
检测到递归视图 <viewIdent>
(周期:<newPath>
)。
分区中不允许设置引用默认值
DEFAULT
子句中不允许引用 PARTITION
列值。
关系大于8G
无法生成大于 8G 的 <relationName>
。
远程功能HTTP失败错误
远程 HTTP 请求失败,错误代码为 <errorCode>
,错误消息为 <errorMessage>
远程函数 HTTP 结果解析错误 (REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR)
由于无法分析远程 HTTP 响应的 JSON 结果,因此无法计算 <functionName>
SQL 函数;错误消息为“<errorMessage>
”。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
远程函数 HTTP 结果意外错误
由于无法处理意外的远程 HTTP 响应,因此无法计算 <functionName>
SQL 函数;错误消息为“<errorMessage>
”。 查看 API 文档:<docUrl>
。 请修复错误消息中指示的问题,然后再次重试查询。
远程功能_HTTP_重试_超时
远程请求在重试 <N>
次后失败;最后一个失败的 HTTP 错误代码为 <errorCode>
,消息为 <errorMessage>
远程功能缺少必要条件错误
由于 <functionName>
,未能计算 <errorMessage>
SQL 表达式。 查看 <docUrl>
中的要求。 请修复错误消息中指示的问题,然后再次重试查询。
重命名源路径未找到
由于未找到 <sourcePath>
,重命名失败。
重复条款
在每个 <clause>
操作中最多可以使用 <operation>
子句一次。
所需参数已按位置提供
已在没有名称的位置 <routineName>
分配例程 <parameterName>
的必需参数 <positionalIndex>
。
请更新函数调用以删除此参数带 <parameterName>
的命名参数,或删除
位于 <positionalIndex>
的位置参数,然后重试查询。
必需的参数未找到
无法调用例程 <routineName>
,因为需要名为 <parameterName>
的参数,但例程调用未提供值。 请更新例程调用,以(在索引 <index>
按位置或按名称)提供参数值,然后重试查询。
需要单一部分命名空间
<sessionCatalog>
需要单部分命名空间,但收到了 <namespace>
。
救援数据列与单一变体冲突
“rescuedDataColumn”DataFrame API 读取器选项与“singleVariantColumn”DataFrame API 选项互斥。
请删除其中一项,然后再次重试 DataFrame 操作。
写入时保留的CDC列
写入包含保留列 <columnList>
,这些列
在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除
这些列,或者将
<config>
设置为 false 来禁用表上的更改数据馈送。
受限流媒体选项权限已强制执行
选项 <option>
在 <source>
源的共享群集上具有受限值。
有关详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
例程已存在
无法创建 <newRoutineType> <routineName>
,因为该名称的 <existingRoutineType>
已存在。
选择其他名称、删除或替换现有 <existingRoutineType>
,或者添加 IF NOT EXISTS
子句以容许现有 <newRoutineType>
。
未找到例程
找不到例程 <routineName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要在放置时容忍错误,请使用DROP
... IF EXISTS
。
找不到例程参数
例程 <routineName>
不支持位置 <parameterName>
处指定的参数 <pos>
。<suggestion>
例程使用系统保留的类名
无法创建函数 <routineName>
,因为指定的类名“<className>
”保留供系统使用。 请重命名该类,然后重试。
行级安全与ABAC不匹配
无法解析 <tableName>
上的行筛选器,因为从策略继承的行筛选器与显式定义的行筛选器之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。
行级安全检查约束不支持
不支持使用行级别安全策略对表 CHECK
创建 <tableName>
约束。
行级安全重复列名称
<statementType>
语句尝试将行级别安全策略分配到某个表,但两个或更多个被引用列具有相同的名称 <columnName>
,这是无效操作。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
不支持 <tableName>
的行级别安全策略:
有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
行级安全不兼容的架构更改
无法从表 <statementType> <columnName>
执行 <tableName>
,因为它已在行级安全策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。
行级安全性合并不支持的来源
MERGE INTO
操作不支持源表 <tableName>
中的行级别安全策略。
行级安全性合并不支持的目标
MERGE INTO
操作不支持写入具有行级别安全策略的表 <tableName>
。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
此语句尝试将行级别安全策略分配到某个表,但被引用列 <columnName>
具有多个名称部分,这是无效操作。
行级安全需要UNITY_CATALOG
行级别安全策略仅在 Unity Catalog 中受支持。
行级安全功能不支持显示分区
使用行级别安全策略的 SHOW PARTITIONS
表不支持 <format>
命令。
行级安全表克隆源不受支持
不支持使用行级别安全策略从表 <mode>
进行 <tableName>
克隆。
行级安全策略表不支持克隆目标
不支持使用行级别安全策略将 <mode>
克隆到表 <tableName>
。
行级安全不支持常量作为参数
不支持在行级安全策略中使用常数作为参数。 请更新 SQL 命令以从行筛选器定义中删除常数,然后再次重试该命令。
ROW_LEVEL_SECURITY_不支持的数据类型
用于行级别安全策略的函数 <functionName>
具有具有不受支持的数据类型 <dataType>
的参数。
行级安全性不支持的提供程序
无法执行 <statementType>
命令,因为不支持使用表提供程序“<provider>
”为目标数据源分配行级别安全策略。
ROW_SUBQUERY_TOO_MANY_ROWS 错误:子查询返回过多行。
用作行的子查询返回了多个行。
行值为空
在索引 NULL
处的行中找到 <index>
,期望值为非 NULL
值。
规则_ID_未找到
找不到规则名称“<ruleName>
”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。
示例表格权限
示例数据库/表不支持权限。
标量函数不兼容
ScalarFunction <scalarFunc>
不会重写使用自定义实现的“produceResult(InternalRow)”方法。
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc>
不会实现或重写“produceResult(InternalRow)”方法。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相关的标量查询“<sqlExpr>
”既不存在于 GROUP BY
中,也不存在于聚合函数中。
使用序号位置将其添加到 GROUP BY
,或者将其包装在 first()
(或 first_value
)中(如果你不在意收到的值)。
标量子查询返回行数过多 (SCALAR_SUBQUERY_TOO_MANY_ROWS)
用作表达式的子查询返回了多个行。
已存在的时间表
无法添加 <scheduleType>
到已具有 <existingScheduleType>
的表。 请删除现有计划或使用 ALTER TABLE
... ALTER <scheduleType>
更改它。
调度期无效
<timeUnit>
的计划期限必须是介于 1 和 <upperBound>
(含)之间的整数值。 已收到:<actual>
。
SCHEMA_ALREADY_EXISTS
无法创建架构 <schemaName>
,因为它已存在。
选择其他名称、删除现有架构,或添加 IF NOT EXISTS
子句以容许现有的架构。
SCHEMA_NOT_EMPTY
无法删除架构 <schemaName>
,因为它包含对象。
使用 DROP SCHEMA
... CASCADE
删除架构及其所有对象。
模式未找到
找不到架构 <schemaName>
。 请验证架构和目录的拼写和正确性。
如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。
若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS
。
模式注册表配置错误
无法初始化架构注册表中的架构。
<reason>
。
第二个函数参数不是整数 (SECOND_FUNCTION_ARGUMENT_NOT_INTEGER)
<functionName>
函数的第二个参数需是整数。
秘密功能_位置无效
无法使用对 <commandType>
函数的一个或多个非加密引用执行 SECRET
命令;请使用 AES_ENCRYPT
加密每个此类函数调用的结果,然后重试该命令
种子表达式是不可展开的
表达式 <seedExpr>
的种子表达式 <exprWithSeed>
必须可折叠。
服务器正忙
服务器正忙,无法处理该请求。 请稍等片刻,然后重试。
SFTP_无法连接
无法使用用户名<host>
连接到端口<port>
上的 SFTP 服务器<username>
。
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
具有冲突命名空间的 SHOW COLUMNS
:<namespaceA>
!= <namespaceB>
。
不分桶排序
sortBy 必须与 bucketBy 一起使用。
SPARK作业已取消
作业 <jobId>
已取消 <reason>
不允许指定分桶
没有显式列列表的 CREATE TABLE
无法指定存储桶信息。
请使用具有显式列列表的表单,然后指定存储桶信息。
或者,允许通过省略此子句来推断存储桶信息。
无法指定具有分桶功能的集群划分
不能同时指定 CLUSTER BY
和 CLUSTERED BY INTO BUCKETS
。
不允许指定 CLUSTER BY 与 PARTITIONED BY一起使用
不能同时指定 CLUSTER BY
和 PARTITIONED BY
。
SPECIFY_PARTITION_IS_NOT_ALLOWED
没有显式列列表的 CREATE TABLE
不能指定 PARTITIONED BY
。
请使用具有显式列列表的表单,然后指定 PARTITIONED BY
。
或者,允许通过省略此 PARTITION BY
子句来推断分区方式。
SQL_CONF_NOT_FOUND
找不到 SQL 配置 <sqlConf>
。 请验证该配置是否存在。
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
EXECUTE IMMEDIATE
命令中不允许使用 SQL 脚本。 请确保提供的 SQL 查询 (<sqlString>
) 不是 SQL 脚本。 请确保sql_string是格式正确的 SQL 语句,不包含 BEGIN
和 END。
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
已超出 SQL 脚本中的最大行数(id: <scriptId>
) 。 允许的最大行数是 <maxLines>
,并且你有 <lines>
行。
SQL_SCRIPT_超出本地变量声明的最大数量限制
已超出 SQL 脚本(id: <scriptId>
)中本地变量声明的最大数目。 允许的最大声明数是 <maxDeclarations>
,并且你拥有 <declarations>
。
当前暂存路径不可访问
访问目标暂存路径 <path>
时发生暂时性错误,请在几分钟后重试
星级分组_BY_销售点
使用 GROUP BY
和序号位置时,不允许在选择列表中使用星号 (*)。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE(有状态处理器无法在句柄状态无效时执行操作)
未能执行有状态处理器操作“<operationType>
”,句柄状态“<handleState>
”无效。
有状态处理器无法在无效的时间模式下执行操作
未能执行有状态处理器操作“<operationType>
”,timeMode“<timeMode>
”无效
有状态处理器重复定义状态变量
名称为 <stateVarName>
的状态变量已在 StatefulProcessor 中定义。
有状态处理器分配TTL时的时间模式不正确
在 timeMode“<stateName>
”中不能对状态“<timeMode>
”使用 TTL,请改用 TimeMode.ProcessingTime()。
有状态处理器的生存时间必须为正值
对于针对状态“<operationType>
”执行的状态存储操作“<stateName>
”,TTL 持续时间必须大于零。
有状态处理器_未知时间模式
未知时间模式 <timeMode>
。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”
状态存储无法创建带有保留字符的列族
未能创建具有不受支持的起始字符和名称“<colFamilyName>
”的列系列。
状态存储不能使用具有无效名称的列族
未能执行列系列操作“<operationName>
”,名称“<colFamilyName>
”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字“default”
状态存储列族模式不兼容
与列(family=<colFamilyName>
、oldSchema=<oldSchema>
、newSchema=<newSchema>
)的架构转换不兼容。
状态存储不支持可重用迭代器
StateStore <inputClass>
不支持可重用迭代器。
状态存储句柄未初始化 (STATE_STORE_HANDLE_NOT_INITIALIZED)
尚未为此 StatefulProcessor 初始化句柄。
请仅在 transformWithState 运算符中使用 StatefulProcessor。
状态存储范围扫描的排序列数不正确
范围扫描编码器的排序序号数 <numOrderingCols>
不正确。 排序序号数不能为零,也不能大于架构列数。
状态存储_前缀扫描前缀列数不正确
前缀扫描编码器的前缀列数 <numPrefixCols>
不正确。 前缀列数不能为零,也不能大于或等于架构列数。
重启后状态存储配置无效
不能在重启之间将 <configName>
从 <oldConfig>
更改为 <newConfig>
。 请将 <configName>
设置为 <oldConfig>
,或使用新的检查点目录重启。
状态存储无效供应商
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。
状态存储无效变量类型更改
在查询重启之间无法将 <stateVarName>
更改为 <newType>
。 请将 <stateVarName>
设置为 <oldType>
,或使用新的检查点目录重启。
状态存储本地RocksDB超时
访问 RocksDB 状态存储以执行有状态流式处理操作时,调用 RocksDB 的原生函数 <funcName>
在等待超时=<timeoutMs>
ms 后超时。 如果错误仍然存在,请重试并重启群集。
状态存储不支持空类型排序列
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的 null 类型排序列。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
给定的状态存储提供程序 <inputClass>
不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。
因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。
状态存储状态模式文件阈值超限
状态架构文件数 <numStateSchemaFiles>
超过此查询的最大状态架构文件数:<maxStateSchemaFiles>
。
已添加:<addedColumnFamilies>
,已删除:<removedColumnFamilies>
请将“spark.sql.streaming.stateStore.stateSchemaFilesThreshold”设置为更高的数字,或还原状态架构修改
状态存储_在缺失的列族上不支持的操作
不支持对缺少的列系列“<operationType>
”执行状态存储操作“<colFamilyName>
”。
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED(状态存储值模式演变阈值超出)
<numSchemaEvolutions>
的状态架构演变数超过了允许此列系列的最大状态架构演变数(<maxSchemaEvolutions>
)。
有冲突的列系列:<colFamilyName>
请将“spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold”设置为更大的数值,或恢复状态架构修改。
状态存储不支持以可变大小排序的列
范围扫描编码器不支持名称为“<fieldName>
”、索引为“<index>
”的变量大小排序列。
静态分区列在插入列列表中
列列表中还指定了静态分区列 <staticName>
。
STDS_COMMITTED_BATCH_UNAVAILABLE
未找到提交的批处理,检查点位置:<checkpointLocation>
。 在停止之前,请确保查询已运行并提交任何微批次。
性病冲突选项
这些选项 <options>
不能一起指定。 请指定一个。
STDS_无法读取操作员元数据
未能读取 checkpointLocation=<checkpointLocation>
和 batchId=<batchId>
的运算符元数据。
文件不存在,或者文件已损坏。
请重新运行流式处理查询以构造运算符元数据,如果错误仍然存在,则向相应的社区或供应商报告。
STDS_未能读取状态模式
未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>
。
请重新运行流式处理查询以构造状态架构,如果错误仍然存在,则向相应的社区或供应商报告。
STDS_INVALID_OPTION_VALUE
源选项“<optionName>
”的值无效:
有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
状态没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>
STDS偏移日志不可用
<batchId>
的偏移量日志不存在,检查点位置:<checkpointLocation>
。
请指定可用于查询的批处理 ID - 可使用状态元数据数据源查询可用的批处理 ID。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE(偏移元数据日志不可用)
元数据不适用于 <batchId>
的偏移量日志,检查点位置:<checkpointLocation>
。
该检查点似乎只能使用较旧的 Spark 版本运行。 请使用最近的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。
STDS_REQUIRED_OPTION_UNSPECIFIED
必须指定“<optionName>
”。
不支持状态操作符的流式AQE
结构化流式处理中的有状态运算符不支持自适应查询执行。
从物化视图流式传输
无法从具体化视图 <viewName>
流式处理。 不支持从具体化视图流式处理。
流式输出模式
流式处理输出模式无效:<outputMode>
。
有关更多详细信息,请参阅 STREAMING_OUTPUT_MODE
流媒体实时模式
流式处理实时模式具有以下限制:
有关更多详细信息,请参阅 STREAMING_REAL_TIME_MODE
流式有状态运算符在状态元数据中不匹配
流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。
元数据中的有状态运算符:[<OpsInMetadataSeq>
];当前批次中的有状态运算符:[<OpsInCurBatchSeq>
]。
流媒体表需要刷新
需要刷新流式处理表 <tableName>
才能执行 <operation>
。
如果表是从 DBSQL
中创建的,请运行 REFRESH STREAMING TABLE
。
如果表是由 DLT 中的管道创建的,请运行管道更新。
不支持流式表
只能在 DLT 和 Databricks SQL 数据仓库中创建和刷新流式处理表。
不允许流表操作
不允许 <operation>
操作:
有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED
流表查询无效
只能从流式处理查询创建流式处理表 <tableName>
。 请将 STREAM
关键字添加到 FROM
子句,以将此关系转换为流式处理查询。
找不到Kinesis的流STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
在 <streamName>
中找不到 Kinesis 流 <region>
。
请启动指向正确流名称的新查询。
结构数组长度不匹配
输入行不包含架构所需的预期值数。 提供 <expected>
值时,<actual>
字段是必填字段。
限制和偏移量之和超出最大整数限制
LIMIT
子句和 OFFSET
子句的总和不得大于最大 32 位整数值 (2,147,483,647),但发现限值 = <limit>
,偏移值 = <offset>
。
SYNC_METADATA_DELTA_ONLY
仅 delta 表支持修复表同步元数据命令。
同步源目标表不一致
源表名 <srcTable>
必须与目标表名 <destTable>
相同。
SYNTAX_DISCONTINUED
在此上下文中,已停止支持子句或关键字:<clause>
。
有关更多详细信息,请参阅 SYNTAX_DISCONTINUED
表或视图已存在
无法创建表或视图 <relationName>
,因为它已存在。
选择其他名称、删除现有对象、添加 IF NOT EXISTS
子句以容许预先存在的对象、添加 OR REPLACE
子句以替换现有的具体化视图,或添加 OR REFRESH
子句来刷新现有的流式处理表。
未找到表或视图
找不到表或视图 <relationName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
或 DROP TABLE IF EXISTS
。
有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND
尚未为 SQL 函数实现的表值参数
无法对带有 <action>
参数的 SQL 用户定义函数 <functionName>
执行 TABLE
,因为此功能尚未实现。
表值函数在Python中分析失败
无法分析 Python 用户定义表函数:<msg>
表值函数所需的元数据与调用不兼容
无法评估表函数 <functionName>
,因为其表元数据为 <requestedMetadata>
,但函数调用 <invalidFunctionCallProperty>
。
表值函数所需的元数据无效
无法评估表函数 <functionName>
,因为其表元数据无效;<reason>
。
表值函数表参数过多
表值函数的表参数太多。
允许一个表参数,但收到了:<num>
。
如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”
找不到具有指定ID的表
找不到 ID 为 <tableId>
的表。 请验证 UUID 是否正确。
任务写入失败 (TASK_WRITE_FAILED)
将行写入 <path>
时任务失败。
临时表或视图已存在
无法创建临时视图 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS
子句以容许现有的视图。
临时视图名称包含过多名称部分
CREATE TEMPORARY VIEW
或相应的数据集 API 仅接受单部分视图名称,但收到了:<actualName>
。
SELECT 中的尾随逗号
在子句 SELECT
中检测到尾随逗号。 删除 FROM
子句前的尾随逗号。
转置超出行限制
行数超过<maxValues>
的允许限制为TRANSPOSE
。 如果这是预期的,请将 <config>
设置为至少与当前行数相同。
转置操作中无效的索引列
由于 TRANSPOSE
,索引列 <reason>
无效。
无最小公共类型的转置
转置要求非索引列共享一个最低的公共类型,但<dt1>
和<dt2>
不满足这一条件。
触发间隔无效
触发器间隔必须是可以转换为整数秒的正持续时间。 接收时间:<actual>
秒。
UC_BUCKETED_TABLES
Unity Catalog 中不支持存储桶表。
未提供UC目录名称
对于 Unity Catalog,请显式指定目录名称。 例如 SHOW GRANT your.address@email.com ON CATALOG
main。
UC_COMMAND_NOT_SUPPORTED
Unity Catalog 不支持命令 <commandName>
。
有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED
UC命令在无服务器环境中不受支持
无服务器下的 Unity Catalog 群集不支持命令 <commandName>
。 请改用单个用户或共享群集。
UC_命令在共享访问模式下不受支持
共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>
。 改用单用户访问模式。
不支持UC凭证用途
指定的凭据类型不受支持。
UC_数据源不受支持
Unity Catalog 中不支持数据源格式 <dataSourceFormatName>
。
不支持UC数据源选项
Unity Catalog 中不支持数据源选项。
UC_依赖不存在
Unity 目录中不存在依赖项:
<errorMessage>
外部存储卷缺少位置
外部卷必须存在 LOCATION
子句。 请检查用于创建外部卷的语法“CREATE EXTERNAL VOLUME
... LOCATION
...”。
UC_失败的供应状态
查询失败,因为它尝试引用表 <tableName>
,但无法执行此操作:<failureReason>
。 请更新表 <tableName>
以确保它处于活动预配状态,然后再次重试查询。
UC_不支持用于表创建的文件方案
不支持在 Unity Catalog 中使用文件方案 <schemeName>
创建表。
请改为使用同一表提供程序的 CREATE CONNECTION
命令创建联合数据源连接,然后使用 CREATE FOREIGN CATALOG
命令创建基于连接的目录以引用其中的表。
UC_HIVE_METASTORE_联邦跨目录视图不支持
Hive 元存储联合视图不支持跨多个目录的依赖项。 Hive 元存储联合目录中的视图 <view>
必须使用 hive_metastore 或 spark_catalog 目录中的依赖项,但其依赖项 <dependency>
位于另一个目录 <referencedCatalog>
中。 请更新依赖项以满足此约束,然后再次重试查询或命令。
UC_蜂巢_元存储_联邦_未启用
未在此群集上启用 Hive 元存储联合。
此群集不支持访问目录 <catalogName>
UC_INVALID_DEPENDENCIES(无效依赖项)
<viewName>
的依赖项在作为 <storedDeps>
分析时被记录为 <parsedDeps>
。 此问题可能是因为不当使用非 SQL API 而导致。 可以通过运行 ALTER VIEW <viewName>
AS <viewText>
来修复 Databricks Runtime 中的依赖项。
UC_INVALID_NAMESPACE
Unity Catalog 中不支持嵌套或空命名空间。
UC_INVALID_REFERENCE(无效引用)
无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>
。
UC_LAKEHOUSE_联合数据库_禁止写入
此群集上的提供程序 <provider>
未启用 Unity Catalog Lakehouse 联合身份验证写入支持。
UC_位置不支持托管卷
托管卷不接受 LOCATION
子句。 创建托管卷时,请检查语法“CREATE VOLUME
...”。
UC_未启用
此群集上未启用 Unity Catalog。
UC查询联合未启用
未在此群集上启用 Unity Catalog 查询联合。
UC_RESOLVED_DBFS_PATH_MISMATCH
查询失败,因为它尝试引用 <objectType> <name>
因而未能成功:解析的 DBFS 路径 <resolvedHmsPath>
与 Unity Catalog 存储位置 <ucStorageLocation>
不一致。
未启用UC服务凭据
此群集上未启用服务凭据。
UC_体积未启用
此实例上未启用对 Unity Catalog 卷的支持。
UC_VOLUMES_共享未启用
此实例上未启用对卷共享的支持。
UC_VOLUME_NOT_FOUND
卷 <name>
不存在。 请使用“SHOW VOLUMES
”列出可用卷。
UDF_ENVIRONMENT_ERROR
无法为 <udfName>
安装 UDF 依赖项。
有关更多详细信息,请参阅 UDF_ENVIRONMENT_ERROR
UDF_ERROR
SQLSTATE:未分配
函数 <fn>
执行失败
有关更多详细信息,请参阅 UDF_ERROR
UDF_LIMITS
违反了一个或多个 UDF 限制。
有关更多详细信息,请参阅 UDF_LIMITS
用户自定义函数数量超出最大限制 (UDF_MAX_COUNT_EXCEEDED)
超出了 <maxNumUdfs>
个 UDF 的查询范围 UDF 限制(公共预览期间受限制)。 已找到 <numUdfs>
。 UDF 为:<udfNames>
。
UDF_PYSPARK_ERROR
Python 辅助角色意外退出
有关更多详细信息,请参阅 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
处于共享访问模式的群集不支持 PySpark UDF <udf> (<eval-type>
)。
UDF_PYSPARK_USER_CODE_ERROR
执行失败。
有关更多详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
用户定义的 <functionType>
函数不支持参数默认值。
UDF_USER_CODE_ERROR
函数 <fn>
执行失败。
有关更多详细信息,请参阅 UDF_USER_CODE_ERROR
UDTF别名数量不匹配
AS 子句中提供的别名数与 UDTF 输出的列数不一致。
需要 <aliasesSize>
别名,但收到了 <aliasesNames>
。
请确保提供的别名数与 UDTF 输出的列数一致。
请求排序字符串中的别名无效 - 来自ANALYZE方法
未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>
;请删除此别名,然后再次尝试查询。
UDTF_请求分析方法中选择的表达式无效,需要别名
未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>
),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。
无法获取内存
无法获取内存的 <requestedBytes>
字节,收到了 <receivedBytes>
。
无法转换为PROTOBUF消息类型
无法将 SQL 类型 <toType>
转换为 Protobuf 类型 <protobufType>
。
无法获取 Hive 表
无法提取 Hive 数据库 <dbName>
的表。 错误类名称:<className>
.
无法推断架构
无法推理 <format>
的架构。 必须手动指定。
未经授权的访问
未授权访问:
<report>
未绑定的SQL参数
找到未绑定的参数:<name>
。 请修复 args
并提供对 SQL 文本或集合构造函数 (例如 map()
、array()
、struct()
) 的映射参数。
UNCLOSED_BRACKETED_COMMENT
找到未闭合的方括号注释。 请在注释的末尾追加 */。
意外输入类型
函数 <paramIndex>
的参数 <functionName>
需要 <requiredType>
类型,但 <inputSql>
的类型为 <inputType>
。
命名参数的输入类型意外
函数 <namedParamKey>
的参数 <functionName>
需要 <requiredType>
类型,但 <inputSql>
的类型为 <inputType>
。<hint>
意外操作符_在流视图中
<op>
语句中作为流式处理源的意外运算符 CREATE VIEW
。
流式处理视图查询只能包含 SELECT
、WHERE
和 UNION ALL
操作。
意外的定位参数
无法调用例程 <routineName>
,因为它在分配到 <parameterName>
的已命名参数之后包含位置参数;请重新排列它们,使位置参数排在前面,然后重试查询。
类的意外序列化器
类 <className>
具有意外的表达式序列化程序。 预期返回“STRUCT
”的“IF
”或“STRUCT
”,但找到了 <expr>
。
未知字段异常
分析期间遇到 <changeType>
:<unknownFieldBlob>
,可通过自动重试 <isRetryable>
进行修复:
有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
例程 <routineName>
的调用在位置 <sqlExpr>
处包含一个未知的位置自变量 <pos>
。 这是无效的。
未知的变体中基本类型
在变体值中找到 ID 为 <id>
的未知基元类型。
未知_PROTOBUF_消息类型
尝试将 <descriptorName>
视为消息,但它是 <containingType>
。
UNPIVOT_REQUIRES_ATTRIBUTES
当未给定 UNPIVOT
表达式时,<given>
要求所有给定的 <empty>
表达式都是列。 这些表达式不是列:[<expressions>
]。
UNPIVOT要求值列
至少需要为 UNPIVOT
指定一个值列,所有列均指定为 ID。
取消透视值数据类型不匹配
逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>
]。
反透视值大小不匹配
所有逆透视值列的大小必须与值列名称 (<names>
) 相同。
未识别的参数名称 (UNRECOGNIZED_PARAMETER_NAME)
无法调用例程 <routineName>
,因为例程调用包含名为 <argumentName>
的参数的命名参数引用,但此例程不包括任何包含具有此名称的参数的签名。 你是否指以下其中一项? [<proposal>
]。
未识别的SQL类型
无法识别的 SQL 类型 - 名称:<typeName>
,ID:<jdbcType>
。
未识别的统计数据
无法识别统计信息 <stats>
。 有效统计信息包括 count
、count_distinct
、approx_count_distinct
、mean
、stddev
、min
、max
和百分位值。 百分位必须是数字值,后跟“%”,范围介于 0% 到 100%。
未解析的表值函数
无法将 <name>
解析为表值函数。
请确保 <name>
定义为表值函数,并且正确提供了所有必需的参数。
如果未定义 <name>
,请在使用表值函数之前创建它。
有关定义表值函数的详细信息,请参阅 Apache Spark 文档。
UNRESOLVED_ALL_IN_GROUP_BY
无法基于 select 子句推断 GROUP BY ALL
的分组列。 请显式指定分组列。
未解析的列
无法解析名称为 <objectName>
的列、变量或函数参数。
有关更多详细信息,请参阅 UNRESOLVED_COLUMN
UNRESOLVED_FIELD
无法使用结构类型列 <fieldName>
解析具有名称 <columnPath>
的字段。
有关更多详细信息,请参阅 UNRESOLVED_FIELD
未解决的插入或替换使用栏
REPLACE USING
列 <colName>
无法在 <relationType>
中解析。
您是否指的是以下列之一? [<suggestion>
]。
未解析的映射键
无法将列 <objectName>
解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。
有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY
未解决的例程
无法解析搜索路径 <routineName>
上的例程 <searchPath>
。
验证 <routineName>
的拼写,检查例程是否存在,并确认你对目录和架构具有 USE
权限,以及对例程具有 EXECUTE
权限。
有关更多详细信息,请参阅 UNRESOLVED_ROUTINE
未解决的使用列进行连接
无法解析联接的 USING
一侧的 <colName>
列 <side>
。
<side>
一侧的列:[<suggestion>
]。
未解决的变量
无法解析搜索路径 <variableName>
上的变量 <searchPath>
。
非结构化数据处理不支持的文件格式
不支持非结构化文件格式 <format>
。 支持的文件格式为 <supportedFormats>
。
请将 format
表达式中的 <expr>
更新为受支持的格式之一,然后再次重试查询。
非结构化数据处理不支持的模型选项
不支持非结构化模型选项 ('<option>
' ->
''<value>
)。 支持的值为: <supportedValues>
。
切换到其中一个受支持的值,然后再次重试查询。
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
指定“metadataModel”选项时,函数参数“ocrText”必须是NULL
,或者被省略。 指定的“metadataModel”选项会触发数据提取功能,并禁止使用提供的“ocrText”。
不支持的添加文件
不支持添加文件。
有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE
不支持的修改列参数
不支持使用 <parameter>
指定 ALTER <commandTableType>
。
不支持的箭头类型
不支持的箭头类型 <typeName>
。
不支持的批量表值函数
函数 <funcName>
不支持批处理查询。
不支持的调用
无法调用“<methodName>
”类的“<className>
”方法。
有关更多详细信息,请参阅 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
不能在表架构中使用 char/varchar 类型。
如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。
不支持的操作条款
<clause>
不支持 <operation>
。
不支持的排序规则
排序规则 <collationName>
不受支持:
有关更多详细信息,请参阅 UNSUPPORTED_COLLATION
不支持的文件流源的通用祖先位置
应向 UC 注册源路径和 sourceArchiveDir 的公共上级。
如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。
请将它们放入单个外部位置。
不支持的约束条款
不支持约束子句 <clauses>
。
不支持的约束类型
不支持的约束类型。 仅支持 <supportedConstraintTypes>
不支持直接查询的数据源
不支持直接查询文件中的数据源类型:<dataSourceType>
不支持的数据类型
不支持的数据类型 <typeName>
。
不支持的数据源保存模式
数据源“<source>
”不能以 <createMode>
模式写入。 请改用“追加”或“覆盖”模式。
不支持的数据类型用于数据源
<format>
数据源不支持类型为 <columnName>
的列 <columnType>
。
不支持的编码器数据类型
无法为 <dataType>
创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。
不支持的默认值
不支持 DEFAULT
列值。
有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER (不支持的反序列化器)
不支持反序列化程序:
有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER
不支持的表达式生成列
无法使用生成表达式 <fieldName>
创建生成的列 <expressionStr>
,因为 <reason>
。
运算符不支持的表达式
查询运算符包含一个或多个不受支持的表达式。
考虑重写该查询,以避免 WHERE
子句中的窗口函数、聚合函数和生成器函数。
无效的表达式:[<invalidExprSqls>
]
不支持的参数表达式
查询参数包含不受支持的表达式。
参数可以是变量或文本。
无效表达式:[<invalidExprSql>
]
不支持窗口的表达式
窗口函数中不支持表达式 <sqlExpr>
。
不支持的功能
不支持该功能:
有关详细信息,请参阅 UNSUPPORTED_FEATURE
不受支持的功能类型
不支持的用户定义函数类型:<language>
不支持的生成器
不支持生成器:
有关详细信息,请参阅 UNSUPPORTED_GENERATOR
不支持的分组表达式
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用。
不支持的Kinesis源初始位置和触发器对
Kinesis 源不支持初始位置为 <trigger>
的 <initialPosition>
UNSUPPORTED_INSERT
无法插入目标。
有关更多详细信息,请参阅 UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE (不支持的连接类型)
不支持的联接类型“<typ>
”。 支持的联接类型包括:<supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
不支持使用数据源 <tableName>
创建托管表 <dataSource>
。 需要使用数据源DELTA
或使用CREATE EXTERNAL TABLE <tableName>
创建外部表USING <dataSource>
...
不支持的合并条件
MERGE
操作包含不受支持的 <condName>
条件。
有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
表 <tableName>
包含的行级别安全策略或列掩码间接引用了另一个包含行级别安全策略或列掩码的表;这种情况不受支持。 调用序列:<callSequence>
UNSUPPORTED_OVERWRITE
无法覆盖正在读取的目标。
有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE
不支持的分区转换
不支持的分区转换:<transform>
。 支持的转换为 identity
、bucket
和 clusterBy
。 确保转换表达式使用其中一种。
不支持的保存模式
以下对象不支持保存模式 <saveMode>
:
有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
不支持的 SHOW CREATE TABLE
命令。
有关更多详细信息,请参阅 UNSUPPORTED_SHOW_CREATE_TABLE
不支持的单遍分析器功能
单传递分析器无法处理此查询或命令,因为它尚不支持 <feature>
。
不支持无水印的流操作符
<outputMode>
在没有水印的流式处理 DataFrame/数据集上不支持 <statefulOperator>
输出模式。
视图不支持的流选项
不支持流式传输视图。 原因:
有关详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
不支持的流媒体选项权限已强制执行
共享群集上的数据源 <options>
不支持流式处理选项 <source>
。 请确认选项已指定并拼写正确,并检查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 的限制。
不支持的流媒体接收权限已执行
不支持将数据源 <sink>
用作共享群集上的流式处理接收器。
不支持的流媒体源权限已执行
不支持将数据源 <source>
用作共享群集上的流式处理源。
不支持的流式表值函数
函数 <funcName>
不支持流式处理。 请删除 STREAM
关键字
不支持的Kinesis源流读取限制
Kinesis 源不支持 <streamReadLimit>
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支持的子查询表达式:
有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支持的时间序列列
不支持创建具有时序列的主键
不支持包含多列的时间序列
不支持创建具有多个时序列 <colSeq>
的主键
不支持的Kinesis源触发器
Kinesis 源不支持 <trigger>
不支持的类型文字
不支持 <unsupportedType>
类型的文本。 支持的类型为<supportedTypes>
。
不支持的用户定义函数特性
函数 <function>
使用以下需要较新版本的 Databricks 运行时的功能:<features>
。 请参阅 <docLink>
以了解详细信息。
不支持的UDF类型在同一位置
UDF 类型不能一起使用:<types>
非类型化SCALA用户定义函数 (UNTYPED_SCALA_UDF)
你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。
Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType)
,NULL 输入的结果为 0。 若要消除此错误,可以:
使用类型化的 Scala UDF API(没有返回类型参数),例如
udf((x: Int) => x)
。如果输入类型都是非基元,则使用 Java UDF API,例如
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
。将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。
升级不支持
表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:
有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED
用户定义函数
用户定义函数无效:
有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
用户引发的异常:参数不匹配
raise_error()
函数用于引发错误类:<errorClass>
,需要参数:<expectedParms>
。
提供的参数 <providedParms>
与需要的参数不匹配。
请确保提供所有需要的参数。
用户引发异常_未知错误类
raise_error()
函数用于引发未知错误类:<errorClass>
变量已存在
无法创建变量 <variableName>
,因为它已存在。
选择其他名称,或者删除或替换现有变量。
变量未找到
找不到 <variableName>
变量。 请验证架构和目录的拼写和正确性。
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS
。
VARIANT_CONSTRUCTOR_SIZE_LIMIT
无法构造大于 16 MiB 的变体。 变体值的最大允许大小为 16 MiB。
VARIANT_DUPLICATE_KEY (变体重复键)
由于对象键 <key>
重复,无法构建变体。
VARIANT_SIZE_LIMIT
无法在 <sizeLimit>
中生成大于 <functionName>
的变体。
请避免在此表达式中输入较大的字符串(例如,添加函数调用来检查表达式大小,如果太大,则首先将其转换为 NULL
)。
视图已存在
无法创建视图 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS
子句以容许现有的对象。
视图超过最大嵌套深度
视图 <viewName>
的深度超出了最大视图分辨率深度 (<maxNestedDepth>
)。
分析已中止以避免错误。 若要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。
视图未找到
找不到视图 <relationName>
。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS
。
卷已经存在
无法创建卷 <relationName>
,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS
子句以容许现有的对象。
窗口函数与帧不匹配
<funcName>
函数只能在具有单个偏移量的有序的基于行的窗口框架中进行计算:<windowExpr>
。
窗口函数缺少 OVER 子句
Window 函数 <funcName>
需要 OVER 子句。
含凭证
WITH CREDENTIAL
不支持 <type>
语法。
禁止写入流
只能在流式处理数据集/数据帧上调用 writeStream
。
不支持 DELTA ALTER TABLE ADD COLUMN 的错误列默认值
未能执行命令,因为将新列添加到先前存在的 Delta 表时,DEFAULT
值不受支持
请先添加没有默认值的列,
然后运行第二 ALTER TABLE ALTER COLUMN SET DEFAULT
个命令以应用
请求将来插入的行。
错误的列默认值,Delta功能未启用
未能执行 <commandType>
命令,因为它为某个列分配了 DEFAULT
值,
但未启用相应的表功能。 请在执行 ALTER TABLE tableName SET
执行 ALTER TABLE
tableName SET
后
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported')。
命令与对象类型不匹配
操作 <operation>
需要 <requiredType>
。 但 <objectName>
是 <foundType>
。 请改用 <alternative>
。
WRONG_NUM_ARGS
<functionName>
需要 <expectedNum>
个参数,但实际数量为 <actualNum>
。
有关更多详细信息,请参阅 WRONG_NUM_ARGS
XML行标签缺失
<rowTag>
是以 XML 格式读取/写入文件所需的选项。
XML_不支持的嵌套类型
XML 不支持 <innerDataType>
作为内部类型 <dataType>
。 在 <innerDataType>
中使用时,请将 <dataType>
包装在 StructType 字段中。
XML通配符数据恢复冲突错误
无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。
ZORDERBY_COLUMN_DOES_NOT_EXIST (排序列不存在)
ZOrderBy 列 <columnName>
不存在。
Delta Lake
未找到激活的Delta Spark会话
找不到活动的 SparkSession
DELTA_活动事务已设定
当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态
增添具有内部名称的列失败
无法添加列 <colName>
,因为名称是保留的。
禁止添加删除向量的增量
当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。
不允许在边界紧密情况下添加删除向量的增量
所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。
DELTA_在索引小于零时添加列
要添加列 <columnIndex>
的索引 <columnName>
小于 0
DELTA_添加_列_父项_不是_结构体
无法添加 <columnName>
,因为其父级不是 StructType。 已找到 <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
未在位置 <position>
处找到结构
DELTA_ADD_CONSTRAINTS
请使用 ALTER TABLE
ADD CONSTRAINT
添加 CHECK
约束。
生成列中的增量聚合
已找到 <sqlExpr>
。 生成的列不能使用聚合表达式
不支持增量聚合
<operation> <predicate>
中不支持聚合函数。
不支持修改排序规则的布隆过滤器 (DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER)
无法更改列 <column>
的排序规则,因为它具有布隆筛选器索引。 请保留现有的排序规则,或者删除布隆筛选器索引,然后再次重试该命令,以更改排序规则。
DELTA_不支持通过聚类修改排序规则
无法更改列 <column>
的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE
命令将列更改为非聚类分析列,然后再次重试该命令,以更改排序规则。
不支持 DELTA 修改表更改列
ALTER TABLE CHANGE COLUMN
不支持将列 <currentType>
更改为 <newType>
DELTA不允许按CLUSTER BY修改表
只有使用 Liquid 聚类分析的 Delta 表支持使用 ALTER TABLE CLUSTER BY
。
不允许在分区表上进行DELTA_ALTER_TABLE_CLUSTER_BY操作
ALTER TABLE CLUSTER BY
不能应用于已分区表。
DELTA 不允许重命名表
不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME
TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称 <newName>
的 Delta 表,可以通过将 <key>
设置为 true 来启用它。
修改DELTA表的SET_CLUSTERING表功能不允许
无法使用 <tableFeature>
启用 ALTER TABLE SET TBLPROPERTIES
表功能。 请使用 CREATE
或 REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_数据类型变更歧义
无法将 <column>
的数据类型从 <from>
更改为 <to>
。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
单独进行这些更改。
DELTA_AMBIGUOUS_PARTITION_COLUMN
不明确的分区列 <column>
可以是 <colMatches>
。
创建表时的DELTA模糊路径
CREATE TABLE
包含两个不同的位置:<identifier>
和 <location>
。
可以从 LOCATION
语句中删除 CREATE TABLE
子句,也可以设置
<config>
设置为 true 以跳过此检查。
已归档文件在限制内
表 <table>
不包含非存档文件中的足够记录,无法满足指定的 LIMIT
/<limit>
条记录)。
扫描中的增量归档文件
在表 <numArchivedFiles>
中找到 <table>
个需要作为此查询的一部分扫描的可能已存档文件。
无法访问已存档的文件。 当前存档前时间配置为 <archivalTime>
。
请调整查询筛选器以排除所有已存档的文件。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
当表启用了更改数据馈送 (CDF) 并使用 <opName>
或 DROP COLUMN
进行了架构更改后,不允许执行操作“RENAME COLUMN
”。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
无法删除以下不存在的列的 Bloom 筛选器索引:<unknownColumns>
增量布隆过滤器写入时内存不足
在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>
。
可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。
DELTA_CANNOT_CHANGE_DATA_TYPE
无法更改数据类型:<dataType>
DELTA_CANNOT_CHANGE_LOCATION
无法使用 SET TBLPROPERTIES
更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION
。
DELTA_无法更改供应商
“provider”是保留的表属性,不能更改。
无法为不存在的列创建布隆过滤器_DELTA
无法为以下不存在的列创建 Bloom 筛选器索引:<unknownCols>
DELTA_无法创建日志路径
无法创建 <path>
无法描述视图历史的Delta操作或功能限制
无法描述视图的历史记录。
无法在非索引列上删除布隆过滤器
无法删除非索引列上的 bloom 筛选器索引:<columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
无法删除 CHECK
约束表功能。
必须先删除以下约束:<constraints>
。
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
无法删除排序规则表功能。
具有非默认排序规则的列必须更改为首先使用 UTF8_BINARY:<colNames>
。
DELTA_无法评估表达式
无法计算表达式:<expression>
无法找到桶规格_DELTA
需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格
DELTA_无法为表达式生成代码
无法生成表达式的代码:<expression>
无法修改仅追加的DELTA
此表配置为仅允许追加。 如果要允许更新或删除,请使用“”。ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)
不能修改协调提交的依赖关系
<Command>
无法替代或取消设置提交中的时间戳表属性,因为在此表中启用了协调提交,并依赖于这些提交。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
DELTA_无法修改表属性
用户无法指定 Delta 表配置 <prop>
无法覆盖协调提交的配置 (DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS)
<Command>
无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES
子句中删除它们(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.tableConf-preview”),然后再次重试该命令。
无法从URI重建路径的DELTA
在事务日志中找到无法转换为相对路径的 uri (<uri>
)。
DELTA_CANNOT_RELATIVIZE_PATH
一个无法通过事务日志中找到的当前输入相对化的 (<path>
)
路径 (
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<userPath>
, true)
然后运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<path>
)
无法重命名路径
无法将 <currentPath>
重命名为 <newPath>
无法用Delta替换缺失的表
无法替换表 <tableName>
,因为它不存在。 使用 CREATE
或 REPLACE TABLE
创建表。
DELTA_CANNOT_RESOLVE_COLUMN (无法解析列)
无法解析 <columnName>
中的列 <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
无法将表还原到 <version>
版本。 可用版本:[<startVersion>
, <endVersion>
]。
DELTA_无法将时间戳恢复至更早时间
无法将表还原到时间戳 (<requestedTimestamp>
),因为它早于可用的最早版本。 请使用晚于 (<earliestTimestamp>
) 的时间戳。
DELTA_无法还原_时间戳更大
无法将表还原到时间戳 (<requestedTimestamp>
),因为它在可用的最新版本之后。 请使用早于 (<latestTimestamp>
) 的时间戳
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
无法同时设置提交中的时间戳表属性与协调提交,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES
子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。
无法在路径标识符上设置位置
无法更改基于路径的表的位置。
无法设置管理的统计列属性的DELTA
无法在非 DLT 表上设置 delta.managedDataSkippingStatsColumns
DELTA_无法在命令中设置_UC_COMMIT_COORDINATOR_CONF
将“unity-catalog”作为提交协调器启用时,无法通过命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中移除,然后再次重试该命令。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
启用“unity-catalog”作为提交协调器时,无法从 SparkSession 配置中设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
来取消设置它,然后再次重试该命令。
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
无法取消设置协调提交配置。 若要在协调提交中降级一个表,请重试使用 ALTER
TABLE[table-name]
DROP FEATURE 'coordinatedCommits-preview'
。
DELTA_无法更新数组字段
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素
DELTA_无法更新_MAP_字段
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射
无法更新其他字段的增量
无法更新 <tableName>
类型的 <typeName>
字段
无法更新结构字段的DELTA
无法更新 <tableName>
字段 <fieldName>
类型:通过添加、删除或更新其字段来更新结构
Delta系统无法将所有列用于分区
无法将所有列用于分区列
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE 无法删除所有符合条件的文件,因为 Delta 日志未引用某些文件。 请运行 VACUUM FULL
。
无法将增量写入视图
<table>
是视图。 不支持对视图的写入。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE(表写入中的DElta转换溢出)
由于溢出,无法将 <sourceType>
类型值写入 <targetType>
类型列 <columnName>
。
对输入值使用 try_cast
以容许溢出并改为返回 NULL
。
如有必要,将 <storeAssignmentPolicyFlag>
设置为“LEGACY
”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag>
设置为 true 以还原旧行为,并遵循 <ansiEnabledFlag>
和 UPDATE
中的 MERGE
。
此版本中不允许使用DELTA_CDC
无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。
增量变更数据馈送不兼容的数据架构
由于数据架构不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readSchema>
中的 <readVersion>
,但我们发现版本 <incompatibleVersion>
中的数据架构不兼容。
如果可能,请通过将 <config>
设置为 endVersion
使用最终版本的架构来检索表更改,或者联系支持人员。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
由于架构更改不兼容,检索版本 <start>
和 <end>
之间的表更改失败。
你的读取架构是版本 <readSchema>
中的 <readVersion>
,但我们发现版本 <incompatibleVersion>
中的架构更改不兼容。
如果可能,请分别将查询表从版本 <start>
更改为 <incompatibleVersion>
- 1,从版本 <incompatibleVersion>
更改为 <end>
。
DELTA_CHANGE_DATA_FILE_NOT_FOUND (增量更改数据文件未找到)
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则可能会发生这种情况。 此请求似乎针对更改数据馈送,如果是这样,当更改数据文件超出保留期并由 VACUUM
语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>
增量变更表已禁用
无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。
DELTA_检查点_不可用表
无法为不存在的表 <path>
创建检查点。 是否手动删除了 _delta_log 目录中的文件?
DELTA_CLONE_AMBIGUOUS_TARGET
提供两条路径作为 CLONE
目标,因此使用哪条路径是不明确的。 在提供
路径的同时,还在 CLONE
处提供 <externalLocation>
的外部位置
<targetIdentifier>
。
DELTA_CLONE_INCOMPATIBLE_SOURCE
克隆源具有有效的格式,但具有 Delta 不支持的功能
有关详细信息 ,请参阅DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_克隆_不完整_文件_复制
未完全复制文件 (<fileName>
)。 预期文件大小 <expectedSize>
,找到:<actualSize>
。 若要忽略文件大小检查以继续操作,请将 <config>
设置为 false。
增量克隆不支持的源
克隆源“<mode>
”不受支持 <name>
,其格式为 <format>
。
支持的格式为“delta”、“iceberg”和“parquet”。
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
不支持的源表:
有关详细信息 ,请参阅DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
不支持的目标表:
有关详细信息 ,请参阅DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED(不支持DELTA聚类克隆表)
不支持 DBR 版本 CLONE
的 Liquid 群集 Delta 表中的 < 14.0
。
DELTA 聚类列的数据类型不支持
不支持 CLUSTER BY
,因为以下列 <columnsWithDataTypes>
不支持跳过数据。
DELTA聚类列不匹配
提供的聚类分析列与现有的表不匹配。
提供的:
<providedClusteringColumns>
现有的:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN缺少统计数据
液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>
”:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE (用于从流动表创建外部非流动表的Delta群集操作)
不允许从使用液体聚类分析的表目录创建不使用液体聚类分析的外部表;路径:<path>
。
不支持DELTA聚类
“<operation>
”不支持聚类分析。
DELTA_集群_阶段_失败
无法使用 <phaseOutType>
表功能完成表的 <tableFeatureToAdd>
(原因:<reason>
)。 请再次尝试 OPTIMIZE
命令。
== 错误 ==
<error>
数据聚类将表替换为分区表
不允许使用已分区表 REPLACE
使用 Liquid 聚类分析的 Delta 表。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
无任何聚类分析列的 Liquid 聚类分析 Delta 表不支持 SHOW CREATE TABLE
。
保持原英文标识符不变以确保技术准确性:DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
当现有表具有非空聚类分析列时,不允许将具有 Liquid 聚类分析的 Delta 表转换为分区表来执行相关操作:<operation>
。
请首先运行 ALTER TABLE CLUSTER BY
NONE 以删除聚类分析列。
增量聚类与动态分区覆写
使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。
增量聚类_含分区谓词
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令不支持分区谓词。 请删除谓词:<predicates>
。
增量聚类及排序功能 (DELTA_CLUSTERING_WITH_ZORDER_BY)
使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE
命令无法指定 ZORDER BY
。 请删除 ZORDER BY (<zOrderBy>
)。
按无效列数聚类的Delta
Liquid 聚类分析的 CLUSTER BY
最多支持 <numColumnsLimit>
个聚类分析列,但表中有 <actualNumColumns>
个聚类分析列。 请删除多余的聚类分析列。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED(未提供按架构分组的 Delta 集群)
未定义架构时,不允许指定 CLUSTER BY
。 请定义表 <tableName>
的架构。
DELTA_按分桶聚类
无法同时指定聚类分析和分桶。 如果要使用聚类分析创建 Delta 表,请删除 CLUSTERED BY INTO BUCKETS
/bucketBy。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
无法同时指定聚类分析和分区。 如果要使用聚类分析创建 Delta 表,请删除 PARTITIONED BY
/partitionBy/partitionedBy。
增量排序不支持
Delta Lake 不支持排序规则。
DELTA列数据跳过不支持分区列
分区列“<column>
”不支持跳过数据。
增量列数据跳过不支持类型
类型为 <column>
的列“<type>
”不支持跳过数据。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
未在启用列映射的表上设置最大列 ID 属性 (<prop>
)。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID 未正确设置
启用列映射的表上的最大列 ID 属性 (<prop>
) 为 <tableMax>
,它不能小于所有字段的最大列 ID (<fieldMax>
)。
DELTA_COLUMN_MISSING_DATA_TYPE (字段缺少数据类型)
未提供列 <colName>
的数据类型。
DELTA_COLUMN_NOT_FOUND
无法找到给定 [<columnName>
] 的 <columnList>
列
在合并中找不到 DELTA 列
无法从 <targetCol>
列找到目标表的列“INSERT
”:<colNames>
。
INSERT
子句必须为目标表的所有列指定值。
在架构中找不到DELTA列
在下列位置无法找到 <columnName>
列:
<tableSchema>
DELTA列路径未嵌套
<columnPath>
应为嵌套数据类型,但找到的类型为 <other>
。 正在查找
嵌套字段中 <column>
的索引。
架构:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH(Delta列结构类型不匹配)
结构列 <source>
无法插入到 <targetType>
中的 <targetField>
字段 <targetTable>
。
增量提交中间重定向状态
无法处理重定向表状态“<state>
”内表的提交。
DELTA_压缩验证失败
路径 <compactedPath>
到 <newPath>
的压缩验证失败:请提交 bug 报告。
DELTA_复合类型列包含空类型
在数据类型为 <columName>
的 <dataType>
列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException:已通过并发更新将文件添加到 <partition>
。 <retryMsg> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_并发删除_删除
ConcurrentDeleteDeleteException:此事务尝试删除已由并发更新删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
Delta并发删除读取
ConcurrentDeleteReadException:此事务尝试读取已由并发更新删除的一个或多个文件(例如 <file>
)。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException:当多个流式处理查询使用相同的检查点来写入此表时,会发生此错误。 是否同时运行了同一流式处理查询的多个实例?<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException:自当前事务读取表以来,并发事务已写入新数据。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_CONFLICT_SET_COLUMN
这些 SET
列之间存在冲突:<columnList>
。
不支持在命令中覆盖 DELTA 配置
在 <command>
期间,无法从命令设置配置“<configuration>
”。 请将其从 TBLPROPERTIES
子句中移除,然后再次重试该命令。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION (在会话中不支持 Delta 配置覆盖)
在 <command>
期间,无法从 SparkSession 配置设置配置“<configuration>
”。 请通过运行 spark.conf.unset("<configuration>")
来取消设置它,然后再次重试该命令。
DELTA_CONSTRAINT_ALREADY_EXISTS
约束“<constraintName>
”已存在。 请先删除旧约束。
旧约束:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下检查约束引用了此列:
<constraints>
增量约束依赖列更改
无法更改列 <columnName>
,因为以下检查约束引用了此列:
<constraints>
DELTA约束不存在
无法从表 <constraintName>
中删除不存在的约束 <tableName>
。 若要避免引发错误,请提供参数 IF EXISTS
或将 SQL 会话配置 <config>
设置为 <confValue>
。
DELTA转换在读合并不支持
不支持转换读取时合并 <format>
表:<path>
、<hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
在目录中找不到表 <tableName>
的分区信息。 你是否已对该表运行“MSCK REPAIR TABLE
”来发现分区?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
无法将已排序分区列 <colName>
的 Parquet 表转换为 Delta。
Δ转换_不支持的列映射
使用 <config>
TO <mode>
时,无法将配置“CONVERT
”设置为 DELTA
。
不支持模式更改的DELTA转换
找不到 <format>
表的不支持架构更改:<path>
、<hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
仅支持 Parquet 表,但你尝试转换 <sourceName>
源:<tableId>
DELTA转换为不带统计数据的DELTA行跟踪
无法在不收集统计信息的情况下启用行跟踪。
如果要启用行跟踪,请执行以下操作:
- 通过运行以下命令启用统计信息收集:
SET <statisticsCollectionPropertyKey>
= 真
- 在没有 NO
CONVERT
选项的情况下运行DELTA
TOSTATISTICS
。
如果不需要收集统计信息,请禁用行跟踪:
- 通过运行以下命令停用默认启用表功能:
RESET <rowTrackingTableFeatureDefaultKey>
- 通过运行以下命令停用默认表属性:
SET <rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
目标必须是 Delta 表。
DELTA_创建外部表时没有架构
你正在尝试使用 Delta 从以下位置创建外部表 <tableName>
:
<path>
创建外部表
未指定架构。
若要详细了解 Delta,请参阅 <docLink>
DELTA_创建外部表_无事务日志
你正在尝试使用 Delta 从以下位置创建外部表 <tableName>
:
%2$s
创建外部表,但 %2$s/_delta_log 中不存在事务日志。
%2$s/_delta_log
。 检查上游作业,确保它正在使用
格式(“delta”)写入,并且该路径是表的根。
若要详细了解 Delta,请参阅 <docLink>
增量创建表标识符位置不匹配
不支持创建具有不同位置的基于路径的 Delta 表。 标识符:<identifier>
,位置:<location>
缺少表名或位置的DELTA_CREATE_TABLE错误
必须指定表单名称或位置。
DELTA_创建表_模式不匹配
指定的架构与位于 <path>
的现有架构不匹配。
== 指定的 ==
<specifiedSchema>
== 现有 ==
<existingSchema>
== 差异 ==
<schemaDifferences>
如果打算保留现有架构,可以
从 create table 命令省略该架构。 否则请确保
架构匹配。
DELTA创建表设置聚类表功能不允许
无法使用 <tableFeature>
启用 TBLPROPERTIES
表功能。 请使用 CREATE
或 REPLACE TABLE CLUSTER BY
创建包含聚类分析的 Delta 表。
DELTA_创建不同聚簇的表
指定的聚类分析列与 <path>
的现有聚类分析列不匹配。
== 指定的 ==
<specifiedColumns>
== 现有 ==
<existingColumns>
DELTA_创建带有不同分区的表
指定的分区与 <path>
处的现有分区不匹配。
== 指定的 ==
<specifiedColumns>
== 现有 ==
<existingColumns>
DELTA_使用不同属性创建表
指定的属性与 <path>
处的现有属性不匹配。
== 指定的 ==
<specifiedProperties>
== 现有 ==
<existingProperties>
DELTA_在非空位置创建表
无法创建表(“<tableId>
”)。 关联的位置(“<tableLocation>
”)不为空,也不是 Delta 表。
DELTA_DATA_CHANGE_FALSE
无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>
”。
DELTA_删除的_PARQUET_文件_未找到
找不到事务日志中引用的文件 <filePath>
。 可以在 Delta 的数据保留策略下删除此 parquet 文件。
默认数据保留持续时间:<logRetentionPeriod>
。 Prquet 文件的修改时间:<modificationTime>
。 Prquet 文件的删除时间:<deletionTime>
。 删除的 Delta 版本:<deletionVersion>
。
增量删除向量缺少记录数量
提交删除向量缺少 numRecords 统计信息的文件是无效操作。
不支持域元数据更改
检测到域 <domainNames>
的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO (删除列时,索引不能小于零)
删除列的索引 <columnIndex>
低于 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
无法从具有单个列的架构中删除列。 架构:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
针对路径 <actionType>
多次指定了文件操作“<path>
”。
它与 <conflictingPath>
冲突。
单个提交中不能存在使用相同路径的多个文件操作。
发现重复的列
已找到重复列 <coltype>
:<duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT
子句中的重复列名
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
请在更新表之前删除重复的列。
DELTA_重复数据跳过列
发现跳过列的重复数据:<columns>
。
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATION
在表完整性验证期间,无法反序列化已删除的记录计数直方图。
DELTA_动态分区覆盖_禁用
动态分区覆盖模式由会话配置或写入选项指定,但它已被 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
禁用。
DELTA_EMPTY_DATA (数据为空)
创建 Delta 表时使用的数据没有任何列。
DELTA_EMPTY_DIRECTORY
在以下目录中未找到任何文件:<directory>
。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT(字符或可变字符长度超出限制)
值“<value>
”超过了 char/varchar 类型长度限制。 检查失败:<expr>
。
分区值转换失败
无法将分区值 <value>
强制转换为 <dataType>
DELTA_无法在输出列中找到属性
在现有目标输出 <newAttributeName>
中找不到 <targetOutputColumns>
DELTA_推断模式失败
无法从给定的文件列表推断架构。
DELTA_FAILED_MERGE_SCHEMA_FILE
无法合并文件 <file>
的架构:
<schema>
DELTA_浅层克隆操作失败
由于浅克隆<sourceTable>
仍然存在,并且其中发生了以下错误:<targetTable>
,所以无法在源表<message>
上运行操作。
DELTA_读取文件尾部失败
无法读取文件的页脚:<currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
无法识别谓词“<predicate>
”
DELTA扫描失败,具有历史版本
需要对最新版本的 Delta 源进行完全扫描,但找到了版本 <historicalVersion>
的历史扫描
DELTA_合并字段失败
未能合并字段“<currentField>
”和“<updateField>
”
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:<features>
。
需要手动启用的增量功能
需要手动为表架构启用以下表功能:<unsupportedFeatures>
。
为此,请对上面列出的每个功能运行以下命令:
ALTER TABLE
SET TBLPROPERTIES
table_name ('delta.feature.feature_name' = 'supported')
将“table_name”和“feature_name”替换为实际值。
当前支持的功能:<supportedFeatures>
。
DELTA_FEATURE仅能通过历史截断来撤销检查点保护
无法删除检查点保护功能。
只能通过截断历史记录来删除此功能。
请使用 TRUNCATE HISTORY
选项重试:
ALTER TABLE
DROP FEATURE
table_name checkpointProtectionTRUNCATE HISTORY
DELTA_功能_删除_检查点_失败
由于检查点创建失败,删除 <featureName>
失败。
请稍后再试。 如果该问题仍然存在,请联系 Databricks 支持部门。
DELTA_FEATURE_DROP_CHECKPOINT保护等待保留期
操作未成功,因为仍然存在已删除特征的痕迹。
表历史记录中。 CheckpointProtection 在这些历史版本过期之前
无法删除。
若要删除 CheckpointProtection,请等待历史版本
过期,然后重复此命令。 历史版本的保持期为
当前配置为 <truncateHistoryLogRetentionPeriod>
。
增量功能丢弃冲突重新验证失败
无法删除功能,因为并发事务修改了表。
请重试此操作。
<concurrentCommit>
删除依赖功能
无法删除表特征 <feature>
,因为此表中的一些其他特征 (<dependentFeatures>
) 依赖于 <feature>
。
在删除此特征之前,请考虑先删除它们。
DELTA_功能删除_未呈现功能
无法从此表中删除 <feature>
,因为它当前不存在于该表的协议中。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
无法删除 <feature>
,因为 Delta 日志包含使用该功能的历史版本。
请等到历史记录保持期 (<logRetentionPeriodKey>=<logRetentionPeriod>
)
是时间已经过去,自上次激活该功能以来。
或者,请等待 TRUNCATE HISTORY
保留期到期 (<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
三角洲功能删除历史记录截断不允许
特定功能不需要历史记录截断。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
无法删除 <feature>
,因为不支持删除此功能。
请联系 Databricks 支持人员。
功能删除_不支持的客户端功能
无法删除 <feature>
,因为此 Databricks 版本不支持它。
请考虑将 Databricks 与更高版本配合使用。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
删除 <feature>
部分成功。
当前版本的表中不再使用该功能。 但是,该功能
仍存在于表的历史版本中。 无法删除表功能
从表协议中,直到到这些历史版本已过期。
若要从协议中删除表功能,请等待历史版本
过期,然后重复此命令。 历史版本的保持期为
当前已配置为 <logRetentionPeriodKey>=<logRetentionPeriod>
。
或者,请等待 TRUNCATE HISTORY
保留期到期 (<truncateHistoryLogRetentionPeriod>
)
然后运行:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
三角洲功能要求更高版本的阅读器
无法启用表功能 <feature>
,因为它需要更高的读取器协议版本(当前为 <current>
)。 请考虑将表的读取器协议版本升级到 <required>
,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA功能需要更高版本的写入程序
无法启用表功能 <feature>
,因为它需要更高的编写器协议版本(当前为 <current>
)。 请考虑将表的编写器协议版本升级到 <required>
,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_FILE_ALREADY_EXISTS
现有文件路径 <path>
增量文件列表与模式字符串冲突
无法同时指定文件列表和模式字符串。
DELTA_FILE_NOT_FOUND
文件路径 <path>
未找到增量文件详细信息
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则会发生这种情况。 有关详细信息,请参阅 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
无此类文件或目录:<path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
未在候选文件中找到要重写的文件 (<path>
):
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
已找到 MapType。 若要访问 MapType 的键或值,请指定一个
:
<key>
或
<value>
后跟列的名称(仅当该列是结构类型时)。
例如 mymap.key.mykey
如果列是基本类型,mymap.key 或 mymap.value 就足够了。
架构:
<schema>
DELTAX生成的列数据类型不匹配
列 <columnName>
具有数据类型 <columnType>
,无法更改为数据类型 <dataType>
,因为以下生成的列引用了此列:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
无法更改列 <columnName>
,因为以下生成的列引用了此列:
<generatedColumns>
DELTA 生成列表达式类型不匹配
生成的列 <columnName>
的表达式类型为 <expressionType>
,但列类型为 <columnType>
Delta生成列更新类型不匹配
列 <currentName>
是生成的列或由生成的列使用的列。 数据类型为 <currentDataType>
,无法转换为数据类型 <updateDataType>
DELTA_GEOSPATIAL_不受支持
此版本的 Delta Lake 不支持地理空间类型。
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
地理空间类型具有不支持的空间参考标识符 srid:<srid>
。 Delta 表仅支持非负 srid 值。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
的验证失败。
有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
IcebergWriterCompatV<version>
的验证失败。
有关详细信息,请参阅 DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_标识列_修改列_不支持
ALTER TABLE ALTER COLUMN
列不支持 IDENTITY
。
Delta_Identity_Columns_Alter_Non_Delta_Format
ALTER TABLE ALTER COLUMN SYNC IDENTITY
仅受 Delta 支持。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY
不能对非 IDENTITY
列调用。
DELTA 不支持对身份列的显式插入
不支持为 GENERATED ALWAYS
AS IDENTITY
列 <colName>
提供值。
DELTA_标识列_非法步长
IDENTITY
列步长不能为 0。
增量标识列非增量格式
IDENTITY
列仅受 Delta 支持。
不支持DELTA标识列分区
不支持列 PARTITIONED BY IDENTITY
列 <colName>
。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
具有 ALTER TABLE REPLACE COLUMNS
列的表不支持 IDENTITY
。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
<dataType>
列不支持 DataType IDENTITY
。
不支持对 Delta 标识列进行更新
不支持 UPDATE
列 IDENTITY
上的 <colName>
。
DELTA_标识列_带有_生成的_表达式
不能使用生成的列表达式来指定 IDENTITY
列。
DELTA_非法选项
选项“<input>
”的值“<name>
”无效,<explain>
DELTA_非法使用
对 Delta 表执行 <option>
时不允许使用 <operation>
。
增量_不一致_桶规格
Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为:<expected>
。 实际为:<actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。
DELTA_数组访问错误
错误访问 ArrayType。 使用 arrayname.element.elementname 位置
添加到数组。
DELTA_使用名称访问数组时出错
已找到 ArrayType。 要访问 ArrayType 的元素,请指定
<rightName>
,而不是 <wrongName>
。
架构:
<schema>
DELTA_INCORRECT_GET_CONF
使用 getConf()
而不是 `conf.getConf()
DELTA_错误日志存储实现
该错误通常在使用 LogStore 默认实现
(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。
若要获取表更新的事务 ACID 保证,必须使用
适合你的存储系统的正确 LogStore 实现。
有关详细信息,请参阅<docLink>
。
DELTA_INDEX大于或等于STRUCT
删除列的索引 <position>
等于或大于结构长度:<length>
DELTA_INDEX_LARGER_THAN_STRUCT
添加列 <index>
的索引 <columnName>
大于结构长度:<length>
DELTA 插入列数不匹配
无法写入“<tableName>
”,<columnName>
;目标表具有 <numColumns>
列,但插入的数据具有 <insertColumns>
列
DELTA_INSERT列不匹配
在 <columnName>
中未指定列 INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
自动压缩类型无效:<value>
。 允许的值为:<allowed>
。
DELTA_INVALID_BUCKET_COUNT
无效桶计数:<invalidBucketCount>
。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>
。
DELTA_INVALID_BUCKET_INDEX
无法在分区列中找到 Bucket 列
DELTA_日历间隔无效_为空
间隔不能为 null 或空白。
DELTA_INVALID_CDC_RANGE
从起始值 <start>
到结束值 <end>
的 CDC 范围无效。 结束值不能早于起始值。
DELTA_列名中包含无效字符
属性名称“
DELTA_列名中无效字符
在架构的列名中,发现了' ,;{}()\n\t='
包含无效字符。
无效的列名:<invalidColumnNames>
。
请使用其他字符,然后重试。
或者,启用列映射以继续使用这些字符。
DELTA_无效克隆路径
CLONE
的目标位置需要是绝对路径或表名。 使用
绝对路径而不是 <path>
。
DELTA_移除列映射时无效的列名称
在架构的列名中,发现了' ,;{}()\n\t='
包含无效字符。
无效的列名:<invalidColumnNames>
。
如果列名中存在无效字符,则无法删除列映射。
请重命名列以删除该无效字符,然后再次执行此命令。
DELTA_格式无效
检测到不兼容的格式。
在 <deltaRootPath>/_delta_log
找到了 Delta 的事务日志
但你正在尝试使用 format("<operation> <path>
") 执行 <format>
。 读取和写入 Delta 表时
必须使用“format("delta")”。
若要详细了解 Delta,请参阅 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成的列不能使用不存在的列或其他生成的列
DELTA无效幂等写入选项
幂等 Dataframe 写入的选项无效:<reason>
DELTA_INVALID_INTERVAL
<interval>
不是有效的 INTERVAL
。
DELTA_库存架构无效
指定的 INVENTORY
的架构未包含所有必填字段。 必填字段为:<expectedSchema>
DELTA_无效隔离级别
无效隔离级别“<isolationLevel>
”
DELTA_INVALID_LOGSTORE_CONF
无法同时设置 <classConfig>
和 <schemeConfig>
。 请仅设置其中一组。
DELTA_无效的托管表语法_无模式
你正在尝试使用 Delta 创建托管表 <tableName>
但未指定架构。
若要详细了解 Delta,请参阅 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
不是表 <tableName>
中的有效分区列。
DELTA_无效分区列名称
在 " ,;{}()\n\t="
的分区列中找到无效字符。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。
DELTA_无效的分区列类型
不支持使用 <name>
类型的 <dataType>
列作为分区列。
DELTA_无效分区路径
分区路径片段的形式应为 part1=foo/part2=bar
。 分区路径:<path>
协议降级无效错误
协议版本无法从 <oldProtocol>
降级到 <newProtocol>
DELTA_协议版本无效
不支持的 Delta 协议版本:表“<tableNameOrPath>
”需要读取器版本 <readerRequired>
和写入器版本 <writerRequired>
,但此版本的 Databricks 支持读取器版本 <supportedReaders>
和写入器版本 <supportedWriters>
。 请升级到较新版本。
DELTA_无效的表值函数
函数 <function>
是不支持用于 CDC 读取的表值函数。
DELTA_时间戳格式无效
提供的时间戳 <timestamp>
与预期的语法 <format>
不匹配。
增量日志已存在
Delta 日志已存在于 <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
<rowTrackingColumn>
缺少具体化行 <tableName>
列名称。
超过最大数组大小限制
请使用小于 Int.MaxValue - 8 的限制。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED (超过最大提交重试次数)
此提交失败,因为它已尝试 <numAttempts>
次,但均未成功。
这可能是由多个并发提交连续提交 Delta 表
造成的。
提交开始于版本:<startVersion>
提交失败的版本:<failVersion>
尝试提交的操作数:<numActions>
尝试此提交所花费的总时间:<timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
文件列表必须最多有 <maxFileListSize>
个条目,实际有 <numFiles>
个。
DELTA_MERGE_ADD_VOID_COLUMN
无法添加类型为 VOID 的列 <newColumn>
。 请显式指定非 void 类型。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
未能合并不兼容的数据类型 <currentDataType>
和 <updateDataType>
不兼容的十进制类型合并在DELTA中
无法将十进制类型与不兼容的 <decimalRanges>
合并
DELTA合并物化源反复失败
使 MERGE
语句的源保持具体化状态反复失败。
DELTA_MERGE_MISSING_WHEN
WHEN
语句中必须至少包含一个 MERGE
子句。
DELTA_合并_已解决_属性_缺失_自输入
运算符 <missingAttributes>
中的 <input>
缺失已解析属性 <merge>
增量合并的意外分配键
意外分配密钥:<unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_未解析表达式
无法解析给定 <sqlExpr>
中 <clause>
的 <cols>
。
元数据变更
MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
增量缺失变更数据
获取 [<startVersion>
, <endVersion>
] 范围的更改数据时出错,因为未记录
版本 [<version>
] 的更改数据。 如果在此表上启用了更改数据馈送,
请使用 DESCRIBE HISTORY
查看它首次启用的时间。
否则,若要开始记录更改数据,请使用 ALTER
TABLEtable_name
SET TBLPROPERTIES'
(<key>
=true)`。
DELTA_MISSING_COLUMN
无法在表列中找到 <columnName>
:<columnList>
DELTA_缺少提交信息
此表启用了特征 <featureName>
,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version>
中缺少 CommitInfo 操作。
增量缺失提交时间戳
此表启用了特征 <featureName>
,这要求 CommitInfo 操作中存在 commitTimestamp。 但是,提交版本 <version>
中尚未设置此字段。
DELTA_MISSING_DELTA_TABLE
<tableName>
不是 Delta 表。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
表不存在。 首先使用 CREATE TABLE <tableName>
创建空的 Delta 表。
DELTA_缺失_冰山_类
找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。
有关更多详细信息,请参阅 <docLink>
。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
写入表中的数据中缺失具有 <columnName>
约束的 NOT NULL
列。
DELTA_缺失的分区列
在架构 <columnName>
中找不到分区列 <columnList>
DELTA_MISSING_PART_FILES (缺少部分文件)
找不到检查点版本的所有组成部分文件:<version>
DELTA_MISSING_PROVIDER_FOR_CONVERT (缺少转换提供者)
CONVERT
TO DELTA
仅支持 parquet 表。 请将目标重写为 Parquet。如果它是 Parquet 目录,则为 <path>
DELTA_缺失设置列
SET
列 <columnName>
没有找到给定列:<columnList>
。
DELTA_缺失交易日志
检测到不兼容的格式。
你正在尝试使用 Delta 执行 <operation> <path>
,但没有
事务日志。 检查上游作业,确保它正在使用
format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。
若要详细了解 Delta,请参阅 <docLink>
不支持增量模式
不支持指定模式“<mode>
”。 支持的模式包括:<supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
为 CDC 读取提供的多个 <startingOrEnding>
参数。 请提供一个 <startingOrEnding>
时间戳或 <startingOrEnding>
版本。
布隆过滤器中的单列多重配置差异
传递给列命令的多个 bloom 筛选器索引配置:<columnName>
多个源行在合并中匹配目标行
无法执行合并,因为多个源行匹配并尝试
以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,
当多个源行在同一目标行上匹配时,结果可能是不明确的,
因为不清楚应该使用哪一个源行来更新或删除匹配的
目标行。 你可以预处理源表来消除
出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
在 <command>
期间,两个协调提交配置(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>
”。 请在 TBLPROPERTIES
子句中指定此配置或移除其他配置,然后再次重试该命令。
所有协调提交确认必须在会话中设置DELTA
在 <command>
期间,两个协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>
”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
以下列名仅限 Delta Bucket 表内部使用:<names>
DELTA_嵌套字段需要重命名
输入架构包含大小写与目标表不同的嵌套字段。
需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。
字段:
<fields>
。
原始架构:
<schema>
增量嵌套非空约束
字段 <nestType>
的 <parent>
类型包含 NOT NULL
约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL
约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 <configKey>
= true。
分析的 <nestType>
类型:
<nestedPrettyJson>
增量嵌套子查询不支持
<operation>
条件不支持嵌套子查询。
增量_新检查约束违规
<numRows>
中有 <tableName>
行违反新的 CHECK
约束 (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION (新的Delta不允许为空的违规)
<numRows>
中有 <tableName>
行违反 NOT NULL
上的新 <colName>
约束
Delta非布尔检查约束
CHECK
约束“<name>
”(<expr>
) 应是一个布尔表达式。
生成列中的非确定性表达式
已找到 <expr>
。 生成的列不能使用非确定性表达式。
DELTA_不支持非确定性函数
<operation> <expression>
中不支持非确定性函数
非最后匹配子句的增量忽略条件
当 MATCHED
语句中有多个 MERGE
子句时,只有最后一个 MATCHED
子句可以省略该条件。
DELTA_非最后组_不通过源子句匹配_排除条件
当 NOT MATCHED BY SOURCE
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED BY SOURCE
子句可以省略该条件。
DELTA非最后不匹配子句省略条件
当 NOT MATCHED
语句中有多个 MERGE
子句时,只有最后一个 NOT MATCHED
子句可以省略该条件
DELTA_NON_PARSABLE_TAG
无法分析标记 <tag>
。
文件标记为:<tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
写入 Delta 的数据需要包含至少一个非分区列。<details>
DELTA_非分区列引用
谓词引用非分区列“<columnName>
”。 只能引用分区列:[<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED (指定了非分区列)
指定了非分区列 <columnList>
,但只能指定分区列:<fragment>
。
DELTA_非单独部分命名空间_用于目录
Delta 目录需要一个单部分命名空间,但 <identifier>
是多部分命名空间。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
不支持通过命令将提交协调器设置为“<nonUcCoordinatorName>
”,因为 UC 管理的表只能将“unity-catalog”设置为提交协调器。 请将其更改为“unity-catalog”,或者从 TBLPROPERTIES
子句中删除所有协调提交表属性,然后再次重试该命令。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
不支持从 SparkSession 配置中将提交协调器设置为<nonUcCoordinatorName>
,因为 UC 管理的表格只能使用“unity-catalog”作为提交协调器。 请通过运行 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
将其更改为“unity-catalog”,或者通过运行 spark.conf.unset("<coordinatorNameDefaultKey>")
、spark.conf.unset("<coordinatorConfDefaultKey>")
和 spark.conf.unset("<tableConfDefaultKey>")
从 SparkSession 配置中删除所有协调提交表属性,然后再次重试该命令。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
不是 Delta 表。 如果要使用 Databricks Delta 创建表,请先删除此表。
DELTA_NOT_A_DELTA_TABLE(不是一个 Delta 表)
<tableName>
不是 Delta 表。 如果要使用 Delta Lake 重新创建表,请先删除此表。
找不到非空列在结构中
未在结构中找到不可为 null 的列:<struct>
DELTA_非空约束_违反
列违反了 NOT NULL
约束:<columnName>
。
DELTA_不可为空的嵌套字段
不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 null 性。
未找到提交记录
未在 <logPath>
处找到提交
DELTA_NO_RECREATABLE_HISTORY_FOUND
在 <logPath>
处找不到可重新创建的提交
DELTA_无重定向规则违规
不允许的操作:不能对具有重定向功能的表执行 <operation>
。
没有一项重定向规则未得到满足 <noRedirectRules>
。
Δ_无关系表
找不到表 <tableIdent>
DELTA_无法启动_CDC读取
没有为 CDC 读取提供 startingVersion 或 startingTimestamp。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta 不接受在架构中使用 NullTypes 进行流写入。
DELTA_ONEOF_IN_TIMETRAVEL
请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。
DELTA_ONLY_OPERATION
<operation>
仅支持用于 Delta 表。
增量操作缺少路径
请为 <operation>
提供路径或表标识符。
DELTA_OPERATION_NOT_ALLOWED(不允许的增量操作)
不允许操作:Delta 表不支持 <operation>
DELTA_OPERATION_NOT_ALLOWED_DETAIL (三角洲操作不允许 - 详细信息)
不允许的操作:不支持对 Delta 表执行 <operation>
:<tableName>
不支持对具有排序规则的列进行DELTA操作
具有非默认排序规则 <operation>
的列 <colName>
不支持 <collation>
。
不支持数据类型的DELTA操作
<operation>
数据类型不支持: <dataTypeList>
不支持具有排序规则的表达式的DELTA操作
表达式 <operation>
不支持 <exprText>
,因为它使用非默认排序规则。
不支持在含有生成列的临时视图上执行 Delta 操作
不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation>
命令。 请直接对 Delta 表运行 <operation>
命令
在视图上不允许执行增量操作
不允许执行操作:不能对视图执行 <operation>
。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED(不支持完整优化)
只有具有非空聚类分析列的聚类分析表才支持 OPTIMIZE FULL
。
DELTA_OVERWRITE_MUST_BE_TRUE
如果不设 OVERWRITE
= 'true',则无法指定复制选项 overwriteSchema。
DELTA覆盖模式与动态分区覆盖
“overwriteSchema”不能在动态分区覆盖模式下使用。
DELTA_分区_列_转换_失败
未能将分区列 <value>
的值 <dataType>
强制转换为 <columnName>
找不到 DELTA 分区列
在架构 [<columnName>
] 中找不到分区列 <schemaMap>
增量分区模式在Iceberg表中
转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。
DELTA路径不存在
<path>
不存在或不是 Delta 表。
DELTA_PATH_EXISTS
如果不设置 <path>
= 'true',则无法写入已存在的路径 OVERWRITE
。
增量提交后挂钩失败
可成功提交 Delta 表版本 <version>
,但在执行提交后挂钩 <name> <message>
时出错
DELTA 协议已更改
ProtocolChangedException:Delta 表的协议版本已由并发更新更改。 <additionalInfo> <conflictingCommit>
有关更多详细信息,请参阅 <docLink>
。
DELTA_PROTOCOL_PROPERTY_NOT_INT (增量协议属性不是整数)
协议属性 <key>
需是整数。 已找到 <value>
增量读取功能协议需要写入
无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion>
才能继续。 有关表协议版本的详细信息,请参阅 <docLink>
。
DELTA_READ_TABLE_WITHOUT_COLUMNS
尝试读取没有任何列的 Delta 表 <tableName>
。
使用 mergeSchema = true
选项写入一些新数据,以便能够读取表。
DELTA_REGEX_OPT_SYNTAX_ERROR
请重新检查“<regExpOption>
”的语法
三角关系路径不匹配
关系路径“<relation>
”与 <targetType>
“路径”<targetPath>
不匹配。
DELTA_REPLACE_WHERE_IN_OVERWRITE
不能将 replaceWhere 与“按筛选器覆盖”结合使用
DELTA替换条件不匹配
写入的数据不符合部分表覆盖条件或约束“<replaceWhere>
”。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:<dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS(增量行ID分配缺少统计信息)
无法分配缺少行计数统计信息的行 ID。
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_模式_已更改
检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
增量模式已更改,包含启动选项
在版本 <version>
中检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。 如果该问题在更改为
新的检查点目录后仍然出现,你可能需要更改现有的
“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录
从高于 <version>
的版本重新开始。
DELTA_架构随着版本而改变
在版本 <version>
中检测到架构更改:
流式处理源架构:<readSchema>
数据文件架构:<dataSchema>
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
增量模式分析后的模式更改
自创建 DataFrame 或 DeltaTable 对象以来,
Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。
更改:
<schemaDiff> <legacyFlagMessage>
未提供增量模式
未提供表架构。 使用 REPLACE
表且未提供 AS SELECT
查询时,请提供表的架构(列定义)。
增量模式未设置
表架构未设置。 将数据写入其中或使用 CREATE TABLE
设置架构。
DELTA_设置位置模式不匹配
新 Delta 位置的架构不同于当前表架构。
原始架构:
<original>
目标架构:
<destination>
如果这是预期更改,可以通过运行以下内容来关闭此检查:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
找不到事务日志中引用的文件 <filePath>
。 如果已从文件系统中手动删除数据,而不是使用表 DELETE
语句进行删除,则可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
无法修改以 <prefix>
开头的预定义属性。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
数据受收件人属性 <property>
的限制,此属性不适用于会话中的当前收件人。
有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
不能在跨帐户共享的增量共享视图中使用 <operation>
。
DELTA共享无效提供程序认证
提供程序 <authenticationType>
的身份验证类型 <provider>
非法。
DELTA共享无效收件人认证
收件人 <authenticationType>
的身份验证类型 <recipient>
非法。
DELTA共享无效的共享数据对象名称
引用共享内 <type>
的名称无效。 可以按照 [schema].[<type>
] 格式在共享中使用 <type>
的名称,也可以按照 [catalog].[schema].[>type>] 格式使用表的原始全名。
如果不确定要使用的名称,则可以运行“SHOW ALL IN SHARE
[share]”,并找到要移除的 <type>
名称:列“name”是共享中 <type>
的名称,列“shared_object”是 <type>
的原始全名。
超出DELTA共享的最大接收者令牌数量
收件人 <recipient>
有多个令牌。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
收件人属性 <property>
不存在。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND(找不到 Delta 分享接收者令牌)
收件人 <recipient>
中缺少收件人令牌。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
为 <badCols>
指定了非分区列 SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
在未分区的表上不允许 SHOW PARTITIONS
:<tableName>
DELTA源忽略删除
在版本 <removedFile>
的流源中检测到已删除的数据(例如 <version>
)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在路径 <dataPath>
中找到。
DELTA_SOURCE_TABLE_IGNORE_CHANGES(忽略更改的Delta源表)
在版本 <file>
的源表中检测到数据更新(例如 <version>
)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询,或者如果你使用的是 DLT,请进行完全刷新。 如果需要处理这些更改,请切换到 MV。 源表可以在路径 <dataPath>
中找到。
增量起始版本和时间戳均已设置
请提供“<version>
”或“<timestamp>
”
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
在 Parquet 元数据中找不到列的 <statsType>
统计信息:<columnPath>
。
增量流无法在模式演变后继续处理
我们检测到 Delta 流式处理源中 Delta 版本 <opType>
与 <previousSchemaChangeVersion>
之间的一个或多个非累加架构更改 (<currentSchemaChangeVersion>
)。
请在我们使用最终定稿架构版本<currentSchemaChangeVersion>
进行流处理之前,查看是否需要手动传播架构更改到汇聚表。
一旦您修复了目标表的架构或决定无需修复,您可以设置以下配置以解除非累加架构更改的阻碍并继续流处理。
使用数据框架读取器的选项:
要取消对这特定数据流的阻止,仅针对这一系列架构更改:
<unblockChangeOptions>
若要解除屏蔽此特定流:
<unblockStreamOptions>
使用 SQL 配置:
要取消对这特定数据流的阻止,仅针对这一系列架构更改:
<unblockChangeConfs>
若要解除屏蔽此特定流:
<unblockStreamConfs>
要解除所有流的阻止:
<unblockAllConfs>
无法继续处理类型扩展
我们检测到一些数据类型在 Delta 版本<previousSchemaChangeVersion>
和<currentSchemaChangeVersion>
之间被扩大了。
<wideningTypeChanges>
流式处理查询包含可能在类型更改后失败或产生不同结果的操作。
请在我们继续使用版本 <currentSchemaChangeVersion>
最终的架构进行流处理之前,请检查是否要更新流查询。
更新流查询或决定无需更新流查询后,可以设置以下配置以取消阻止类型更改并继续流处理。
使用数据框读取选项:
要取消对这特定数据流的阻止,仅针对这一系列架构更改:
<unblockChangeOptions>
若要解除屏蔽此特定流:
<unblockStreamOptions>
使用 SQL 配置:
要取消对这特定数据流的阻止,仅针对这一系列架构更改:
<unblockChangeConfs>
若要解除屏蔽此特定流:
<unblockStreamConfs>
要解除所有流的阻止:
<unblockAllConfs>
增量流检查列映射无快照
检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>
”设置为“true”来强制启用流式读取,但需自负风险。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。
有关解决此问题的更多信息和可能的后续步骤,请查看 <docLink>
上的文档
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
流式处理中的不兼容架构更改,请使用架构日志
流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。
请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。
有关详细信息,请参阅 <docLink>
。
读取的架构:<readSchema>
。 不兼容的数据架构:<incompatibleSchema>
。
DELTA_STREAMING_METADATA_EVOLUTION
Delta 表的架构、表配置或协议在流式处理期间已更改。
架构或元数据跟踪日志已更新。
请重启流以使用更新的元数据继续处理。
更新的架构:<schema>
。
更新的表配置:<config>
。
更新的表协议:<protocol>
不支持的行过滤列屏蔽在 DELTA 流式模式演变中
使用架构跟踪从源表 <tableId>
进行流式处理不支持行筛选器或列掩码。
请删除行筛选器或列掩码,或禁用架构跟踪。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
从位于“<loc>
”的表流式传输时检测到有冲突的架构位置“<table>
”。
另一个流可能正在重用相同的架构位置,这是不允许的。
请为此表中的某个流提供新的唯一 schemaTrackingLocation
路径或 streamingSourceTrackingId
作为读取器选项。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
架构位置“<schemaTrackingLocation>
”必须放在检查点位置“<checkpointLocation>
”下。
DELTA流式Schema日志反序列化失败
“<location>
”处的 Delta 流式处理源架构日志中的日志文件不完整。
架构日志可能已损坏。 请选择新的架构位置。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID (不兼容的 Delta 表 ID)
尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。
持久化表 ID:<persistedId>
,表 ID:<tableId>
架构日志可能已重复使用。 请选择新的架构位置。
DELTA 流式架构日志与分区架构不兼容
尝试读取 Delta 流时检测到不兼容的分区架构。
持久化架构:<persistedSchema>
,Delta 分区架构:<partitionSchema>
如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA(Delta流数据模式日志初始化失败:元数据不兼容)
无法初始化 Delta 流式处理源架构日志,因为
在提供从表版本 <a>
到 <b>
的流式处理批时,我们检测到不兼容的架构或协议更改。
DELTA_流式_架构日志_解析架构失败
无法从 Delta 流式处理源架构日志分析架构。
架构日志可能已损坏。 请选择新的架构位置。
DELTA 表已经包含变更数据捕获列
无法对表启用变更数据捕获。 表已包含
保留的列 <columnList>
,
这些列将在内部用作表的更改数据馈送的元数据。 若要为
表上的更改数据馈送将重命名/删除这些列。
DELTA表已存在
表 <tableName>
已存在。
路径不支持的Hadoop配置的DELTA_TABLE
DeltaTable.forPath 目前仅支持以 <allowedPrefixes>
开头的 hadoop 配置键,但获取的键为 <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
<tableLocation>
处的 Delta 表已替换,但此命令使用的是该表。
表 ID 之前为 <oldId>
,但现在为 <newId>
。
请重试当前命令,确保它读取的是一致的表视图。
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
无法更新表重定向状态:尝试状态转换无效。
Delta 表<table>
无法从<oldState>
更改为<newState>
。
DELTA表无效的设置或取消重定向
无法对SET
上的属性 UNSET
或 <table>
重定向:当前属性 '<currentProperty>
' 与新属性 '<newProperty>
' 不匹配。
DELTA_TABLE_LOCATION_MISMATCH
现有表 <tableName>
的位置为 <existingTableLocation>
。 它与指定的位置 <tableLocation>
不匹配。
DELTA_TABLE_NOT_FOUND(未找到Delta表)
Delta 表 <tableName>
不存在。
DELTA表格在操作中不受支持
表在 <operation>
中不受支持。 请改用路径。
DELTA_TABLE_ONLY_OPERATION(仅限于Delta表的操作)
<tableName>
不是 Delta 表。
<operation>
仅支持用于 Delta 表。
DELTA_TABLE_未识别的重定向规范
Delta 日志包含无法识别的表重定向规范“<spec>
”。
最终目标表 Delta 架构为空
目标表最终架构为空。
增量时间戳大于提交时间
提供的时间戳 (<providedTimestamp>
) 晚于此
表 (<tableName>
) 可用的最新版本。 请使用早于或等于 <maximumTimestamp>
的时间戳。
DELTA_TIMESTAMP_INVALID
提供的时间戳 (<expr>
) 无法转换为有效时间戳。
增量时间旅行无效起始值
<timeTravelKey>
需是有效的开始值。
截断的增量事务日志
<path>
:由于手动删除或日志保留策略 (<version>
) 和检查点保留策略 (<logRetentionKey>=<logRetention>
) 导致事务日志被截断,无法在版本 <checkpointRetentionKey>=<checkpointRetention>
中重构状态
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED(不支持的表分区截断)
不允许操作:Delta 表上的 TRUNCATE TABLE
不支持分区谓词;使用 DELETE
删除特定的分区或行。
DELTA_UDF_IN_GENERATED_COLUMN
已找到 <udfExpr>
。 生成的列不能使用用户定义的函数
意外行动表达式_delta
意外的操作表达式 <expression>
。
意外的Delta分区列数来自文件名
需要 <expectedColsSize>
分区列 <expectedCols>
,但通过分析文件名 <parsedColsSize>
找到了 <parsedCols>
分区列 <path>
无预期的部分扫描异常
应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
需要分区列 <expectedCol>
,但通过分析文件名 <parsedCol>
找到了分区列 <path>
DELTA用户意外分区架构
用于调用CONVERT
TO DELTA
的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。
目录分区架构:
<catalogPartitionSchema>
提供的分区架构:
<userPartitionSchema>
DELTA_统一性_兼容性位置不能更改
无法更改 delta.universalFormat.compatibility.location。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location 未在目录中注册。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
统一兼容性格式的位置缺失或无效。 请为 delta.universalFormat.compatibility.location 设置空目录。
失败的原因:
有关更多详细信息,请参阅 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
具有 Delta Uniform 的 Read Iceberg 的失败。
有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
待命_均匀_入口_不明确_格式
发现多个 Delta Uniform 入口格式(<formats>
),最多只能设置一个。
不支持 DELTA_UNIFORM_INGRESS
不支持创建或刷新统一入口表。
DELTA_UNIFORM_入口不支持的格式
不支持格式 <fileFormat>
。 仅支持冰山和 hudi 作为原始文件格式。
三角形统一入口违规
读取 Delta Uniform 失败:
有关详细信息,请参阅DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
仅 Unity Catalog 表支持通用格式。
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE
参数无效:
有关详细信息 ,请参阅DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
标识符 SYNC UNIFORM
不受支持,原因如下:
有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
不支持具有元数据路径的托管冰山表进行DELTA统一刷新
托管的 Iceberg 表不支持具有 REFRESH TABLE
的 METADATA_PATH
DELTA_通用格式转换失败
未能将表版本 <version>
转换为通用格式 <format>
。 <message>
增量通用格式违规
通用格式 (<format>
) 验证失败:<violation>
DELTA_未知配置
指定了未知配置:<config>
未知权限DELTA
未知特权:<privilege>
DELTA_UNKNOWN_READ_LIMIT
未知 ReadLimit:<limit>
DELTA_未识别列变更
无法识别的列更改 <otherClass>
。 运行的 Delta Lake 版本可能已过时。
Δ_无法识别的不变量
无法识别的不变量。 请升级 Spark 版本。
DELTA_UNRECOGNIZED_LOGFILE
无法识别的日志文件 <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
尝试取消设置表 <property>
中不存在的属性“<tableName>
”
DELTA_不支持的绝对路径添加文件
<path>
不支持使用绝对路径添加文件
不支持 DELTA_ALTER_TABLE_CHANGE_COL_OP 操作
ALTER TABLE CHANGE COLUMN
不支持将列 <fieldPath>
从 <oldField>
更改为 <newField>
不支持DELTA修改表替换列的操作
不支持的 ALTER TABLE REPLACE COLUMNS
操作。 原因:<details>
无法将架构从
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
你尝试将现有表 (REPLACE
) <tableName>
为 CLONE
。 此操作
不受支持。 尝试使用其他 CLONE
目标位置或删除当前目标位置中的表。
DELTA_不支持的列映射模式更改
不支持将列映射模式从“<oldMode>
”更改为“<newMode>
”。
布隆过滤器索引列的不支持的列映射操作
无法对列 <opName>
执行列映射操作 <columnNames>
因为这些列包含布隆筛选索引。
如果你要对包含布隆筛选索引的列执行
列映射操作,
请先删除布隆筛选器索引:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
如果要删除表上的所有 Bloom 筛选器索引,请使用:
DROP BLOOMFILTER INDEX ON TABLE
表名
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL (DELTA不支持的列映射协议)
当前表协议版本不支持使用
使用 <config>
。
列映射所需的 Delta 协议版本:
<requiredVersion>
表的当前 Delta 协议版本:
<currentVersion>
<advice>
DELTA 不支持的列映射模式更改
检测到架构更改:
旧架构:
<oldTableSchema>
新架构:
<newTableSchema>
在更改列映射模式期间不允许更改架构。
不支持的列映射写入
不支持使用列映射模式写入数据。
DELTA_布隆过滤器中不支持的列类型
不支持在类型为 <dataType>
的列上创建 bloom 筛选器索引:<columnName>
DELTA_不支持的评论映射数组
无法向 <fieldPath>
添加注释。 不支持向映射键/值或数组元素添加注释。
DELTA_不支持的数据类型
发现有列使用不受支持的数据类型:<dataTypeList>
。 可以将“<config>
”设置为“false”以禁用类型检查。 禁用此类型检查后,用户可以创建不受支持的 Delta 表,并且仅应在尝试读取/写入旧表时使用此选项。
DELTA_在生成列中不支持的数据类型
<dataType>
不能是生成的列的结果
不支持DELTA深度克隆
此 Delta 版本不支持深度克隆。
DELTA_不支持的_详细视图描述
<view>
是视图。
DESCRIBE DETAIL
仅支持用于表。
不支持删除聚类列的DELTA
不允许删除群集列 (<columnList>
)。
DELTA_不支持的删除列
Delta 表不支持 DROP COLUMN
。 <advice>
DELTA_不支持从非结构类型删除嵌套列
只能从 StructType 中删除嵌套列。 已找到 <struct>
DELTA_不支持_删除分区列
不允许删除分区列 (<columnList>
)。
DELTA_UNSUPPORTED_EXPRESSION(不支持的表达式)
<expType>
不支持的表达式类型 (<causedBy>
)。 支持的类型为 [<supportedTypes>
]。
DELTA_不支持的表达式_生成列
无法在生成的列中使用 <expression>
不支持读取功能的DELTA
不支持的 Databricks 读取功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
不支持写入操作的DELTA功能
不支持的 Databricks 写入功能:表“<tableNameOrPath>
”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>
。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>
。
配置中的不支持功能
此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>
。
DELTA_不支持功能状态
预期表功能 <feature>
的状态是“supported”,但却是“<status>
”。
DELTA_不支持字段更新_非结构型
仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <columnName>
的 <dataType>
的字段。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS(不支持删除向量的文件系统一致性检查)
缺少删除向量文件的表版本不支持“FSCK REPAIR TABLE
”命令。
请联系客户支持。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
包含删除向量的表版本不支持“GENERATE
symlink_format_manifest”命令。
若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE
table APPLY (PURGE
)”。 然后,重新运行“GENERATE
”命令。
请确保没有并发事务再次在 REORG
和 GENERATE
之间添加删除向量。
如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE
表 SET TBLPROPERTIES
(delta.enableDeletionVectors = false)”禁用此表中的删除向量。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支持 StructType 以外的嵌套字段上的不变量。
DELTA_UNSUPPORTED_IN_SUBQUERY
<operation>
条件中不支持 In 子查询。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix 不可用
不支持的清单生成与列映射
利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。
DELTA_不支持带CDC的合并模式演变
带有架构演变的 MERGE INTO
操作目前不支持写入 CDC 输出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<operation>
条件中不支持多列 In 谓词。
DELTA_在布隆过滤器中不支持的嵌套列
目前不支持在嵌套列 <columnName>
上创建 bloom 筛选器索引
不支持的嵌套字段操作DELTA
<operation>
中不支持嵌套字段(字段 = <fieldName>
)。
不支持的非空克隆
克隆目标表不为空。 请在运行 TRUNCATE
前 DELETE FROM
或 CLONE
表。
不支持的输出模式
数据源 <dataSource>
不支持 <mode>
输出模式
DELTA_不支持的分区列在布隆过滤器中
不支持在分区列 <columnName>
上创建 bloom 筛选器索引
DELTA_UNSUPPORTED_RENAME_COLUMN(不支持重命名列)
Delta 表不支持列重命名。 <advice>
DELTA_读取过程中不支持的架构
Delta 不支持在读取时指定架构。
DELTA不支持在分桶表上排序
Delta Bucket 表不支持 SORTED BY
不支持的来源_DELTA
<operation>
目标仅支持 Delta 源。
<plan>
不支持的静态分区
目前在插入期间不支持在分区规格中指定静态分区
DELTA_UNSUPPORTED_STRATEGY_NAME
不支持的策略名称:<strategy>
不支持的子查询_DELTA
<operation>
(条件 = <cond>
)中不支持子查询。
DELTA_分区条件中不支持的子查询
分区谓词中不支持子查询。
DELTA_不支持的时间旅行多格式
无法以多种格式指定“按时间顺序查看”。
不支持时间旅行视图的DELTA
无法按时间顺序查看视图、子查询、流或更改数据馈送查询。
不支持截断示例表的DELTA操作
不支持截断示例表
不支持的模式类型更改_DELTA
由于应用了不支持的类型更改,无法对此表执行操作。 字段 <fieldName>
已从 <fromType>
更改为 <toType>
。
Delta_不支持Bloom过滤器索引列上的类型更改
无法更改列 <columnNames>
的数据类型
因为这些列包含布隆筛选索引。
如果要使用 Bloom Filter Index(es) 更改列的数据类型,
请先删除布隆筛选器索引:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
如果要删除表上的所有 Bloom 筛选器索引,请使用:
DROP BLOOMFILTER INDEX ON TABLE
表名
DELTA_不支持清理特定分区
清空 Delta 表时,请提供基本路径 (<baseDeltaPath>
)。 目前不支持清空特定分区。
DELTA不支持写入暂存表
表实现不支持写入操作:<tableName>
不支持协调器的写入操作
您正尝试对已向提交协调器 <coordinatorName>
注册的表执行写入操作。 但是,当前环境中不提供此协调器实现,而且不允许在没有协调器的情况下进行写入。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支持写入示例表
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
无法将 <fromCatalog>
强制转换为 <toCatalog>
。 所有嵌套列必须匹配。
DELTA_VACUUM_COPY_INTO_STATE_FAILED(状态复制失败)
数据文件上的 VACUUM
成功,但 COPY INTO
状态垃圾回收失败。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本 (<versionList>
) 不是连续的。
有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_违反约束条件_包含值
具有值的行违反了CHECK
约束 <constraintName> <expression>
:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
违反了表 <table>
的属性验证:
有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
不支持将增量写入视图
<viewIdentifier>
是视图。 不能将数据写入视图。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
数据架构中不存在 Z 排序列 <columnName>
。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
<cols>
上的 Z 排序将
无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的
<link>
有关数据跳过和 Z 排序的详细信息。 可以通过
设置“%%sql set = false”
'%%sql 设置 <zorderColStatKey>
= 假'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
是分区列。 只能对数据列执行 Z 排序
增量共享
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST(Delta共享激活随机值不存在)
SQLSTATE:未分配
找不到激活 nonce。 使用的激活链接无效或已过期。 重新生成激活链接,然后重试。
增量共享_跨区域共享_不支持
SQLSTATE:未分配
不支持在 <regionHint>
区域和其外部的区域外部共享。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT (获取接收者属性无效依赖项错误)
SQLSTATE:未分配
使用 current_recipient
函数定义的视图仅用于共享,只能从数据接收方查询。 提供的具有 ID <securableId>
的安全对象不是增量共享视图。
不支持DELTA共享可变安全类型
SQLSTATE:未分配
提供的安全对象类型 <securableKind>
在增量共享中不支持可变性。
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE:未分配
提供的安全对象类型 <securableKind>
不支持轮换商城服务发起的令牌操作。
DS_认证类型不可用
SQLSTATE:未分配
<dsError>
:在提供程序实体 <providerEntity>
中不可用的身份验证类型。
DS_CDF_未启用
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 在版本 <version>
中,CDF 未在原始 Delta 表上启用。 请联系你的数据提供程序。
DS_CDF_NOT_SHARED
SQLSTATE:未分配
<dsError>
:无法访问 <tableName>
的更改数据馈送。 CDF 不在表上共享。 请联系你的数据提供程序。
DS_CDF_RPC_INVALID_PARAMETER (参数无效)
SQLSTATE:未分配
<dsError>
:<message>
数据库 DS 服务器的客户端授权错误 (DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER)
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE:未分配
<dsError>
:<message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE:未分配
<dsError>
:<message>
DS_云服务提供商不可用
SQLSTATE:未分配
<dsError>
:云供应商暂时不可用于 <rpcName>
,请重试。<traceId>
DS_DATA_物化命令失败
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行 <orgId>
的数据具体化任务在命令 <command>
中失败
DS数据物化命令不支持
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行 <orgId>
的数据具体化任务不支持命令 <command>
DS_数据物化不支持没有无服务器功能。
SQLSTATE:未分配
<dsError>
:<featureName>
不支持,因为在提供程序工作区中不支持或未启用无服务器功能。 请联系您的数据供应商以启用无服务器架构。
DS_DATA_MATERIALIZATION_无效命名空间
SQLSTATE:未分配
<dsError>
:找不到用于创建 <tableName>
具体化的有效命名空间。 请联系数据提供程序修复此问题。
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE:未分配
<dsError>
:从组织 <runId>
运行 <orgId>
的数据具体化任务不存在
DS_DELTA_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE:未分配
<dsError>
:找不到检查点版本的所有组成部分文件:<version>
。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE:未分配
<dsError>
:<message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
令牌过期,未经授权访问市场
SQLSTATE:未分配
<dsError>
:提供的安全对象类型 <securableKind>
不支持使商城服务发起的令牌操作过期。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER(请求打开DS服务器失败)
SQLSTATE:未分配
<dsError>
:<message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE:未分配
<dsError>
:仅为 Databricks 到 Databricks Delta Sharing 启用了 <feature>
。
DS_文件列表异常
SQLSTATE:未分配
<dsError>
:<storage>
:<message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE:未分配
<dsError>
:<message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE:未分配
<dsError>
:<message>
DS_HADOOP_CONFIG_NOT_SET(Hadoop配置未设置)
SQLSTATE:未分配
<dsError>
:<key>
不是调用方设置的。
DS_ILLEGAL_STATE
SQLSTATE:未分配
<dsError>
:<message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE:未分配
<dsError>
:<message>
DS_无效的_AZURE_路径
SQLSTATE:未分配
<dsError>
:无效的 Azure 路径:<path>
。
DS_INVALID_DELTA_ACTION_OPERATION (无效的delta操作动作)
SQLSTATE:未分配
<dsError>
:<message>
DS_无效字段
SQLSTATE:未分配
<dsError>
:<message>
DS_无效迭代器操作
SQLSTATE:未分配
<dsError>
:<message>
DS_INVALID_PARTITION_SPEC
SQLSTATE:未分配
<dsError>
:<message>
从DS服务器收到无效响应
SQLSTATE:未分配
<dsError>
:<message>
DS_物化查询失败
SQLSTATE:未分配
<dsError>
:<schema>
的查询失败。共享 <table>
中的 <share>
。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE:未分配
<dsError>
:<schema>
的查询超时。共享中的 <table>
在 <share>
秒后 <timeoutInSec>
。
DS_MISSING_IDEMPOTENCY_KEY (缺少幂等性密钥)
SQLSTATE:未分配
<dsError>
:查询 <schema>
时需要幂等密钥。共享中的 <table>
异步 <share>
。
DS_多个RPC参数集
SQLSTATE:未分配
<dsError>
:请仅提供以下项之一:<parameters>
。
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,网络连接已关闭<errorCause>
,请重试。<traceId>
网络连接超时 (DS_NETWORK_CONNECTION_TIMEOUT)
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,<errorCause>
的网络连接超时,请重试。<traceId>
DS_网络错误
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,<errorCause>
发生网络错误,请重试。<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE:未分配
<dsError>
:未为当前工作区分配元存储(workspaceId:<workspaceId>
)。
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED(工作负载标识令牌生成失败)
SQLSTATE:未分配
<dsError>
:为 O2D OIDC 提供程序生成工作负载标识令牌失败:<message>
。
分页与查询参数不匹配
SQLSTATE:未分配
<dsError>
:分页或查询参数不匹配。
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE:未分配
<dsError>
:共享表上重命名的分区列 [<renamedColumns>
]。 请联系数据提供程序修复此问题。
查询开始版本之前
SQLSTATE:未分配
<dsError>
:只能查询自版本 <startVersion>
以来的表数据。
最新版本后版本的DS查询结束
SQLSTATE:未分配
<dsError>
:提供的用于读取数据的终止版本(<endVersion>
)无效。 结束版本不能大于表的最新版本(<latestVersion>
)。
查询开始版本在最新版本之后
SQLSTATE:未分配
<dsError>
:提供的读取数据的起始版本(<startVersion>
)无效。 起始版本不能大于表的最新版本(<latestVersion>
)。
DS_查询超时_服务器上
SQLSTATE:未分配
<dsError>
:在 <queryType>
次迭代中进行 <tableName>
此更新后,在处理 <numActions>
上的 <numIter>
时发生超时。<progressUpdate> <suggestion> <traceId>
DS服务器上的速率限制
SQLSTATE:未分配
<dsError>
:<message>
DS_RECIPIENT_RPC_INVALID_PARAMETER(无效参数)
SQLSTATE:未分配
<dsError>
:<message>
DS资源已存在于DS服务器上 (DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER)
SQLSTATE:未分配
<dsError>
:<message>
DS_RESOURCE_EXHAUSTED (资源耗尽)
SQLSTATE:未分配
<dsError>
:<resource>
超出限制:[<limitSize>
]<suggestion>
。<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER (DS服务器上未找到资源)
SQLSTATE:未分配
<dsError>
:<message>
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE:未分配
<dsError>
:目录 <catalogName>
已包含在共享 <shareName>
中找到的架构名称。
<description>
的冲突架构名称:<schemaNamesInCommon>
。
DS_SERVER_TIMEOUT
SQLSTATE:未分配
<dsError>
:由于<rpcName>
,<errorCause>
的服务器超时,请重试。<traceId>
DS共享已挂载到目录
SQLSTATE:未分配
<dsError>
:来自提供程序<shareName>
的共享<providerName>
已装载到目录<catalogName>
。
DS_系统_工作区_组_权限_不支持
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
时光旅行不被允许
SQLSTATE:未分配
<dsError>
:除非在 <tableName>
上共享历史记录,否则不允许进行时间旅行查询。 请联系你的数据提供程序。
未授权
SQLSTATE:未分配
<dsError>
:未授权。
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE:未分配
<dsError>
:未授权的 D2O OIDC 收件人:<message>
。
DS_未知异常
SQLSTATE:未分配
<dsError>
:<traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE:未分配
<dsError>
:<queryID>
的未知查询 ID <schema>
。共享 <table>
中的 <share>
。
数据源未知查询状态
SQLSTATE:未分配
<dsError>
:<queryID>
的查询 ID <schema>
的未知查询状态。共享 <table>
中的 <share>
。
DS_UNKNOWN_RPC
SQLSTATE:未分配
<dsError>
:未知 rpc <rpcName>
。
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE:未分配
<dsError>
:增量协议读取器版本 <tableReaderVersion>
高于 <supportedReaderVersion>
,在增量共享服务器中不能受到支持。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES (不支持的 Delta 表功能)
SQLSTATE:未分配
<dsError>
:在表 <tableFeatures>
中找到表功能 <versionStr> <historySharingStatusStr> <optionStr>
不支持的操作
SQLSTATE:未分配
<dsError>
:<message>
不支持的存储方案
SQLSTATE:未分配
<dsError>
:不支持的存储架构:<scheme>
。
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE:未分配
<dsError>
:无法检索 <schema>
。共享 <table>
中的 <share>
,因为具有类型 [<tableType>
] 的表目前在增量共享协议中不受支持。
DS_UNSUPPORTED_TABLE_TYPE_FOR_VERSION_QUERY
SQLSTATE:未分配
<dsError>
:<schema>
。
<table>
from Share <share>
是一种不支持版本查询的 <tableType>
。
DS_USER_CONTEXT_ERROR
SQLSTATE:未分配
<dsError>
:<message>
不允许共享视图功能
SQLSTATE:未分配
<dsError>
:视图共享查询中不允许使用以下函数:<functions>
。
DS 工作空间域未设置
SQLSTATE:未分配
<dsError>
:未设置工作区 <workspaceId>
域。
DS_工作空间_未找到
SQLSTATE:未分配
<dsError>
:未找到工作区 <workspaceId>
。
自动换带机
不支持添加新项
指定了架构时不支持架构演变模式 <addNewColumnsMode>
。 若要使用此模式,可以通过 cloudFiles.schemaHints
提供架构。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
找到了(默认)目录列表模式的通知设置
身份验证选项:
<options>
如果要使用文件通知模式,请显式设置:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
如果要跳过选项验证步骤并忽略这些
身份验证选项,也可以设置:
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量列表模式 (cloudFiles.<useIncrementalListingKey>
)
和文件通知 (cloudFiles.<useNotificationsKey>
)
已同时启用。
请确保仅选择一个。
CF_AZURE_认证缺少选项
请提供 Databricks 服务凭据,或者同时提供 clientId 和 clientSecret,以便通过 Azure 进行身份验证。
CF_AZURE_认证多选项
提供 Databricks 服务凭据时,不应提供其他凭据选项(例如 clientId、clientSecret 或 connectionString)。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH(CF桶不匹配)
文件事件 <storeType>
中的 <fileEvent>
与源 <source>
所预期的不同。
CF_无法演变_架构_日志_为空
架构日志为空时无法演变架构。 架构日志位置:<logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
无法分析以下队列消息:<message>
无法解析容器名称 (CF_CANNOT_RESOLVE_CONTAINER_NAME)
无法从路径 <path>
解析容器名称,解析的 URI 为 <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING(无法运行目录列表)
当有异步回填线程在运行时,无法运行目录列表
CF_CLEAN_SOURCE_允许_覆盖_两者_启用
无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
源未授权写入权限 (CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION)
自动加载程序无法删除已处理的文件,因为它对源目录没有写入权限。
<reason>
若要修复,可以执行以下操作之一:
授予对源目录的写入权限,或
将 cleanSource 设置为“OFF”
还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。
CF_重复数据中的列
尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请显式地通过 .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}"
) 提供分区列。
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
输入路径 <path>
为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。
CF_EVENT_GRID_AUTH_ERROR
无法创建事件网格订阅。 请确保服务
主体具有 <permissionType>
事件网格订阅。 有关详细信息,请参阅:
<docLink>
CF_EVENT_GRID_CREATION_FAILED (事件网格创建失败)
无法创建事件网格订阅。 请确保 Microsoft.EventGrid
在订阅中注册为资源提供程序。 有关详细信息,请参阅:
<docLink>
CF_EVENT_GRID_未找到错误
无法创建事件网格订阅。 请确保存储
帐户 (<storageAccount>
) 位于资源组 (<resourceGroup>
) 的下面,并且
存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:
<docLink>
不支持 CF_EVENT_NOTIFICATION 事件通知
<cloudStore>
不支持自动加载程序事件通知模式。
CF_无法检查新流
无法检查流是否为新流
CF_创建_PUBSUB_订阅_失败
无法创建订阅 <subscriptionName>
。 已存在同名订阅,并与另一个主题 <otherTopicName>
相关联。 所需主题为 <proposedTopicName>
。 要么删除现有订阅,要么创建采用新资源后缀的订阅。
CF_创建PubSub主题失败
无法创建主题 <topicName>
。 已存在同名的主题。
<reason>
请删除现有主题或使用其他资源后缀重试
CF_无法删除_GCP_通知
未能删除主题 <notificationId>
的存储桶 <bucketName>
上 ID 为 <topicName>
的通知。 请重试或通过 GCP Console 手动删除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
无法从字符串反序列化持久化架构:“<jsonSchema>
”
无法演变架构
无法在没有架构日志的情况下演变架构。
CF_FAILED_TO_FIND_PROVIDER(无法找到提供程序)
找不到 <fileFormatInput>
的提供程序
无法推断架构
无法从输入路径 <fileFormatInput>
中的现有文件推断 <path>
格式的架构。
有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
无法写入位于 <path>
的架构日志。
CF_FILE_FORMAT_REQUIRED (文件格式要求)
无法找到所需选项:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
发现主题 <num>
有多个(<topicName>
个)订阅使用自动加载程序前缀:
<subscriptionList>
每个主题只能有一个订阅。 请手动确保主题没有多个订阅。
CF_GCP_认证
请提供以下所有凭据:<clientEmail>
、<client>
、
<privateKey>
和 <privateKeyId>
,或提供使用 Databricks 服务凭据的 <serviceCredential>
。
或者,请提供它们中的一个,以便使用默认的 GCP 凭据提供程序链对 GCP 资源进行身份验证。
CF_GCP_标签数量超出限制
收到太多 GCP 资源的标签(<num>
个)。 每项资源的最大标签计数为 <maxNum>
。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED(已超出GCP资源标签数量限制)
收到太多 GCP 资源的资源标记(<num>
个)。 每项资源的最大资源标记计数为 <maxNum>
,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
路径 <path>
上的架构日志中的日志文件不完整
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自动加载程序检查点中的元数据文件不完整
批处理使用错误
CloudFiles 是流式处理源。 请使用 spark.readStream,而不是 spark.read。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
SQL参数错误
cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>
CF_INCORRECT_STREAM_USAGE
若要使用“cloudFiles”作为流式处理源,请使用“cloudFiles.format”选项提供文件格式,并使用 .load() 创建 DataFrame。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled>
设置为 false。
CF_INTERNAL_ERROR
内部错误。
有关更多详细信息,请参阅 CF_INTERNAL_ERROR
CF_INVALID_ARN
无效 ARN:<arn>
CF_无效的Azure证书
无法分析随选项 cloudFiles.certificate 提供的私钥。 请提供 PEM 格式的有效公钥。
CF_INVALID_AZURE_CERT_PRIVATE_KEY(无效的 Azure 证书私钥)
无法分析随选项 cloudFiles.certificatePrivateKey 提供的私钥。 请提供 PEM 格式的有效私钥。
CF_无效检查点
此检查点不是有效的 CloudFiles 源
CF_INVALID_CLEAN_SOURCE_MODE(无效的清理源模式)
清理源选项 <value>
的模式无效。
CF_INVALID_GCP_RESOURCE_TAG_KEY (无效的GCP资源标签键)
GCP 资源的资源标记密钥 <key>
无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_GCP资源标签值不正确
GCP 资源的资源标记值 <value>
无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
自动加载程序与托管文件事件一起使用时,不支持以下选项:
<optionList>
建议删除这些选项,然后重启流。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
来自托管文件事件服务的响应无效。 请联系 Databricks 支持人员获取帮助。
有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_无效的模式演化模式
cloudFiles。
<schemaEvolutionModeKey>
必须是以下项之一
“<addNewColumns>
”
“<failOnNewColumns>
”
“<rescue>
”
“<noEvolution>
”
CF_INVALID_SCHEMA_HINTS_OPTION
架构提示只能指定特定列一次。
在这种情况下,请在架构提示中多次重新定义列:<columnName>
多次重新定义列
<schemaHints>
CF_无效的架构提示列
架构提示无法用于覆盖映射和数组的嵌套类型。
有冲突的列:<columnName>
CF_最新的偏移读取限制需要
应在此源上使用 ReadLimit 调用 latestOffset。
CF 日志文件格式错误
日志文件格式不正确:无法从 <fileName>
中读取正确的日志版本。
CF_托管文件事件正在填充中
已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在托管文件事件服务发现外部位置的所有文件后重试。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>
”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。
CF 管理文件事件终端权限被拒绝
你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>
”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
只能在 Databricks 无服务器版本上使用托管文件事件的自动加载程序。 若要继续,请将此工作负载移动到 Databricks 无服务器版本或关闭 cloudFiles.useManagedFileEvents 选项。
CF_MAX必须为正数
最大值必须为正数
CF_METADATA_FILE_同时使用
多个流式处理查询在同时使用 <metadataFile>
CF_丢失元数据文件错误
流式处理源检查点目录中的元数据文件丢失。 此元数据
文件包含流的重要默认选项,因此流无法立即
重启。 请联系 Databricks 支持人员获取帮助。
CF_缺少分区列错误
提供的架构中不存在分区列 <columnName>
:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在存储桶 <topicName>
上发现主题 <bucketName>
的现有通知:
通知,身份标识
<notificationList>
若要避免意外事件污染订阅服务器,请删除上述通知并重试。
CF_新分区错误
从文件中推断出新的分区列:[<filesList>
]。 请提供架构中的所有分区列,或者提供想要使用 :.option(“cloudFiles.partitionColumns”) 提取值的分区列列表。 "{comma-separated-list|empty-string}"
CF_PARTITON_INFERENCE_ERROR
尝试推断当前文件批次的分区架构时出错。 请通过使用 .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}"
) 来明确提供分区列。
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES (读取文件的路径不存在)
当输入路径 <path>
不存在时无法读取文件。 请确保该输入路径存在,然后重试。
CF_周期性回填不支持
如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing
设置为 true 来启用异步回填/目录列表
CF_PREFIX_MISMATCH
找到不匹配的事件:密钥 <key>
没有前缀:<prefix>
协议不匹配错误
<message>
如果无需对代码进行任何其他更改,请设置 SQL
配置:“<sourceProtocolVersionKey> = <value>
”
以恢复流。 请参阅:
<docLink>
以获取更多详细信息。
CF_REGION_NOT_FOUND_ERROR
无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。
CF_RESOURCE_SUFFIX_EMPTY
无法创建通知服务:资源后缀不能为空。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP (谷歌云平台资源后缀无效字符)
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>
)。
CF_RESOURCE_SUFFIX_LIMIT
无法创建通知服务:资源后缀不能超过 <limit>
个字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP
无法创建通知服务:资源后缀的字符数介于 <lowerLimit>
和 <upperLimit>
之间。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY(受限的GCP资源标签键)
找到受限的 GCP 资源标记密钥 (<key>
)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
无法为前缀为 <topic>
的主题 <prefix>
创建通知。 已经有一个具有相同名称且前缀为 <oldPrefix>
的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
无法从源架构日志克隆和迁移任何架构日志条目。
CF_SFTP_缺少密码或密钥文件
必须为 SFTP 指定密码或密钥文件。
请在源 URI 中或通过 <passwordOption>
指定密码,或通过 <keyFileOption>
指定密钥文件内容。
CF_SFTP_NOT_ENABLED (SFTP功能未启用)
未启用访问 SFTP 文件。 请联系 Databricks 支持人员获取帮助。
CF_SFTP_REQUIRE_UC_CLUSTER
访问 SFTP 文件需要启用 UC 的群集。 请联系 Databricks 支持人员获取帮助。
CF_SFTP_USERNAME_NOT_FOUND
必须为 SFTP 指定用户名。
请在源 URI 中或通过 <option>
提供用户名。
需要CF源目录路径
请提供带有选项 path
的源目录路径
CF来源不被支持
云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_STATE_INCORRECT_SQL_PARAMS(SQL参数不正确状态)
cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及表示要为其加载状态的检查点版本的可选第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>
CF_STATE_INVALID_CHECKPOINT_PATH(无效的检查点路径)
输入检查点路径 <path>
无效。 路径不存在,或者找不到 cloud_files 源。
CF_STATE_版本无效
指定的版本 <version>
不存在,或在分析期间已删除。
CF_THREAD_IS_DEAD
<threadName>
线程终止。
The error message itself is likely better kept in English due to its technical specificity, but if necessary to provide a more accessible presentation for the audience, a possible translation or explanation could be: "无法导出流检查点位置的错误代码" (Unable to derive stream checkpoint location error code).
无法从源检查点位置派生流检查点位置:<checkPointLocation>
CF_无法检测文件格式
无法在 <fileSize>
采样文件中检测源文件格式,找到了 <formats>
。 请指定格式。
CF_无法提取存储桶信息
无法提取存储桶信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
CF_UNABLE_TO_EXTRACT_KEY_INFO(无法提取关键信息)
无法提取密钥信息。 路径:“<path>
”,解析的 URI:“<uri>
”。
无法提取存储账户信息
无法提取存储帐户信息。路径:“<path>
”,解析的 URI:“<uri>
”
CF_无法有效列出
已收到路径 <path>
的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。
CF_UNEXPECTED_READ_LIMIT
意外的 ReadLimit:<readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知选项密钥:
<optionList>
请确保所有提供的选项密钥都正确。 如果要跳过
选项验证步骤并忽略这些未知选项,你可以设置:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT(未知读取限制)
未知 ReadLimit:<readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION (不支持的云文件SQL函数)
SQL 函数“cloud_files”仅在 DLT 管道中支持创建自动加载器的流式处理源。 有关详细信息,请参阅:
<docLink>
不支持格式以进行模式推断
格式 <format>
不支持架构推理。 请指定架构。
CF_不支持的日志版本
UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>
,但遇到的是 v<version>
。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE不支持的模式进化方案
格式 <mode>
不支持架构演变模式 <format>
。 请将架构演变模式设置为“none”。
CF_USE_DELTA_FORMAT
此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (<deltaDocLink>
),或读取 Delta 表作为流源 (<streamDeltaDocLink>
)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。
地理空间
EWKB_PARSE_ERROR
分析 EWKB 时出错:<parseError>
位置处的 <pos>
GEOJSON_PARSE_ERROR
分析 GeoJSON 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
不是有效的 H3 单元格 ID
有关更多详细信息,请参阅 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 网格距离 <k>
必须为非负数
有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 分辨率 <r>
必须介于 <minR>
和 <maxR>
(含)之间
有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
被禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层
有关更多详细信息,请参阅 H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
计算网格距离为 <h3Cell>
的 <k>
的六边形环时出现五边形
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1>
和 <h3Cell2>
之间的 H3 网格距离未定义
ST_DIFFERENT_SRID_VALUES
“<sqlFunction>
”的参数必须具有相同的 SRID 值。 找到 SRID 值:<srid1>
、<srid2>
ST_无效参数
"<sqlFunction>
":<reason>
ST_参数类型无效
“<sqlFunction>
”的参数必须为 <validTypes>
类型
ST_INVALID_CRS_TRANSFORMATION_ERROR (坐标参考系统转换错误无效)
<sqlFunction>
:从 SRID <srcSrid>
到 SRID <trgSrid>
的 CRS 转换无效或不受支持
ST_INVALID_ENDIANNESS_VALUE
Endianness“<e>
”必须是“NDR”(little-endian) 或“XDR”(big-endian)
ST_INVALID_GEOHASH_VALUE (地理哈希值无效)
<sqlFunction>
:无效的 geohash 值:“<geohash>
”。 Geohash 值必须是有效的小写 base32 字符串。
ST_INVALID_INDEX_VALUE
<sqlFunction>
:提供的地理空间值的索引 <index>
无效。
ST_INVALID_PRECISION_VALUE(无效的精度值)
精度 <p>
必须介于 <minP>
和 <maxP>
(含)之间
ST_INVALID_SRID_VALUE (无效的SRID值)
SRID <srid>
无效或不受支持
ST_未启用
<stExpression>
被禁用或不受支持。 请考虑启用 Photon 或切换到支持 ST 表达式的层
ST_不支持的返回类型
无法在查询中返回 GEOGRAPHY
和 GEOMETRY
数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>
。
WKB_PARSE_ERROR
分析 WKB 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 WKB_PARSE_ERROR
WKT_PARSE_ERROR
分析 WKT 时出错:<parseError>
位置处的 <pos>
有关更多详细信息,请参阅 WKT_PARSE_ERROR
统一目录
列名冲突错误
列 <columnName>
与同名但不包含尾随空格的另一列冲突(例如,名为 <columnName>
现有列)。 请使用其他名称重命名列。
不支持在线表连接的连接凭据
SQLSTATE:未分配
获取类型 <connectionType>
的连接的连接级别凭证的请求无效。 此类凭证仅适用于托管 PostgreSQL 连接。
连接类型未启用
SQLSTATE:未分配
连接类型“<connectionType>
”未启用。 请启用连接以使用它。
DELTA_SHARING_READ_ONLY_接收者存在
SQLSTATE:未分配
已存在具有相同共享标识符“<existingRecipientName>
”的收件人对象“<existingMetastoreId>
”。
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE:未分配
增量共享安全对象类型的 <securableKindName>
数据是只读的,不能创建、修改或删除。
元存储上的外部访问已禁用
SQLSTATE:未分配
由于为元存储 <metastoreName>
禁用了外部数据访问,非 Databricks 计算环境拒绝凭证销售。 请联系元存储管理员,以在元存储上启用“外部数据访问”配置。
不允许外部访问该表
SQLSTATE:未分配
由于表的类型为 <tableId>
,无法从 Databricks 计算环境外部访问具有 ID <securableKind>
的表。 只能从外部访问“TABLE_EXTERNAL
”、“TABLE_DELTA_EXTERNAL
”和“TABLE_DELTA
”表类型。
外部使用模式分配给错误的可保护类型
SQLSTATE:未分配
特权 EXTERNAL
USE SCHEMA
不适用于此实体 <assignedSecurableType>
,只能分配给架构或目录。 请从 <assignedSecurableType>
对象中删除该权限,并改为将其分配给架构或目录。
不允许对表进行外部写入
SQLSTATE:未分配
由于表的类型为 <tableId>
,无法从 Databricks 计算环境外部写入具有 ID <securableKind>
的表。 只能从外部写入“TABLE_EXTERNAL
”和“TABLE_DELTA_EXTERNAL
”表类型。
外部目录存储根必须支持写入
SQLSTATE:未分配
类型为 <catalogType>
的外部目录的存储位置将用于卸载数据,不能是只读的。
HMS_可保护的重叠限制已超出
SQLSTATE:未分配
输入路径 <resourceType>
的 <url>
的数量超过了重叠 HMS <overlapLimit>
的允许限制 (<resourceType>
)。
无效的资源名称_DELTA_共享
SQLSTATE:未分配
不支持使用资源名进行增量共享请求
无效资源名称实体类型
SQLSTATE:未分配
提供的资源名称引用实体类型 <provided>
,但预期的是 <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE:未分配
提供的资源名称引用不在当前请求范围内的元存储
位置重叠
SQLSTATE:未分配
输入路径 URL“<path>
”与“<overlappingLocation>
”调用内的 <caller>
重叠。
<conflictingSummary>
。 <permissionErrorSuggestion>
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
SQLSTATE:未分配
不允许创建或更新 MongoDB 连接,因为 MongoDB SRV 连接字符串不需要端口。
请删除端口,因为 SRV 连接字符串不需要端口。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE:未分配
Redshift 外部目录的存储根必须是 AWS S3。
安全类型不支持湖仓联合
SQLSTATE:未分配
类型为 <securableKind>
的安全对象不支持 Lakehouse 联合身份验证。
可保护类型未启用
SQLSTATE:未分配
未启用安全对象类型“<securableKind>
”。 如果这是与预览功能关联的安全对象类型,请在工作区设置中启用它。
不支持湖仓联邦的安全类型
SQLSTATE:未分配
类型为 <securableType>
的安全对象不支持 Lakehouse 联合身份验证。
源表列数超过限制
SQLSTATE:未分配
源表包含的列数多于 <columnCount>
。 请将列数减少到 <columnLimitation>
或以下。
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
SQLSTATE:未分配
交换的 AAD 令牌生存期为 <lifetime>
,配置的太短。 请检查 Azure AD 设置,确保临时访问令牌至少具有一小时生存期。 https://docs.azure.cn/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_评估错误
SQLSTATE:未分配
评估 <resource>
上的 ABAC 策略时出错。
UC_AUTHZ_操作不支持
SQLSTATE:未分配
不支持授权 <actionName>
;请检查是否已为此资源类型实现了 RPC 调用
UC_内建_HMS_连接创建权限被拒绝
SQLSTATE:未分配
无法为内置 hive 元存储创建连接,因为用户 <userId>
不是工作区的管理员:<workspaceId>
UC_内置_HMS_连接_修改_受限_字段
SQLSTATE:未分配
尝试修改内置的 HMS 连接“<connectionName>
”中的受限字段。 只能更新“warehouse_directory”。
无法重命名分区过滤列
SQLSTATE:未分配
无法重命名表列 <originalLogicalColumn>
,因为它用于 <sharedTableName>
中的分区筛选。 若要继续操作,可以从共享中删除表,重命名列,然后再次与所需的分区筛选列共享它。 不过,这可能会中断收件人的流式处理查询。
UC 子创建禁止非 UC 集群
SQLSTATE:未分配
无法在 <securableType>
“<securable>
”下创建 <parentSecurableType>
“<parentSecurable>
”,因为请求不是来自 UC 群集。
UC_云存储访问失败
SQLSTATE:未分配
无法访问云存储:<errMsg>
exceptionTraceId=<exceptionTraceId>
连接选项冲突 (UC_CONFLICTING_CONNECTION_OPTIONS)
SQLSTATE:未分配
无法同时使用用户名/密码和 oauth 身份验证选项创建连接。 请选择一个。
凭证已存在 UC 连接
SQLSTATE:未分配
凭证“<credentialName>
”具有一个或多个依赖连接。 可以使用强制选项继续更新或删除凭证,但使用此凭证的连接可能不再有效。
连接过期访问令牌
SQLSTATE:未分配
与连接关联的访问令牌已过期。 请更新连接以重启 OAuth 流以检索令牌。
UC_连接已过期_刷新令牌
SQLSTATE:未分配
与连接关联的刷新令牌已过期。 请更新连接以重启 OAuth 流,检索新的令牌。
UC_CONNECTION_IN_FAILED_STATE
SQLSTATE:未分配
连接处于 FAILED
状态。 请使用有效的凭证更新连接以重新激活连接。
UC连接缺少刷新令牌
SQLSTATE:未分配
没有与连接关联的刷新令牌。 请更新标识提供者中的 OAuth 客户端集成以返回刷新令牌,并更新或重新创建连接以重启 OAuth 流并检索所需的令牌。
UC_连接_OAUTH_交换_失败
SQLSTATE:未分配
OAuth 令牌交换失败,并显示 HTTP 状态代码 <httpStatus>
。 返回的服务器响应或异常消息为:<response>
UC_联合提交_未启用
SQLSTATE:未分配
未启用对协调提交的支持。 请联系 Databricks 支持人员。
不活动安全对象下禁止创建
SQLSTATE:未分配
无法创建 <securableType>
“<securableName>
”,因为它位于不活动的 <parentSecurableType>
“<parentSecurableName>
”。 请删除父级安全对象并重新创建父级。
UC_凭据_访问_连接器_解析失败
SQLSTATE:未分配
未能分析提供的访问连接器 ID:<accessConnectorId>
。 请验证其格式设置并重试。
凭证无法获取验证令牌失败
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
UC_凭证_无效_云权限
SQLSTATE:未分配
注册凭证需要具有 ID <accessConnectorId>
的相应访问连接器上的参与者角色。 请联系帐户管理员。
证书无效,类型与用途不符
SQLSTATE:未分配
出于目的“<credentialType>
”,不支持凭证类型“<credentialPurpose>
”
UC_凭证权限被拒绝
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的凭证。
UC凭证信任策略是开放的
SQLSTATE:未分配
用于允许 Databricks 帐户承担角色的 IAM 角色的信任策略应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范混淆代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
UC_CREDENTIAL_不支持无特权的服务主体
SQLSTATE:未分配
服务主体不能使用 CREATE_STORAGE_CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持以非帐户管理员身份创建或更新凭证。 请改用工作区级 API。
UC_DBR_信任版本过旧
SQLSTATE:未分配
正在使用的 Databricks Runtime 不再支持此操作。 请使用最新版本(可能需要重启群集)。
UC_DELTA_通用格式无法解析_ICEBERG_VERSION
SQLSTATE:未分配
无法从元数据位置 <metadataLocation>
分析 Iceberg 表版本。
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE:未分配
检测到对同一 iceberg 元数据版本的并发更新。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION - 通用格式的元数据位置无效
SQLSTATE:未分配
提交的元数据位置 <metadataLocation>
无效。 它不是表根目录 <tableRoot>
的子目录。
UC_增量_通用格式_字段缺失约束
SQLSTATE:未分配
提供的增量 iceberg 格式转换信息缺少必填字段。
UC_增量_通用_格式_不可创建_约束
SQLSTATE:未分配
不支持在创建时设置增量 iceberg 格式信息。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT(通用格式过大限制)
SQLSTATE:未分配
提供的增量 iceberg 格式转换信息太大。
UC_DELTA_通用格式更新无效
SQLSTATE:未分配
只能在启用了统一的增量表上更新统一元数据。
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
SQLSTATE:未分配
<resourceType>
“<ref>
”深度超过限制(或具有循环引用)。
UC_依赖不存在
SQLSTATE:未分配
<resourceType>
“<ref>
”无效,因为其中一个基础资源不存在。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED (依赖项权限被拒绝)
SQLSTATE:未分配
<resourceType>
“<ref>
”没有足够的权限执行,因为其中一个基础资源的所有者未能通过授权检查。 <cause>
重复连接 (UC_DUPLICATE_CONNECTION)
SQLSTATE:未分配
已存在具有相同 URL 的名为“'”<connectionName>
的连接。 请要求所有者使用该连接的权限,而不是创建重复连接。
面料目录重复创建
SQLSTATE:未分配
尝试创建 URL 为“<storageLocation>
”的 Fabric 目录,该目录与现有目录匹配,这是不允许的。
标签分配创建重复
SQLSTATE:未分配
标记键为 <tagKey>
的标记分配已存在
UC实体不存在对应的在线集群
SQLSTATE:未分配
实体 <securableType> <entityId>
不具有相应的联机群集。
UC_ERROR_CODE_XWYEY
SQLSTATE:未分配
如果此问题仍然存在,请联系带有错误代码为 UC-XWYEY
的 Databricks 支持部门。
超过最大文件限制
SQLSTATE:未分配
文件多于 <maxFileResults>
个。 请指定 [max_results] 以限制返回的文件数。
UC_外部位置操作不允许
SQLSTATE:未分配
无法 <opName> <extLoc> <reason>
。
<suggestion>
。
UC_功能已禁用
SQLSTATE:未分配
<featureName>
当前在 UC 中处于禁用状态。
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
SQLSTATE:未分配
不支持为连接类型“<connectionType>
”创建外部目录。 此连接类型只能用于创建托管引入管道。 有关详细信息,请参阅 Databricks 文档。
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
SQLSTATE:未分配
只能检索外表的 READ 凭证。
UC_外国_HMS_浅层克隆不匹配
SQLSTATE:未分配
基表和克隆表必须在同一个目录中,这样才能在外部 Hive 元存储目录中创建浅克隆表。 基表“”位于目录“<baseTableName>
<baseCatalogName>
中,克隆表”<cloneTableName>
“位于目录”“<cloneCatalogName>
中。
外键子列长度不匹配
SQLSTATE:未分配
外键 <constraintName>
子列和父列的大小不同。
UC_FOREIGN_KEY_COLUMN_MISMATCH
SQLSTATE:未分配
外键父列与引用的主键子列不匹配。 外键父列为 (<parentColumns>
),主键子列为 (<primaryKeyChildColumns>
)。
UC_外键列类型不匹配
SQLSTATE:未分配
外键子列类型与父列类型不匹配。 外键子列 <childColumnName>
具有类型 <childColumnType>
,父列 <parentColumnName>
具有类型 <parentColumnType>
。
UC_GCP_INVALID_PRIVATE_KEY(无效的私钥)
SQLSTATE:未分配
访问被拒绝。 原因:服务帐户私钥无效。
UC_GCP_无效的私钥JSON格式
SQLSTATE:未分配
Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。
UC_GCP_私钥JSON格式无效_缺少字段
SQLSTATE:未分配
Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。 缺少的字段为 <missingFields>
UC_IAM角色_不可自我承担
SQLSTATE:未分配
发现此存储凭证的 IAM 角色是非自假设的。 请检查角色的信任和 IAM 策略,以确保 IAM 角色可以根据 Unity Catalog 存储凭证文档自行承担。
UC_ICEBERG_提交_冲突
SQLSTATE:未分配
无法提交 <tableName>
:元数据位置 <baseMetadataLocation>
已从 <catalogMetadataLocation>
变更。
UC_ICEBERG_COMMIT_INVALID_TABLE (提交无效表)
SQLSTATE:未分配
无法对非托管 Iceberg 表执行托管 Iceberg 提交:<tableName>
。
提交缺少字段约束
SQLSTATE:未分配
提供的托管 Iceberg 提交信息缺少必填字段。
UC_ID_MISMATCH
SQLSTATE:未分配
<type> <name>
不具有 ID <wrongId>
。 请重试该操作。
UC_无效访问_BRICKSTORE_PG_连接
SQLSTATE:未分配
对砖店 PG 连接的访问权限无效。 <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE:未分配
联合目录 <securableType> <securableName>
中的 <catalogName>
访问无效。 <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID (无效的Cloudflare账户ID)
SQLSTATE:未分配
Cloudflare 帐户 ID 无效。
UC_凭证无效_云
SQLSTATE:未分配
凭证云提供商“<cloud>
”无效。 允许的云提供商“<allowedCloud>
”。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE (无效的凭证用途值)
SQLSTATE:未分配
凭据“purpose”的值“<value>
”无效。 允许的值“<allowedValues>
”。
凭证转换无效
SQLSTATE:未分配
无法将连接从 <startingCredentialType>
更新为 <endingCredentialType>
。 唯一有效的转换是从基于用户名/密码的连接转换到基于 OAuth 令牌的连接。
UC_INVALID_CRON_STRING_FABRIC(无效的 CRON 字符串设置错误)
SQLSTATE:未分配
无效的 cron 字符串。 找到了:“<cronString>
”并出现分析异常:“<message>
”
UC_无效直接访问管理表格
SQLSTATE:未分配
直接访问托管表 <tableName>
无效。 确保未定义源表和管道定义。
无效的空存储位置
SQLSTATE:未分配
目录“<securableType>
”中的 <securableName>
“<catalogName>
”出现意外空存储位置。 若要修复此错误,请运行 DESCRIBE SCHEMA <catalogName>
。
<securableName>
并刷新此页面。
UC_INVALID_OPTIONS_UPDATE
SQLSTATE:未分配
提供的更新选项无效。 无效选项:<invalidOptions>
。 允许的选项:<allowedOptions>
。
无效的选项值
SQLSTATE:未分配
“<value>
”的“<option>
”值无效。 允许的值“<allowedValues>
”。
选项值为空
SQLSTATE:未分配
“<option>
”不能为空。 请输入非空值。
UC_INVALID_R2_ACCESS_KEY_ID (无效的R2访问密钥ID)
SQLSTATE:未分配
R2 访问密钥 ID 无效。
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE:未分配
R2 机密访问密钥无效。
UC_无效的规则条件
SQLSTATE:未分配
规则“<ruleName>
”中的条件无效。 包含消息“<message>
”的编译错误。
在系统工作区管理员组拥有的可保护对象上进行无效更新
SQLSTATE:未分配
无法更新 <securableType>
“<securableName>
”,因为它由内部组拥有。 有关其他详细信息,请联系 Databricks 支持人员。
UC_无效_WASBS_外部位置存储凭据
SQLSTATE:未分配
如果存储凭证 <storageCredentialName>
不与 DBFS 根关联,则禁止创建 wasbs 外部位置。
UC_LOCATION_INVALID_SCHEME
SQLSTATE:未分配
存储位置的 URI 架构无效:<scheme>
。
UC_格式错误_OAUTH_服务器响应
SQLSTATE:未分配
令牌服务器的响应缺少字段 <missingField>
。 返回的服务器响应为:<response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID (元数据存储分配状态无效)
SQLSTATE:未分配
无法分配“<metastoreAssignmentStatus>
'。 仅支持 MANUALLY_ASSIGNABLE
和 AUTO_ASSIGNMENT_ENABLED
。
UC_元数据存储_认证_未启用
SQLSTATE:未分配
未启用元存储认证。
UC_METASTORE_DB分片映射未找到
SQLSTATE:未分配
由于内部错误,无法为 Metastore ID <metastoreId>
检索元存储到数据库分片的映射。 请联系 Databricks 支持人员。
UC_元数据存储_有_活动_托管_在线_目录
SQLSTATE:未分配
元存储 <metastoreId>
具有 <numberManagedOnlineCatalogs>
个托管联机目录。 请显式删除它们,然后重试元存储删除。
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE:未分配
更新元存储根位置时,无法定义元存储根凭证。 将从元存储父级外部位置提取凭证。
UC_METASTORE_存储根目录删除无效
SQLSTATE:未分配
删除元存储根位置失败。 <reason>
UC_元数据存储_存储根_只读_无效
SQLSTATE:未分配
元存储的根 <securableType>
不能为只读。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID (元数据存储根更新无效)
SQLSTATE:未分配
设置元存储根后,无法对其进行更新。
UC_MODEL_状态无效
SQLSTATE:未分配
无法为状态为 <opName>
的模型版本 <modelVersion>
生成临时“<modelVersionStatus>
”凭证。 “<opName>
”凭证只能为状态为 <validStatus>
的模型版本生成
在上下文中没有组织ID
SQLSTATE:未分配
已尝试访问组织 ID(或工作区 ID),但上下文中没有。
UC_在线目录不可变更
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用在线存储计算选项卡修改联机目录的注释、所有者和隔离模式以外的任何内容。
在线目录配额超出限额
SQLSTATE:未分配
不能在元存储中创建 <quota>
个以上在线存储,已存在 <currentCount>
。 你可能无法访问任何现有的存储在线存储。 请联系元存储管理员,以获取访问权限或进一步说明。
UC_ONLINE_INDEX_目录_无效_CRUD
SQLSTATE:未分配
联机索引目录必须为通过 /vector-search API 的 <action>
。
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE:未分配
<rpcName>
请求更新 <fieldName>
。 使用 /vector-search API 修改联机索引目录的注释、所有者和隔离模式以外的任何内容。
在线索引目录配额超限
SQLSTATE:未分配
不能在元存储中创建 <quota>
个以上联机索引目录,已存在 <currentCount>
。 你可能无权访问任何现有的联机索引目录。 请联系元存储管理员,以获取访问权限或进一步说明。
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE:未分配
联机索引必须为通过 /vector-search API 的 <action>
。
UC_ONLINE_STORE无效创建读取更新删除
SQLSTATE:未分配
在线存储必须为通过在线存储计算选项卡的 <action>
。
UC_在线_表格_列名_过长
SQLSTATE:未分配
源表列名称 <columnName>
太长。 最大长度为 <maxLength>
个字符。
UC_ONLINE_TABLE_主键列不在源表主键约束中
SQLSTATE:未分配
列 <columnName>
不能用作联机表的主键列,因为它不属于源表的现有 PRIMARY KEY
约束的一部分。 有关详细信息,请参阅 <docLink>
UC在线表时间序列键不在源表主键约束中
SQLSTATE:未分配
列 <columnName>
不能用作联机表的时序键,因为它不属于源表的现有 PRIMARY KEY
约束的时序列。 有关详细信息,请参阅 <docLink>
UC_在线视图_每来源表_配额超出
SQLSTATE:未分配
无法为每个源表创建 <quota>
个以上联机表。
UC_在线查看访问被拒绝
SQLSTATE:未分配
访问资源 <resourceName>
需要使用无服务器 SQL 仓库。 请确保用于在 UI 中执行查询或查看数据库目录的仓库是无服务器的。 有关详细信息,请参阅 <docLink>
UC_在线查看连续配额超限
SQLSTATE:未分配
无法在在线存储中创建 <quota>
个以上连续联机视图,并且已存在 <currentCount>
。 你可能无法访问任何现有的存储在线视图。 请联系在线存储管理员,以获取访问权限或进一步说明。
UC_ONLINE_VIEW 不支持 DMK
SQLSTATE:未分配
<tableKind>
不能使用 Databricks 托管密钥在存储位置下创建。 请在存储位置中选择一个不同的架构/目录,而不使用 Databricks 托管密钥加密。
无效目录视图
SQLSTATE:未分配
类型为 <catalogName>
的要在其中创建 <catalogKind>
的目录 <tableKind>
无效。
<tableKind>
只能在类型目录下创建:<validCatalogKinds>
。
UC_在线视图_无效_模式
SQLSTATE:未分配
类型为 <schemaName>
的要在其中创建 <schemaKind>
的架构 <tableKind>
无效。
<tableKind>
只能在类型架构下创建:<validSchemaKinds>
。
UC_在线查看_无效TTL时间列类型
SQLSTATE:未分配
类型为 <columnName>
的列 <columnType>
不能用作 TTL 时间列。 允许的类型是 <supportedTypes>
。
授权路径范围之外
SQLSTATE:未分配
授权路径错误。 未在目录的授权路径中定义 <securableType>
位置 <location>
:<catalogName>
。 请要求目录所有者将路径添加到目录上定义的授权路径列表中。
UC_重复授权路径
SQLSTATE:未分配
“authorized_paths”选项包含重叠的路径:<overlappingPaths>
。 确保每个路径都是唯一的,并且不会与列表中的其他路径相交。
UC_分页和查询参数不匹配
SQLSTATE:未分配
查询参数“<arg>
”设置为“<received>
”,它与第一个分页调用(“<expected>
”)中使用的值不同
路径过长_uc
SQLSTATE:未分配
输入路径太长。 允许的长度:<maxLength>
。 输入长度:<inputLength>
。 输入: <path>
...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE:未分配
从元存储 <metastoreId>
向数据库发出的请求过多。 请稍后再试。
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE:未分配
无法为每个源表创建多个 <quota>
PostgreSQL 联机表。
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
SQLSTATE:未分配
无法创建主键 <constraintName>
,因为它的子列可为 <childColumnNames>
Null。 请更改列的可为 Null 性,然后重试。
请求超时 (UC_REQUEST_TIMEOUT)
SQLSTATE:未分配
此操作耗时过长。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE:未分配
Unity Catalog 不支持包含点的根存储 S3 存储桶名称:<uri>
UC_架构_空存储位置
SQLSTATE:未分配
目录“<schemaName>
”中的架构“<catalogName>
”出现意外空存储位置。 请确保架构使用路径方案 <validPathSchemesListStr>
。
存储凭证访问连接器解析失败
SQLSTATE:未分配
未能分析提供的访问连接器 ID:<accessConnectorId>
。 请验证其格式设置并重试。
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE:未分配
无法为 DBFS 根创建存储凭证,因为用户 <userId>
不是工作区的管理员:<workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE:未分配
位置 <location>
不在 DBFS 根 <dbfsRootLocation>
内
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE:未分配
包含启用了防火墙的 DBFS 的工作区尚不支持 DBFS 根存储凭证
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE:未分配
当前工作区尚不支持 DBFS 根存储凭证
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE:未分配
未为工作区 <workspaceId>
启用 DBFS 根
无法获取验证令牌的存储凭据错误
SQLSTATE:未分配
未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。
存储凭证无效云权限
SQLSTATE:未分配
注册存储凭证需要具有 ID <accessConnectorId>
的相应访问连接器上的参与者角色。 请联系帐户管理员。
UC_存储凭证权限被拒绝
SQLSTATE:未分配
只有帐户管理员可以创建或更新类型为 <storageCredentialType>
的存储凭证。
UC_存储_凭证_服务_主体_缺少_验证_令牌
SQLSTATE:未分配
缺少服务主体的验证令牌。 请在“X-Databricks-Azure-SP-Management-Token”请求标头中提供有效的 ARM 范围内的 Entra ID 令牌,然后重试。 有关详细信息,请查看 https://docs.databricks.com/api/workspace/storagecredentials
存储凭证信任策略设置为开放
SQLSTATE:未分配
用于允许 Databricks 帐户承担角色的 IAM 角色的信任策略应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范混淆代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。
存储凭证不支持无权限的服务主体
SQLSTATE:未分配
服务主体不能使用 CREATE_STORAGE_CREDENTIAL
特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE:未分配
位置 <location>
不在 DBFS 根内,因此,我们无法创建存储凭证 <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE:未分配
帐户级 API 不支持以非帐户管理员身份创建或更新存储凭证。 请改用工作区级 API。
UC系统工作区组权限不支持
SQLSTATE:未分配
无法向系统生成的组 <securableType>
授予对 <principal>
的权限。
标签分配不存在
SQLSTATE:未分配
具有标记键 <tagKey>
的标记分配不存在
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE:未分配
提供的基路径无效,基路径应类似于 /api/resources/v1。 不支持的路径:<path>
UC_不支持的_HTTP连接主机
SQLSTATE:未分配
提供的主机名无效,主机名应类似于 https://www.databricks.com,且不应包含路径后缀。 不支持的主机:<host>
路径中不支持的拉丁字符
SQLSTATE:未分配
外部位置/卷/表路径仅支持基本 Latin/Latin-1 ASCII
字符。 不支持的路径:<path>
更新禁止用于安全配置
SQLSTATE:未分配
无法更新 <securableType>
“<securableName>
”,因为它正在预配。
UC_写入冲突
SQLSTATE:未分配
<type> <name>
已由另一个请求修改。 请重试该操作。
UNITY_CATALOG_外部协调提交请求被拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>
”执行 commit/getCommits 的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
统一目录外部创建临时表请求被拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建临时表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY目录外部创建表请求被非外部表拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建非外部表“<tableFullName>
”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为路径“<path>
”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED (外部生成表凭证被拒绝)
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>
”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。
UNITY_CATALOG_EXTERNAL_获取外部凭证_拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为安全对象获取外部凭证的请求。
UNITY目录外部元数据快照更新被拒绝
SQLSTATE:未分配
出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部更新元数据快照的请求。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE(不支持遗留托管在线表的写入凭证)
SQLSTATE:未分配
获取联机目录中托管联机表的写入凭证的请求无效。
文件 API
API 文件接口未启用
SQLSTATE:未分配
<api_name>
未启用 API
云路径未启用FILES_API_API
SQLSTATE:未分配
云路径不支持文件 API 请求的方法
文件_API_AWS_访问被拒绝
SQLSTATE:未分配
AWS 拒绝对存储桶的访问。
文件接口亚马逊网络服务所有访问已禁用
SQLSTATE:未分配
对存储桶的所有访问已在 AWS 中禁用。
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE:未分配
AWS 中不存在存储桶。
文件_API_AWS_禁止访问
SQLSTATE:未分配
AWS 禁止对存储桶的访问。
文件_API_AWS_无效的授权头
SQLSTATE:未分配
工作区配置错误:它必须与 AWS 工作区根存储桶位于同一区域。
FILES_API_AWS_INVALID_BUCKET_NAME (提示:存储桶名称无效)
SQLSTATE:未分配
存储桶名称无效。
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE:未分配
配置的用于访问存储桶的 KMS 密钥在 AWS 中被禁用。
文件_API_AWS_未经授权
SQLSTATE:未分配
对 AWS 资源的访问未获授权。
文件_API_AZURE账户已禁用
SQLSTATE:未分配
在 Azure 中禁用存储帐户。
文件_API_AZURE_容器_不存在
SQLSTATE:未分配
Azure 容器不存在。
文件_API_AZURE_禁止
SQLSTATE:未分配
Azure 禁止对存储容器的访问。
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE:未分配
Azure 响应称,资源当前存在租赁情况。 请稍后重试。
文件_API_AZURE_账户权限不足
SQLSTATE:未分配
要访问的帐户没有足够的权限来执行此操作。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE:未分配
无法访问 Azure 中的存储帐户:存储帐户名称无效。
基于密钥的Azure身份验证不被允许
SQLSTATE:未分配
未在 Azure 中找到密钥保管库。 检查客户管理的密钥设置。
FILES_API_AZURE_密钥库_密钥未找到
SQLSTATE:未分配
未在 Azure 中找到 Azure Key Vault 密钥。 检查客户管理的密钥设置。
文件_API_AZURE_密钥保管库_保管库未找到
SQLSTATE:未分配
未在 Azure 中找到密钥保管库。 检查客户管理的密钥设置。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND(文件接口Azure MI访问连接器未找到)
SQLSTATE:未分配
找不到具有访问连接器的 Azure 托管标识凭证。 这可能是因为 IP 访问控制拒绝了你的请求。
文件_API_AZURE_操作_超时
SQLSTATE:未分配
操作无法在允许的时间内完成。
文件_API_AZURE_路径无效
SQLSTATE:未分配
请求的路径对 Azure 无效。
文件_API_AZURE_路径不可变
SQLSTATE:未分配
请求的路径是不可变的。
FILES_API_AZURE不支持的标头
SQLSTATE:未分配
在操作中指定的某个标头不受支持。
文件_API_目录_未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_云资源耗尽
SQLSTATE:未分配
<message>
文件_API_云存储提供商连接问题
SQLSTATE:未分配
存在连接问题,无法连接到<cloud_storage_provider>
。 请稍后再试。
文件API路径中不支持使用冒号
SQLSTATE:未分配
路径不支持字符“:”
文件_API_消费者_网络_区域_不允许
SQLSTATE:未分配
使用者网络区域“<consumer_network_zone>
”不允许来自请求方网络区域“<requester_network_zone>
”。
文件_API_控制平面网络区域_不允许
SQLSTATE:未分配
不允许 Databricks 控制平面网络区域。
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE:未分配
提供了正文,但目录中不能有文件正文
文件_API_目录_不为空
SQLSTATE:未分配
目录不为空。 非空目录不支持此操作。
文件接口目录未找到 (FILES_API_DIRECTORY_IS_NOT_FOUND)
SQLSTATE:未分配
找不到要访问的目录。
文件_API_DMK_加密根密钥已禁用
SQLSTATE:未分配
禁用客户管理的加密的根密钥。
文件_API_重复_标题
SQLSTATE:未分配
请求包含只允许一次的标头的多个副本。
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>
”必须只出现一次,但却被多次提供。
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE:未分配
DBFS 存储桶名称为空。
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE:未分配
用户无权访问加密密钥。
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE:未分配
检索加密密钥的作无法在允许的时间内完成。
文件_API_实体过大
SQLSTATE:未分配
对象超过允许的最大对象大小。
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE:未分配
到期时间必须存在
FILES_API_EXPIRED_TOKEN
SQLSTATE:未分配
提供的令牌已过期。
文件_API_过期时间必须是未来的
SQLSTATE:未分配
到期时间必须是将来的时间
文件_API_过期时间过于未来
SQLSTATE:未分配
请求的 TTL 比支持时间长(1 小时)
FILE_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC存储实体
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE:未分配
正在创建的文件已存在。
文件_API_文件_未找到
SQLSTATE:未分配
找不到要访问的文件。
文件_API_文件或目录以点结尾
SQLSTATE:未分配
不支持以“.”字符结尾的文件或目录。
文件接口文件大小超出限制
SQLSTATE:未分配
文件大小不应超过 <max_download_size_in_bytes>
字节,但发现了 <size_in_bytes>
字节。
文件_API_GCP_帐户已被禁用
SQLSTATE:未分配
对存储桶的访问已在 GCP 中禁用。
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE:未分配
GCP 中不存在存储桶。
文件_API_GCP_禁止访问
SQLSTATE:未分配
GCP 禁止对存储桶的访问。
文件_API_GCP_KEY_已禁用或已销毁
SQLSTATE:未分配
为该位置配置的客户管理的加密密钥被禁用或销毁。
FILES_API_GCP请求被政策禁止
SQLSTATE:未分配
策略禁止向存储桶发出的 GCP 请求,检查 VPC 服务控制措施。
文件_API主机暂时不可用
SQLSTATE:未分配
云提供商主机暂时不可用;请稍后重试。
文件_API_无效_继续_标记
SQLSTATE:未分配
提供的页面令牌无效。
文件_API_无效_主机名
SQLSTATE:未分配
主机名无效。
文件接口无效HTTP方法
SQLSTATE:未分配
http 方法无效。 应是“<expected>
”,但收到的是“<actual>
”。
文件_API_无效页面令牌
SQLSTATE:未分配
页面令牌无效
FILES_API_INVALID_PATH
SQLSTATE:未分配
路径无效: <validation_error>
FILES_API_范围无效
SQLSTATE:未分配
范围标头无效。
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_无效的_会话_令牌
SQLSTATE:未分配
会话令牌无效
文件_API_无效_会话_令牌_类型
SQLSTATE:未分配
会话令牌类型无效。 应是“<expected>
”,但收到的是“<actual>
”。
文件_API_时间戳无效
SQLSTATE:未分配
时间戳无效。
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE:未分配
上传类型无效。 应是“<expected>
”,但收到的是“<actual>
”。
FILES_API_INVALID_URL_PARAMETER
SQLSTATE:未分配
作为参数传递的 URL 无效
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER (文件API覆盖查询参数的无效值)
SQLSTATE:未分配
查询参数“overwrite”必须是其中之一:true 或 false,但为:<got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE:未分配
查询参数“<parameter_name>
”必须是以下项之一:<expected>
,但为:<actual>
文件_API_请求体格式错误
SQLSTATE:未分配
格式不正确的请求正文
文件_API_管理目录功能已禁用
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
文件 API 方法未启用于任务背景计算的工件存储
SQLSTATE:未分配
作业后台计算项目存储不支持文件 API 的请求方法。
文件接口缺少内容长度
SQLSTATE:未分配
请求中需要 content-length 标头。
FILES_API_缺少查询参数
SQLSTATE:未分配
查询参数“<parameter_name>
”是必需的,但请求中缺少该参数。
文件 API 请求中缺少必需参数
SQLSTATE:未分配
请求缺少必要的参数。
文件API模型版本尚未准备好
SQLSTATE:未分配
模型版本尚未就绪
文件_API_多部分上传中止_预签名_URL_不支持
SQLSTATE:未分配
对存储在 <cloud_storage_provider>
上的文件,预签名的 URL 不支持中止多部分上传。
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE:未分配
部件列表必须至少有一个元素,但为空。
多部分上传无效的分块号
SQLSTATE:未分配
部件号必须大于或等于 <min>
且小于或等于 <max>
。
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE:未分配
必须为存储在<cloud_storage_provider>
上的文件提供ETag。 没有提供至少一个 ETag,或者提供的 ETag 为空。
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE:未分配
自上传启动以来,存储实体的内部状态已被修改,例如文件路径不指向同一基础云存储位置。 通过启动新的上传会话继续。
多部分上传中的非结尾部分具有不同大小的文件API
SQLSTATE:未分配
作为多部分上传会话的一部分上传的部件对于存储 <cloud_storage_provider>
的文件的大小必须相同,但最后一部分可能更小。
FILES_API_多部分上传_部分尺寸超出范围
SQLSTATE:未分配
作为多部分上传会话的一部分上传的部分的大小必须大于或等于 <min>
且小于或等于 <max>
。
文件_API_分段上传会话未找到
SQLSTATE:未分配
找不到上传会话。 它可能已中止或已完成。
FILES_API_Multipart_Upload_Unordered_Parts_List (文件_API_多部分上传_无序部分列表)
SQLSTATE:未分配
部件列表必须由部件编号排序,但未排序。
文件API未为地点启用
SQLSTATE:未分配
未为此工作区/帐户启用 <place>
的文件 API
内部工作区存储不支持FILES_API
SQLSTATE:未分配
内部工作区存储不支持文件 API 的请求方法
文件操作API必须存在
SQLSTATE:未分配
操作必须存在
文件_API_页面大小必须大于或等于零
SQLSTATE:未分配
page_size必须大于或等于 0
文件的API路径以斜杠结尾
SQLSTATE:未分配
以“/”字符结尾的路径表示目录。 此 API 不支持对目录执行的操作。
文件_API路径是一个目录
SQLSTATE:未分配
给定路径指向现有目录。 此 API 不支持对目录执行的操作。
文件_API_路径_是_文件
SQLSTATE:未分配
给定路径指向现有文件。 此 API 不支持对文件执行的操作。
文件_API_路径不是有效的UTF8编码网址
SQLSTATE:未分配
给定路径不是有效的 UTF-8 编码 URL
文件API路径未启用用于数据平面代理
SQLSTATE:未分配
未为数据平面代理启用给定路径
文件_API_路径_必须_存在
SQLSTATE:未分配
路径必须存在
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE:未分配
<rejection_message>
文件_API_路径_过长
SQLSTATE:未分配
提供的文件路径太长。
FILES_API_前提条件失败
SQLSTATE:未分配
请求由于前置条件而失败。
文件_API_不支持模型的预签名网址
SQLSTATE:未分配
目前不支持用于模型的预签名 URL 的文件 API
FILES_API_R2_CREDENTIALS_DISABLED(文件API R2 凭证已禁用)
SQLSTATE:未分配
目前不支持 R2。
文件接口范围无法满足 (FILES_API_RANGE_NOT_SATISFIABLE)
SQLSTATE:未分配
无法满足请求的范围。
文件API不支持递归列表操作
SQLSTATE:未分配
不支持以递归方式列出文件。
FILES_API请求者网络区域未知
SQLSTATE:未分配
无法推断请求者网络区域。
文件API请求被错误路由
SQLSTATE:未分配
请求路由不正确
文件_API请求必须包含账户信息
SQLSTATE:未分配
请求必须包含帐户信息
文件_API_请求_必须_包括_用户_信息
SQLSTATE:未分配
请求必须包含用户信息
文件API请求必须包含工作区信息
SQLSTATE:未分配
请求必须包含工作区信息
FILES_API_RESOURCE_IS_READONLY(文件接口资源为只读)
SQLSTATE:未分配
资源是只读的。
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_安全_URL_无法访问
SQLSTATE:未分配
无法访问 URL。
文件_API_签名_验证_失败
SQLSTATE:未分配
签名验证失败。
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE:未分配
无法访问此工作区的存储配置。
文件_API_存储_凭证_未找到
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_表类型_不支持
SQLSTATE:未分配
文件 API 不支持<table_type>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_UC_模型_无效_状态
SQLSTATE:未分配
<unity_catalog_error_message>
文件_API_用户权限被拒绝
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE:未分配
<message>
文件_API_UC_路径中不支持的拉丁字符
SQLSTATE:未分配
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE:未分配
<unity_catalog_error_message>
文件API解析URI时发生意外错误
SQLSTATE:未分配
分析 URI 时出现意外错误
FILES_API_意外的查询参数
SQLSTATE:未分配
意外的查询参数: <unexpected_query_parameters>
文件_API_未知方法
SQLSTATE:未分配
未知方法 <method>
文件_API_未知服务器错误
SQLSTATE:未分配
未知的服务器错误。
文件_API_未知_URL_主机
SQLSTATE:未分配
URL 主机未知。
文件_API_不支持的认证方法
SQLSTATE:未分配
请求未正确进行身份验证。
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE:未分配
不支持 httpMethod。
文件_API_不支持的参数组合
SQLSTATE:未分配
不支持参数组合。
FILES_API_UNSUPPORTED_PATH(文件API不支持的路径)
SQLSTATE:未分配
文件 API 不支持提供的路径。 确保提供的路径不包含“../”或“./”序列的实例。 确保提供的路径不使用多个连续斜线(例如“///”)。
文件_API_上传_部分_URLS_数量_必须_大于_零
SQLSTATE:未分配
输入参数“count”必须大于 0。
FILES_API_URL_GENERATION_DISABLED
SQLSTATE:未分配
未为 <cloud>
启用预签名的 URL 生成。
不支持的文件 API 卷类型
SQLSTATE:未分配
<volume_type>
不支持文件 API。
文件_API_工作区_已取消
SQLSTATE:未分配
工作区已取消。
文件_API_工作区_未找到
SQLSTATE:未分配
无法访问此工作区的存储配置。
分布式账本技术 (DLT)
不允许对管道表进行ALTER操作
有关详细信息 ,请参阅ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
修改的计划不存在
在没有现有计划或触发器的情况下无法更改表上的 <type>
。 在尝试更改计划或触发器之前,请向表添加计划或触发器。
API配额已超出
已超出数据源 <sourceName>
的 API 配额。
有关更多详细信息,请参阅 API_QUOTA_EXCEEDED
应用更改错误
在APPLY CHANGES
操作期间发生错误。
有关详细信息,请参阅APPLY_CHANGES_ERROR
从快照应用更改错误
在APPLY CHANGES FROM SNAPSHOT
操作期间发生错误。
有关详细信息 ,请参阅APPLY_CHANGES_FROM_SNAPSHOT_ERROR
不支持从快照应用变更的预期
数据集 <datasetName>
定义了预期,但目前不支持使用 APPLY CHANGES FROM SNAPSHOT
数据集的预期。
消除对解决此错误的期望。 作为替代方法,请考虑使用以下结构通过组合 APPLY CHANGES
和 APPLY CHANGES FROM SNAPSHOT
应用预期:
使用 SCD 类型 1 将快照的更改应用到中间表中,无需任何期望。
使用
spark.readStream.option("readChangeFeed", "true").table
从中间表中读取更改。将中间表的更改应用到最终目标表
dlt.apply_changes
,使用以下参数以及当前已与dlt.apply_changes_from_snapshot
使用的参数:
处理更改:
apply_as_deletes = "_change_type == 'delete'"
删除 CDF 添加的列:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- 包括用于
dlt.apply_changes
的最终目标表的当前预期集。
应用更改部分更新未启用
功能 COLUMNS
到 UPDATE
处于预览状态,并未在您的工作区中启用。 请联系 Databricks 代表,详细了解此功能并访问个人预览版。
架构迁移失败
有关更多详细信息,请参阅 ARCHITECTURE_MIGRATION_FAILURE
无法将列添加到包含的列中
新列 (<columnNames>
) 已添加到表 <qualifiedTableName>
的管道定义中的 include_columns 字段。 请完全刷新表以避免潜在的数据丢失或从include_columns中删除这些列。
无法构建装饰器
SQLSTATE:未分配
@<decoratorName>
修饰器无法与<otherDecorators>
组合。
无法排除不存在的列
管道定义排除源 <columnNames>
表 <qualifiedTableName>
中不存在的列(<sourceType>
)。 请从exclude_columns字段中删除这些列。
无法筛选出必需列
管道定义不包括源 <columnNames>
的引入表 <qualifiedTableName>
所需的列 (<sourceType>
)。 请将其添加到include_columns,或将其从exclude_columns中删除。
无法包含不存在的列
管道定义包括源 <columnNames>
表 <qualifiedTableName>
中不存在的列(<sourceType>
)。 请从include_columns字段中删除这些列。
无法导入没有主键的表
源中的<qualifiedTableName>
表<sourceType>
没有主键。
请在连接器配置中指定主键以引入表(如果存在)。
无法从排除列中移除列
在表 <columnNames>
的管道定义中,列(<qualifiedTableName>
)被从 exclude_columns 字段中删除。 请对表格进行完全刷新以避免潜在的数据丢失,或者将这些列重新添加到 exclude_columns 中。
无法为HMS_PIPELINE设置目录
如果要使用 UC 创建新管道并设置目录,则无法将目录添加到具有已定义存储位置的现有管道。
现有存储位置:“<storageLocation>
”
请求的目录:“<catalog>
”
无法为现有管道设置架构
管道“<pipelineName>
”的设置中指定的'schema'字段是不合法的。 原因:
有关详细信息 ,请参阅CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
不能同时指定包含列和排除列
管道定义为 <identifier>
指定了 include_columns 和 exclude_columns。 请删除其中一个。
无法更新聚类列
无法更新表 <tableName>
的聚簇列,因为它使用的是分区列。 表可以使用分区列或聚簇列,但不能同时使用两者。
若要在液体聚类分析与分区之间切换,请触发此表的完全刷新。
无法更新分区列
无法更新流式处理表 <tableName>
的分区列。
当前为:<existingPartitionColumns>
,
请求了:<requestedPartitionColumns>
若要应用此分区更改,请触发此表和已更新分区列的任何其他流式处理表的完全刷新。
或者还原此更改以继续使用现有分区列。
无法更新表结构
无法合并表 <tableName>
的当前架构和新架构。
若要继续执行此架构更改,可以触发此表的完全刷新。
根据用例和架构更改,你也许能够删除架构更改 -- 可以更新查询,以便输出架构与现有架构兼容(例如,通过显式将列强制转换为正确的数据类型)。
不能写入非活动列
目标中的下表具有与当前源表冲突的非活动列:
<details>
这些列在目标表中保持非活动状态,因为它们以前已从源表中删除。
若要继续更新,请对表执行 FULL REFRESH
,或者通过 ALTER TABLE DROP COLUMN
命令从目标表中删除这些非活动列,然后重试更新。
无法写入非活动表
目标中的下表处于非活动状态,并且与当前源表冲突:<tables>
。
这些表保持非活动状态,因为它们以前已从源中删除或未从连接器中选择。
若要继续更新,请对表执行 FULL REFRESH
,或者从目录资源管理器中的目标中删除这些非活动表,或通过 DROP TABLE
命令删除这些非活动表,然后重试更新。
无法写入待重置的表格
在上一次完整刷新中,目标中的下列表格未正确重置:<tables>
。
请对其触发完全刷新以恢复。
目录映射在UC中不可用
UC 目录没有针对目录 <sourceCatalog>
的映射。
请检查目录是否已在 UC 目录中注册。
目录模式与目标管道不匹配
ID 为 <destPipelineCatalog>
的目标管道的目录 <destPipelineSchema>
和架构 <destPipelineId>
与表 <tableName>
的目录和架构不匹配。 目标管道应具有与表相同的目录和架构,或者目标管道必须使用直接发布模式。
目录规范不支持
数据库连接器当前不支持 CatalogSpecs。 请删除目录规范。
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
CDC 托管引入管道不支持表 <columnNames>
中具有 UOID <tableName>
的列。
请检查引入管道是否支持列 UOID,或请求完全刷新。
从网关来的CDC应用程序致命故障
网关管道遇到严重错误:
<errorMessage>
请在这里查看管道更新失败:<link>
CDC_应用程序要求对所有目标表进行完全刷新
不支持完全刷新一个目标表,不支持从同一源对另一个目标表进行正常更新。
请完全刷新这两个表,以便尽可能继续。
完全刷新表:<fullRefreshTables>
源 <sourceTable>
的目标表:<destinationTables>
CDC应用程序在流式传输期间架构发生更改
架构版本 <dataSchemaVersion>
与读取的架构版本 <readSchemaVersion>
不同。
DLT 将重试更新。
CDC_INCOMPATIBLE_SCHEMA_CHANGES
我们从架构版本 <cause>
到 <previousSchemaVersion>
遇到不兼容的架构更改(<currentSchemaVersion>
)。
因此,我们不能继续对 <tableName>
应用更改。 请请求完全刷新表。
以前的架构:<previousSchema>
当前架构:<currentSchema>
CDC_潜在数据差距
下表 [<needFullRefreshTableList>
] 在 <retention>
天内没有成功的更新。
请对这些表或整个数据管道进行全面刷新。
从多个来源获取相同表的CDC
从多个源找到同一个表名 <table>
:<sources>
。
请将它们拆分为不同的管道,以避免冲突。
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
在源数据库的所有表快照中找不到表 <table>
。
表规范详细信息:
<tableSpec>
更改HMS管道为UC不允许
不允许将 HMS 管道更改为 UC 管道。
不允许更改统一通信管道为华为移动服务
不允许将 UC 管道更改为 HMS 管道。
更改表的流水线ID不受支持
不支持更改<commandTableType>
的管道。
不可更改目录
无法修改现有管道的目录。 现有目录:“<existingCatalog>
”。 请求的目录:“<requestedCatalog>
”。
不允许更改目标架构
不允许更改目标架构。 原因:<reason>
。
集群创建预算政策限制已超出
由于管道的预算策略超出了限制,无法创建群集。 请使用其他策略或联系计费管理员。
CLUSTER_CREATION_CLIENT_ERROR
未能创建管道群集: <errorMessage>
此错误可能是由于管道中的配置错误。
检查管道群集配置和关联的群集策略。
集群创建额度已耗尽
无法创建群集,因为已耗尽可用额度。 请添加付款方式以升级帐户。
群集创建资源耗尽
无法创建群集,因为已超出资源限制: <errorMessage>
集群启动客户端错误
未能启动管道群集 <clusterId>
:<clusterStateMessage>
此错误可能是由于管道中的配置错误。
检查管道群集配置和关联的群集策略。
集群启动云端失败
未能启动管道群集 <clusterId>
:<clusterStateMessage>
此错误可能是暂时性的 - 重启管道,如果仍然看到相同的问题,请报告。
CLUSTER_SETUP_CLIENT_ERROR(集群设置客户端错误)
有关更多详细信息,请参阅 CLUSTER_SETUP_CLIENT_ERROR
集群无法访问
与驱动程序通信丢失。 群集 <clusterId>
有 <timeoutSeconds>
秒无法访问。
未找到要更新的列
在源数据帧中找不到 <column>
TO COLUMNS
中指定的列 UPDATE
。
无法停止以前的更新导致并行升级失败
启动了升级的更新“<upgradedUpdateId>
”,但未能停止之前的更新“<oldUpdateId>
”。
此错误可能是暂时性的。 管道将自动重试,问题应自行解决。
如果仍然看到相同的问题,请将此错误报告给 Databricks。
数据集装饰器应用两次
SQLSTATE:未分配
数据集 <datasetName>
已存在。 确保查询函数仅标记为视图或表一次。
数据集_未定义
未能读取数据集“”。<datasetName>
管道中未定义此数据集。
如果此表由其他管道管理,则不要使用 dlt.read
/ dlt.readStream
读取该表,也不要将名称加上 LIVE 关键字。
找不到目标管道
找不到 ID 为“”<pipelineId>
的目标管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。
目标管道不处于直接发布模式
ID 为“”<pipelineId>
的目标管道未使用直接发布模式。
目的地管道权限被拒绝
不允许执行此操作,因为您不是ID为“<pipelineId>
”的目标管道的所有者。 只有所有者才能更改表的管道。
目标管道类型不是工作空间管道类型
ID 为“”<pipelineId>
的目标管道不是 ETL 管道。
删除计划_计划不存在
在没有现有计划或触发器的情况下无法删除表上的 SCHEDULE
。
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
重复的“from_json”模式位置键:<schemaLocationKey>
。
请在管道中为每个from_json查询选择唯一的架构位置键
重复的摄取配置表规格
引入管道配置包含重复表。 请确保每个表都是唯一的。
EMPTY_INGESTION_CONFIG_OBJECTS
引入配置对象为空。
事件日志选择器功能不支持
此管道不支持将事件日志发布到 Unity 目录。 如果这是意外的,请联系 Databricks 支持部门。
期望违例
流“<flowName>
”未能满足预期。
有关详细信息 ,请参阅EXPECTATION_VIOLATION
无法创建事件日志
未能使用标识符 <pipelineId>
创建管道(id=<eventLogIdentifier>
)事件日志。 有关更多详细信息,请参阅下面的异常。
无法更新事件日志
未能将管道 (id=<pipelineId>
) 事件日志标识符更新为 <newEventLogIdentifier>
。 有关更多详细信息,请参阅下面的异常。
流程架构已更改
流 <flowName>
已终止,因为它在执行期间遇到架构更改。
架构更改与现有目标架构兼容,下一次流程运行可以使用新架构恢复。
FORACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL仅在预览频道中支持
目前不支持 DLT ForeachBatch 接收器。
DLT ForeachBatch 接收器的专用预览版需要 PREVIEW
通道。
DLT 接收器:<sinkNames>
网关管道初始化脚本不允许
网关管道不允许群集初始化脚本。 请将其从 <from>
中删除。
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
网关管道不允许 spark 配置 [<configs>
]。 请将其从 <from>
中删除。
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE (非法列更新数据类型)
COLUMNS
TO UPDATE
中指定的列的数据类型必须是字符串数组,但找到了 <illegalDataType>
。
管道规范中的非法模式字段
管道设置中的指定“schema”字段是非法的。 原因:<reason>
。
根路径类型不正确
根路径“<rootPath>
”必须是目录,但发现 <objectType>
。
摄取配置重复的架构
引入管道配置包含重复的架构。 请确保每个架构都是唯一的。
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
身份验证失败
有关更多详细信息,请参阅 INGESTION_GATEWAY_AUTHENTICATION_FAILURE
摄入网关关键结构变更失败
源表和目标表之间检测到架构不匹配。 若要解决此问题,需要对表“”<entityName>
进行完全刷新。
数据摄取网关CDC未启用
CDC 未在<entityType>
上启用<entityName>
。 错误消息:“<errorMessage>
”。
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
<entityType>
上的<entityName>
缺少 DDL 对象。 错误消息:“<errorMessage>
”。
数据入口网关缺少连接引用
引入网关配置缺少连接。
请添加对包含凭据的 Unity Catalog 连接的引用。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG (保持不变,因为它似乎是一个不需要翻译的技术术语或标识符)
引入网关配置缺少内部存储位置目录。
请添加内部存储位置目录。
引入网关管道定义详细信息:
<definition>
数据入口网关_缺少_内部存储名称
引入网关配置缺少内部存储位置名称。
请添加内部存储位置名称。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_缺失的内部存储模式
引入网关配置缺少内部存储位置架构。
请添加内部存储位置架构。
引入网关管道定义详细信息:
<definition>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
用户没有访问此对象或执行存储过程所需的权限。 请确保授予所有必要的特权。 请参阅以下文档: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements
INGESTION_GATEWAY_主机或端口不可达故障
由于源数据库的主机名 <host>
和/或端口 <port>
不正确,连接失败。
有关更多详细信息,请参阅 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
无效的应用更改命令
APPLY CHANGES
命令无效。
<reason>
。
无效的参数类型
SQLSTATE:未分配
传递给参数<paramName>
的值类型无效。 应为 <expectedType>
。
<additionalMsg>
。
无效兼容性选项
为表 <table>
指定的表选项无效,因为
有关详细信息 ,请参阅INVALID_COMPATIBILITY_OPTIONS
装饰器使用无效
SQLSTATE:未分配
传递给 @<decoratorName>
的第一个位置参数必须可调用。 在函数中添加没有参数的 @<decoratorName>
,或者使用关键字参数(例如)<decoratorName>
将选项传递给 @<exampleUsage>
。
无效的事件日志配置
在管道规格中找到的事件日志配置无效: <message>
名称无效或已在使用命令
<name>
命令中的名称“<command>
”无效。 原因:<reason>
无效的刷新选择
为此更新指定的刷新选择参数无效,因为
有关更多详细信息,请参阅 INVALID_REFRESH_SELECTION
无效的根路径
无效的根路径 '<rootPath>
':目前仅支持绝对目录路径。 目录路径必须以“/”开头,而不是以“/”结尾。
无效的模式名称
管道设置中指定的架构“”<schemaName>
无效。 原因:<reason>
。
无效的快照和版本类型
SQLSTATE:未分配
snapshot_and_version带有目标“<target>
”的流返回不受支持的类型。
<additionalMsg>
。
触发间隔格式无效
<configurationType>
中指定的触发器间隔配置无效
实时引用超出查询定义经典
不支持在数据集查询定义之外使用 LIVE
虚拟架构(即 @dlt.table 注释)引用数据集。
查询定义之外的实时引用_DPM
不支持在数据集查询定义之外使用 LIVE
虚拟架构 <identifier>
引用数据集(即 @dlt.table 注释)。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
在 spark.sql(...)中使用 LIVE
虚拟架构来引用数据集的 API,不得在数据集查询定义(即 @dlt.table 批注)外部调用。 只能在数据集查询定义中调用它。
最大重试次数已达到,等待酶重新计算
重试次数已达上限。 重试计数:<flowRetryCount>
。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
。 <message>
元数据存储操作超时 (METASTORE_OPERATION_TIMED_OUT)
更新 <tableName>
元存储信息所涉及的操作所需的时间比 <timeout>
长。
此问题可能是暂时性的,也可能指示配置的元存储客户端中的 bug。 如果问题仍然存在,请尝试重启管道并报告此问题。
缺少创建模式的权限
用户“<userName>
”无权在目录中创建架构 <catalogName>
缺少创建表权限
用户“<userName>
”无权在架构中创建表 <schemaName>
缺少“作为用户运行”配置
未为更新指定运行方式用户。
互斥选项
互斥选项 <options>
。 请删除其中一个选项。
负值
SQLSTATE:未分配
值 <arg_name>
必须大于或等于 0,得到“<arg_value>
”。
非UC表已由其他管道管理
表 '<tableName>
' 已由管道 <otherPipelineId>
管理。
如果希望表<tableName>
由此管道管理,
从管道“”
<otherPipelineId>
中删除表。启动此管道的完整刷新更新。
如果要继续从多个管道管理表,请在管道设置中将配置 pipelines.tableManagedByMultiplePipelinesCheck.enabled
更改为 false
,以禁用此检查。
不建议这样做,因为对表的并发操作可能会相互冲突,从而导致意外结果。
笔记本未找到
无法加载笔记本“<notebookPath>
”。
未提供来源、快照和版本参数
SQLSTATE:未分配
source
或者snapshot_version
必须为目标为“”<target>
的apply_changes_from_snapshot设置。
管道中无表格
管道预计应至少定义一个表,但在您的管道中未找到任何表。
请检查是否已包含预期的源文件,以及您的源代码是否包含表定义(例如,SQL代码中的CREATE MATERIALIZED VIEW
,Python代码中的@dlt.table)。
请注意,只有表计入此检查。 如果仅在管道中包含视图或流,则也可能遇到此错误。
表格所需刷新管道
该表 <tableName>
未处于所需状态,该表最近尚未更新。 必须再次运行 ID 为“”<pipelineId>
的管道,然后重试该作。
未找到表的管道
找不到 ID 为“”<pipelineId>
的管道,用于管理表 <tableName>
。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。
管道全局包含冲突
应在管道设置中的库下设置 glob 或笔记本/文件字段。 请更改管道设置。
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
使用 glob 字段包含源文件是一项预览功能,目前处于禁用状态。
重新选择要包含的每个源文件,以便管道修复此错误。
联系 Databricks 支持人员,详细了解此功能并注册预览版。
管道_通配符_不支持_特殊字符
特殊字符 <specialChar>
是保留的,不应在管道设置中的包含路径“”<path>
中使用。 删除这些字符以修复错误
不可重试的分析流水线
由于在部分执行后出现不可重试的错误,管道无法分析源表(<tables>
)。
不会创建新的管道更新。 请检查事件日志并相应地修复问题。
管道未处于直接发布模式
ID 为“”<pipelineId>
的管道(管理表 <tableName>
)不使用直接发布模式。
管道未准备好进行计划更新
表格尚未准备好刷新
有关更多详细信息,请参阅 PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
管道权限拒绝:非所有者
您不允许执行此操作。 你不是 ID 为“<pipelineId>
”的管道的所有者,因此无法管理表 <tableName>
。
流水线源文件数量超出限制
源文件数超过限制 <limit>
。 删除其他源文件或联系 Databricks 支持部门以请求增加限制。
管道源文件夹深度超限
文件夹“”<folder_path>
超出了允许的最大目录嵌套级别 <limit>
。 减少文件夹嵌套级别或联系 Databricks 支持部门以请求增加限制。
PIPELINE_TYPE_NOT_WORKSPACE管道类型代理类型
ID为<pipelineId>
的管道,管理表<tableName>
,不是一个ETL管道。
超过管道类型配额
无法启动更新<updateId>
,因为已达到<pipelineType>
类型的活动管道数量限制。
表格的管道更新正在运行
ID 为“”<pipelineId>
的管道正在运行,用于管理表 <tableName>
。 请在运行操作之前停止管道。
PIP_INSTALL_ERROR(PIP安装错误)
调用 %pip 安装时出错。
在笔记本顶部位置不安装PIP
找到包含 %pip 安装的单元格,这些单元格不在“”<notebookPath>
笔记本顶部
将所有 %pip install 单元格移动到该笔记本的开头。
PY4J_BLOCKED_API
SQLSTATE:未分配
你使用的是当前环境中不支持的 Python API。
请查看 Databricks 文档了解替代项。
<additionalInfo>
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
不支持引用数据集查询定义外部的 DLT 数据集 <identifier>
(即 @dlt.table 批注)。 请改为在数据集查询定义中读取它。
刷新模式已存在
无法添加 <type>
到已具有 <existingType>
的表。 请删除现有计划或使用 ALTER TABLE
... ALTER <type>
更改它。
在使用中的保留关键字目录
USE CATALOG
“”<reservedKeyword>
是非法的,因为“”<reservedKeyword>
是 DLT 中的保留关键字。
保留关键字使用模式
USE SCHEMA
“”<reservedKeyword>
是非法的,因为“”<reservedKeyword>
是 DLT 中的保留关键字。
根路径未找到
无法访问根路径“”。<rootPath>
请确保拥有所需的访问权限。
RUN_AS_USER_NOT_FOUND
在工作区中,不存在被指定为用户“<runAsUserId>
”的任务。
SAAS连接错误
未能连接到 <sourceName>
源。 错误代码:<saasConnectionErrorCode>
。
有关详细信息,请参阅 SAAS_CONNECTION_ERROR
SAAS连接器架构更改错误
架构更改发生在 <tableName>
源的表 <sourceName>
中。
有关更多详细信息,请参阅 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
<sourceName>
API 调用中发生错误。 源 API 类型:<saasSourceApiType>
。 错误代码:<saasSourceApiErrorCode>
。
尝试刷新目标表。 如果问题仍然存在,请提交票证。
SAAS_CONNECTOR_UNSUPPORTED_ERROR
数据源 <sourceName>
中出现“不受支持”错误。
有关更多详细信息,请参阅 SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_初始化期间的不兼容架构变更
初始化管道时检测到不兼容的架构更改:
<details>
请对受影响的表执行完全刷新。
软件即服务_模式在分析过程中出现分歧
源表 (<table>
) 的分析架构与预期架构存在分歧。
请重试管道更新,看看问题是否已解决。
如果此问题仍然存在,请对上述表执行完全刷新
预期架构:
<expectedSchema>
实际架构:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE(SaaS UC 连接不可访问)
提供的连接 <connectionName>
不可访问。 请检查连接,然后重试。
有关更多详细信息,请参阅 SAAS_UC_CONNECTION_INACCESSIBLE
架构规范_空目录
SchemaSpec 在目录字段中有一个空字符串。
请删除空字符串或添加目录名称。 (如果此架构不属于源中的目录,请不要设置字段。
架构规格详细信息:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec 在架构字段中有一个空字符串。
请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。
架构规格详细信息:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
必须存在至少一个源目录和源架构。 但两者都是空的。
架构规格详细信息:
<schemaSpec>
SERVICENOW_CONNECTION_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
有关详细信息 ,请参阅SERVICENOW_CONNECTION_ERROR
ServiceNow连接器实例休眠错误 (SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR)
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能连接到 ServiceNow 实例。 该实例似乎处于休眠状态或处于非活动状态。
登录到 ServiceNow 管理门户,等待一段时间,直到实例完全唤醒。
如果错误仍然存在,请提交票证。
服务现在连接器_无效表错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
未能查询表“”<tableName>
的架构。 此用户的 ServiceNow 帐户中不存在该表。
检查表名称是否有拼写错误,并确保用户具备访问该表所需的权限。
如果错误仍然存在,请提交票证。
SERVICENOW_连接器_格式错误的终端_URL_错误
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
检测到 ServiceNow API 端点 URL 无效。 URL 结构与预期的 ServiceNow 格式不匹配。
检查 UC 连接凭据中的 ServiceNow 实例配置。
有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>
。
有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
不允许为管道表设置表属性
ALTER <commandTableType>
... SET TBLPROPERTIES
不支持。 若要修改表属性,请更改原始定义并运行更新。
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
对象 <objName>
的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。
有关更多详细信息,请参阅 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND(未找到SFDC连接器批量查询)
对象 <objName>
引入失败,因为找不到 Salesforce 批量 API 查询作业。
请对特定目标表执行 FULL REFRESH
。
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED (请注意:Salesforce 连接器创建批量查询作业失败)
由于创建 Salesforce 批量 API 查询作业失败,对象 <objName>
引入不完整。 错误代码:<saasSourceApiErrorCode>
。
<actionText>
。
水槽不支持在SEG中
启用了无服务器出口控件的工作区不支持管道中的 DLT 接收器。 支持的 DLT 数据流接收端包括 Kafka 和 Delta。
找到以下不支持的接收器:<sinkNames>
,其相应的格式为:<sinkFormats>
。
独立私有MVST不支持
不支持创建独立的 PRIVATE
MV/ST。 请删除 PRIVATE
修饰符
未定义的流目标
找不到用于 <target>
命令的目标表 <command>
。 管道中未定义目标表 <target>
。
在操作期间表已更改
表 <tableName>
已在此事务之外进行了修改,并且此事务已回滚。 重试操作。
表物化循环外键依赖关系
管道更新:<pipelineId>
检测到外键约束的循环链:<tables>
。
表规范需要同时目录和模式
TableSpec 缺少源目录和/或源架构之一。
表规范详细信息:
<tableSpec>
表格规范为空目录
TableSpec 在目录字段中有一个空字符串。
请删除空字符串或添加目录名称。 (如果此表不属于源中的目录,请不要设置字段。
表规范详细信息:
<tableSpec>
表格规范为空的架构
TableSpec 在架构字段中有一个空字符串。
请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。
表规范详细信息:
<tableSpec>
表格规格_空表
表名为空。 请提供表名。
表规范详细信息:
<tableSpec>
表令牌不存在于架构演变遗留表中
由于缺少元数据,无法启用架构演变。 请触发完全刷新。
原因:启用架构演变时必须定义快照表令牌。
目标数据库已满
目标数据库 <databaseName>
空间已满。 无法继续摄取。
触发间隔值无效
触发器间隔必须是正持续时间,最大可接受的值为 2,147,483,647 秒。 接收时间:<actual>
秒。
触发源类型不被支持
触发器当前不支持类型为 <source>
的源 <type>
。
UC清算目标架构不允许
不允许在 UC 管道中清除目标架构字段。 原因:<reason>
。
UC_TARGET_SCHEMA_REQUIRED
UC 管道需要目标架构字段。 原因:<reason>
。
无法推断表架构
无法从其上游流推断表 <tableName>
的架构。
请修改写入此表的流,使其架构兼容。
到目前为止,推断的架构:
<inferredDataSchema>
不兼容的架构:
<incompatibleDataSchema>
意外的管道方案权限错误
检查管道 <pipelineId>
的架构权限时出现意外错误。 请联系 Databricks 支持人员。
统一兼容性无法与行过滤器或列掩码设置
不能对应用行筛选器或列掩码的物化视图或流式表设置统一的兼容性。
未解决的下游路径
无法解析接收器 <identifier>
的存储路径。 请联系 Databricks 支持人员。
未解决的维护表格
下表是在管道定义中找到的,但在维护期间无法解析。 如果问题仍然存在,请使用最新的管道定义运行管道更新任务,以生成管道定义中的所有表,解除维护阻塞,或者联系 Databricks 支持部门。
<unresolvedTableIdentifiersSet>
未解决的表路径
无法解析表 <identifier>
的存储路径。 请联系 Databricks 支持人员。
不支持的修改命令
ALTER <commandTableType>
... <command>
不支持。
不支持的 DPM 通道
直接发布模式不支持的通道。 期望得到“CURRENT
”或“PREVIEW
”通道,但得到“PREVIOUS
”通道。
在非DPM管道中不支持的命令
仅支持直接发布模式的 DLT 管道支持 <command>
查询定义中的不支持命令
查询定义不支持“<command>
” 。 请将命令移到查询定义之外。 如果它是 Python 中的 DLT 管道,请将“”<command>
移出 @dlt.table()/@dlt.view() 修饰器之外。 如果它是 Scala 中的 DLT 管道,请将“<command>
”移动到“query”方法的外部。
不支持的工作区功能
工作区不支持 <featureName>
。 请联系 Databricks 支持部门,为工作区启用此功能。
不支持的语言
无法加载<language>
笔记本“<notebookPath>
”。 目前仅支持 <supportedLanguages>
笔记本。
不支持的库文件类型
该文件 <path>
没有.py或.sql后缀。 管道中仅支持 Python 和 SQL 文件。
不支持的库或笔记本语言
笔记本<language>
不支持的语言<path>
。 管道中仅支持 Python 和 SQL
不支持的库对象类型
包含在路径中的<path>
类型为<objectType>
,该类型不受支持。 目前,只能将笔记本和文件用作库。 若要解决此问题,请删除不受支持的对象或更新为此管道配置的库,以便仅包含受支持的对象类型。
不支持的托管导入源类型
托管引入管道定义无效,源类型不受支持:<sourceType>
。
UNSUPPORTED_SAAS_INGESTION_TYPE
不支持提供的引入类型 <ingestionType>
。
如果此问题仍然存在,请联系 Databricks 支持部门。
不支持的SPARK SQL命令
DLT Python 中的 spark.sql(“...”) API 不支持'<command>
' 。 支持的命令:<supportedCommands>
。
USE_CATALOG_IN_HMS
USE CATALOG
仅在启用了 UC 的 DLT 管道中受支持
查看未在UC中保存的文本
无法刷新表 <tableName>
,因为它没有保存在 Unity 目录中的查询。 请联系 Databricks 支持人员。
Workday 报告连接器未授权访问错误
Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>
。
有关详细信息 ,请参阅WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
工作日报告网址为空
Workday 报表 URL 为空。 必须至少提供一个报表。
工作区配额已超限
无法启动更新<updateId>
,因为此工作区中已有<maxActiveUpdates>
个活动管道在运行。
杂项
ABAC 行和列策略不支持在指定的集群上
SQLSTATE:未分配
不支持在分配的群集上使用通过策略规则分配的行筛选器或列掩码对表 <tableFullName>
进行查询。
AZURE_ENTRA_凭证_缺失
SQLSTATE:未分配
Azure Entra(又称 Azure Active Directory)凭证缺失。
确保已使用 Entra 帐户登录
或在用户设置 >
Git 集成中设置 Azure DevOps 个人访问令牌(PAT)。
如果未使用 PAT,并且正在将 Azure DevOps 与 Repos API 配合使用,
则必须使用 Azure Entra 访问令牌。
请参阅 https://docs.azure.cn/databricks/dev-tools/api/latest/aad/app-aad-token 获取 Azure Entra 访问令牌的步骤。
AZURE_ENTRA_凭据解析失败
SQLSTATE:未分配
Azure Entra (Azure Active Directory) 凭证遇到错误。 请尝试注销
Entra(https://portal.azure.cn)并重新登录。
或者,还可以访问用户设置 >
Git 集成来设置
Azure DevOps 个人访问令牌。
Azure Entra 登录错误 (AZURE_ENTRA_LOGIN_ERROR)
SQLSTATE:未分配
Azure Active Directory 凭证遇到错误。 请尝试注销
Azure Active Directory (https://portal.azure.cn) 并重新登录。
清洁室_DELTA_共享_实体_未经授权
SQLSTATE:未分配
无法请求为清洁室增量共享安全对象生成凭证。
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE:未分配
具有类型 <securableName>
和类型 <securableType>
的安全对象 <securableKind>
由清洁室系统管理,用户无权访问。
约束已存在
SQLSTATE:未分配
名称为 <constraintName>
的约束已存在,请选择其他名称。
约束不存在
SQLSTATE:未分配
约束 <constraintName>
不存在。
无法读取远程存储库
SQLSTATE:未分配
无法读取远程存储库 (<repoUrl>
)。
请转到远程 Git 提供程序,以确保:
远程 Git 存储库 URL 有效。
你的个人访问令牌或应用密码具有正确的存储库访问权限。
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE:未分配
无法解析 <repoUrl>
的主机。
CSMS_不支持从时间开始
SQLSTATE:未分配
参数 beginning_of_time
不能为 true。
CSMS_连续令牌已过期
SQLSTATE:未分配
找不到延续令牌的已请求对象。
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE:未分配
延续令牌无效。 原因:<msg>
CSMS_INVALID_MAX_OBJECTS (无效的最大对象)
SQLSTATE:未分配
参数 max_objects 的值 <value>
无效, [<minValue>
, <maxValue>
] 中的预期值
CSMS_INVALID_SUBSCRIPTION_ID (无效的订阅ID)
SQLSTATE:未分配
订阅 ID 无效。 原因:<msg>
CSMS_INVALID_URI_FORMAT(URI格式无效)
SQLSTATE:未分配
无效的 URI 格式。 需要卷(例如“/Volumes/catalog/schema/volume”)或云存储路径(例如“s3://some-uri”)
CSMS_KAFKA_主题缺失
SQLSTATE:未分配
必须提供 Kafka 主题
位置错误_CSMS
SQLSTATE:未分配
无法列出对象。 需要解决的位置存在问题。 详细信息: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE:未分配
找不到 URI <path>
的位置
CSMS_METASTORE_ID_MISSING
SQLSTATE:未分配
必须提供元数据存储 uuid
元存储解析失败
SQLSTATE:未分配
无法确定请求的元存储。
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE:未分配
CSMS 无法解析本地分片名称
CSMS_服务_已禁用
SQLSTATE:未分配
服务已禁用
CSMS请求中缺少分片名称
SQLSTATE:未分配
RPC 请求中缺少发往 CSMS 的分片名称
CSMS_UNITY_CATALOG_实体未找到
SQLSTATE:未分配
找不到 Unity Catalog 实体。 确保存在目录、架构、卷和/或外部位置。
CSMS_UNITY_CATALOG_外部位置不存在
SQLSTATE:未分配
Unity Catalog 外部位置不存在。
CSMS_UNITY_CATALOG_外部存储重叠
SQLSTATE:未分配
URI 与其他卷重叠
CSMS_UNITY_CATALOG元数据存储不存在
SQLSTATE:未分配
无法确定请求的元存储。 元存储不存在
CSMS_UNITY_CATALOG_权限被拒绝
SQLSTATE:未分配
权限被拒绝
CSMS_UNITY_目录_表_不存在
SQLSTATE:未分配
Unity Catalog 表不存在。
CSMS_统一目录卷不存在
SQLSTATE:未分配
Unity Catalog 卷不存在。
CSMS_URI_MISSING
SQLSTATE:未分配
必须提供 URI
CSMS_URI过长
SQLSTATE:未分配
提供的 URI 太长。 允许的最大长度为 <maxLength>
。
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE:未分配
无法使用经典计算访问 Databricks 默认存储。 请使用无服务器计算访问默认存储中的数据
GitHub 应用无法刷新凭证
SQLSTATE:未分配
操作失败,因为无法刷新链接的 GitHub 应用凭证。
请重试或转到用户设置 >
Git 集成,然后尝试重新链接 Git 提供程序帐户。
如果问题仍然存在,请提交支持票证。
GitHub应用凭据无访问权限
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
- 存储库的管理员必须转到 https://github.com/apps/databricks/installations/new 存储库中并安装 Databricks GitHub 应用。
或者,GitHub 帐户所有者可以在帐户上安装应用,以授予对帐户存储库的访问权限。
- 如果已安装应用,则让管理员确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GitHub 应用程序凭证已过期
SQLSTATE:未分配
链接的 GitHub 应用凭证在处于非活动状态 6 个月后过期。
转到用户设置 >
Git 集成,然后尝试重新链接凭证。
如果问题仍然存在,请提交支持票证。
不同用户帐户上的GITHUB应用安装
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
GitHub 用户
<gitCredentialUsername>
应转到 https://github.com/apps/databricks/installations/new 帐户<gitCredentialUsername>
并安装应用以允许访问。如果用户
<gitCredentialUsername>
已安装应用并且使用范围内的访问权限和“仅选择存储库”选项,则他们应确保已通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GitHub应用程序安装在组织上
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
GitHub 组织的
<organizationName>
所有者应转到 https://github.com/apps/databricks/installations/new,并在<organizationName>
组织中安装应用程序以允许访问。如果应用已安装在 GitHub 组织
<organizationName>
上,则让该组织的所有者确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
在您的账户上安装GitHub应用程序
SQLSTATE:未分配
指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:
转到 https://github.com/apps/databricks/installations/new 帐户
<gitCredentialUsername>
并安装应用以允许访问。如果已安装应用,并且你在使用范围内的访问权限和“仅选择存储库”选项,则确保你已通过选择它来包括对此存储库的访问权限。
如果问题仍然存在,请提交支持票证。
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序凭证无效。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
转到用户设置 >
Git 集成以查看凭证。
请转到远程 Git 提供程序,以确保:
你已使用 Git 提供程序凭证输入正确的 Git 用户电子邮件或用户名。
你的令牌或应用密码具有正确的存储库访问权限。
你的令牌未过期。
如果你在 Git 提供程序中启用了 SSO,请确保授权你的令牌。
GIT 凭证 无效的 PAT
SQLSTATE:未分配
存储库 URL <repoUrl>
的 Git 提供程序个人访问令牌凭证无效。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
转到用户设置 >
Git 集成以查看凭证。
请转到远程 Git 提供程序,以确保:
你已使用 Git 提供程序凭证输入正确的 Git 用户电子邮件或用户名。
你的令牌或应用密码具有正确的存储库访问权限。
你的令牌未过期。
如果你在 Git 提供程序中启用了 SSO,请确保授权你的令牌。
Git 凭据缺失
SQLSTATE:未分配
未配置 Git 凭证,但此存储库需要凭证 (<repoUrl>
)。
转到用户设置 >
Git 集成以设置 Git 凭证。
GIT_CREDENTIAL_NO_WRITE_PERMISSION(无写权限)
SQLSTATE:未分配
未授予对 <gitCredentialProvider>
存储库 (<repoUrl>
) 的写入访问权限。
请确保 (<gitCredentialUsername>
) 对此远程存储库具有写入访问权限。
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE:未分配
存储库的 Git 凭据提供程序不正确。
当前 Git 凭证的提供程序 (<gitCredentialProvider>
) 与存储库的 Git 提供程序 <repoUrl>
的不匹配。
请尝试其他存储库,或转到用户设置 >
Git 集成以更新 Git 凭证。
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE:未分配
Git 代理群集尚未准备就绪。
代码中的GIT秘密
SQLSTATE:未分配
在提交中找到的机密。 详细信息:<secretDetail>
。 修复此错误的方法:
删除机密,然后重试提交。
如果问题仍然存在,请提交支持票证。
分级命名空间未启用
SQLSTATE:未分配
Azure 存储帐户未启用分层命名空间。
字段长度无效
SQLSTATE:未分配
<rpcName> <fieldName>
过长。 最大长度为 <maxLength>
个字符。
参数值无效
SQLSTATE:未分配
<msg>
有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE
作业任务框架任务运行输出未找到
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务的任务运行输出。
作业任务框架无法找到任务运行状态
SQLSTATE:未分配
任务框架:找不到具有 runId <runId>
和 orgId <orgId>
的任务的任务运行状态。
任务注册表中不存在任务客户端配置
SQLSTATE:未分配
具有 ID <taskId>
的任务的 RPC ClientConfig 不存在。
任务注册表中的任务不存在
SQLSTATE:未分配
具有 ID <taskId>
的任务不存在。
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE:未分配
任务注册表:类为 <taskClassName>
的不支持或未知的 JobTask。
基于路径的访问不支持外部浅克隆
SQLSTATE:未分配
不支持对外部浅表克隆表 <tableFullName>
进行基于路径的访问。 请改用表单名称来访问浅表克隆。
不支持基于路径的Fabric访问
SQLSTATE:未分配
找不到位于 URL“<url>
”的 Fabric 表。 请使用 REFRESH FOREIGN CATALOG
命令填充 Fabric 表。
不支持用于具有行列访问策略的表的基于路径的访问
SQLSTATE:未分配
不支持对具有行筛选器或列掩码的表 <tableFullName>
进行基于路径的访问。
权限被拒绝
SQLSTATE:未分配
用户在 <msg>
“<resourceType>
”上没有 <resourceName>
。
REDASH_删除资产_处理程序_无效输入
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE:未分配
无法删除不在回收站中的对象 <resourceName>
REDASH_权限被拒绝
SQLSTATE:未分配
找不到或没有访问资源 <resourceId>
的权限
REDASH_QUERY_NOT_FOUND (未找到查询)
SQLSTATE:未分配
无法从查询 ID 中查找资源 <queryId>
REDASH查询代码片段创建失败
SQLSTATE:未分配
无法创建新的查询片段
REDASH查询片段配额已超出
SQLSTATE:未分配
已达到查询片段数的配额。 当前配额为 <quota>
。
Redash 查询代码片段触发器已在使用中
SQLSTATE:未分配
指定的触发器 <trigger>
已被此工作区中的另一个查询片段使用。
红色资源未找到 (REDASH_RESOURCE_NOT_FOUND)
SQLSTATE:未分配
所请求的资源 <resourceName>
不存在
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE:未分配
无法分析删除对象请求:<invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE:未分配
无法还原不在回收站中的对象 <resourceName>
REDASH_垃圾对象已在垃圾桶中
SQLSTATE:未分配
无法将已放入回收站的对象 <resourceName>
放入回收站
瑞达什无法生成资源名称
SQLSTATE:未分配
无法从 ID <id>
中生成资源名称
REDASH 可视化创建失败
SQLSTATE:未分配
无法创建新的可视化效果
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE:未分配
找不到可视化效果 <visualizationId>
REDASH_可视化_配额已超出
SQLSTATE:未分配
查询 <query_id>
的可视化数量配额已达到上限。 当前配额为 <quota>
。
存储库网址未找到
SQLSTATE:未分配
找不到远程存储库 (<repoUrl>
)。
当前的 Git 凭据提供程序是 <gitCredentialProvider>
,用户名是 <gitCredentialUsername>
。
请转到远程 Git 提供程序,以确保:
远程 Git 存储库 URL 有效。
你的个人访问令牌或应用密码具有正确的存储库访问权限。
资源已存在
SQLSTATE:未分配
<resourceType>
“<resourceIdentifier>
”已存在
资源不存在
SQLSTATE:未分配
<resourceType>
“<resourceIdentifier>
”不存在。
行列访问策略不支持分配的集群
SQLSTATE:未分配
不支持在分配的群集上使用行筛选器或列掩码对表 <tableFullName>
进行查询。
Delta Sharing 中的表不支持行列安全性
SQLSTATE:未分配
表 <tableFullName>
正与增量共享进行共享,不能使用行/列安全性。
服务暂时不可用
SQLSTATE:未分配
服务 <serviceName>
暂时处于维护状态。 请稍后再试。
在在线模式下,不支持具有行列安全性的表格
SQLSTATE:未分配
表 <tableFullName>
不能同时具有行/列安全性和联机具体化视图。
更新的行数过多
SQLSTATE:未分配
要更新的行太多,导致更新中止。