Azure Databricks 中的错误条件

适用于 勾选“是”Databricks SQL、勾选“是”Databricks Runtime 12.2 及更高版本

错误条件是描述性的、可读字符串,它们所描述的错误是唯一的。

可以使用错误条件以编程方式处理应用程序中的错误,而无需分析错误消息。

这是 Azure Databricks 返回的常见命名错误条件的列表。

Databricks Runtime 和 Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE:42623

无法执行 <statementType> 命令,因为在使用表提供程序“DEFAULT”向以前存在的目标数据源添加新列时不支持 <dataSource> 值。

聚合函数_包含不确定表达式

SQLSTATE:42845

非确定性表达式 <sqlExpr> 不应出现在聚合函数的参数中。

AI功能HTTP解析转换错误

SQLSTATE:2203G

强制转换为指定的 returnType:“<dataType>”时未能解析模型输出,响应 JSON 为:“<responseString>”。 请更新 returnType 以匹配响应 JSON 表示的类型的内容,然后再次重试查询。

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE:2203G

实际模型输出具有多个列“<responseString>”。 但是,指定的返回类型[“<dataType>”]只有一列。 请更新 returnType 以包含与模型输出相同的列数,然后再次重试查询。

AI功能HTTP请求错误 (AI_FUNCTION_HTTP_REQUEST_ERROR)

SQLSTATE:08000

对函数 <funcName> 发出 HTTP 请求时出错:<errorMessage>

AI功能_HTTP响应无效

SQLSTATE:08000

函数 <funcName> 的 HTTP 响应无效:<errorMessage>

AI_函数_最大词数无效

SQLSTATE:22032

最大字词数必须是非负整数,但获得 <maxWords>

AI功能无效模型参数

SQLSTATE:22023

提供的模型参数 (<modelParameters>) 在提供端点“AI_QUERY”的 <endpointName> 函数中无效。

有关更多详细信息,请参阅 AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI功能无效响应格式类型

SQLSTATE:0A000

AI 函数:“<functionName>”要求 <format> 参数具有有效的 responseFormat 字符串,但发现的响应格式是:“<invalidResponseFormat>”。 异常:<errorMessage>

AI_函数_JSON_解析错误

SQLSTATE:22000

分析函数 <funcName> 的 JSON 响应时出错:<errorMessage>

AI_功能_模型_架构_解析_错误

SQLSTATE:2203G

未能分析服务终结点“<endpointName>”的架构:<errorMessage>,响应 JSON 为:“<responseJson>”。

returnType 函数中手动设置 AI_QUERY 参数以替代架构解析。

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE:56038

函数 <funcName> 在当前环境中不受支持。 它仅在 Databricks SQL Pro 和无服务器版本中可用。

AI功能不支持请求

SQLSTATE:0A000

无法评估 SQL 函数“<functionName>”,因为提供的 <invalidValue> 参数具有“<invalidDataType>”,但仅支持以下类型:<supportedDataTypes>。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。

AI功能不支持的响应格式

SQLSTATE:0A000

找到不支持的响应格式。

有关更多详细信息,请参阅 AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

AI_函数_不支持_返回_类型

SQLSTATE:0A000

AI 函数:“<functionName>”不支持将以下类型作为返回类型:“<typeName>”。 返回类型必须是 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>

AI_无效参数值错误

SQLSTATE:22032

参数“<argValue>”不支持提供的值“<argName>”。 支持的值为:<supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT (AI查询端点不支持结构化输出)

SQLSTATE:0A000

对于结构化输出支持,预期服务终结点任务类型为“聊天”,但发现终结点“<taskType>”为“<endpointName>”。

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE:0A000

参数 returnType 不支持提供的“<sqlExpr>”。

查询参数冲突错误 - AI搜索

SQLSTATE:0A000

vector_search SQL 函数检测到的冲突参数:<conflictParamNames><hint>

AI搜索嵌入列类型不支持错误

SQLSTATE:0A000

不支持包含嵌入列类型 vector_search<embeddingColumnType> SQL 函数。

AI搜索空查询参数错误

SQLSTATE:0A000

vector_search SQL 函数缺少查询输入参数,请指定至少一个来自:<parameterNames>

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE:0A000

参数 queryvector_search 的 SQL 函数不支持用于 hybrid 矢量搜索。 请改用 query_text

AI_SEARCH_混合文本未找到_错误

SQLSTATE:0A000

vector_search SQL 函数中找不到用于 hybrid 矢量搜索的查询文本。 请提供 query_text

AI 搜索索引类型不支持错误

SQLSTATE:0A000

不支持包含索引类型 vector_search<indexType> SQL 函数。

人工智能搜索缺失嵌入输入错误

SQLSTATE:0A000

必须为索引 query_vector 指定 <indexName>,因为它与嵌入模型终结点无关。

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE:0A000

在请求编码期间,未能将 vector_search SQL 函数查询从 spark 类型 <dataType> 具体化到 scala-native 对象,并出现错误:<errorMessage>

AI搜索查询类型不支持错误

SQLSTATE:0A000

不支持查询类型为 vector_search 的 SQL 函数 <unexpectedQueryType>。 请从以下选项中指定一个:<supportedQueryTypes>

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE:0A000

不支持 num_results 大于 vector_search<maxLimit> SQL 函数。 指定的限制为 <requestedLimit>。 请尝试再次使用num_results <= <maxLimit>

AI_主要驱动参数超出范围

SQLSTATE:22003

ai_top_drivers参数<param>必须介于<lo><hi>.

AI_TOP_DRIVERS_不支持的_汇总类型

SQLSTATE:0A000

ai_top_drivers 不支持 <aggName> 聚合。 选择以下支持的聚合之一: <allowed>

AI_主要驱动_不支持的维度类型

SQLSTATE:0A000

ai_top_drivers 不支持数值、映射或结构维度列。 列 <colName> 具有类型 <dataType>。 移除这个维度或将其转换为支持的类型。

Unsupported Label Type for AI Top Drivers (if a description is needed in a specific context)

SQLSTATE:0A000

ai_top_drivers 要求标签列类型为布尔值。 列 <colName> 具有类型 <dataType>。 更改标签列或将其转换成受支持的类型。

AI_顶级驱动程序_不支持的指标类型

SQLSTATE:0A000

ai_top_drivers 要求指标列类型为数值。 列 <colName> 具有类型 <dataType>。 更改指标列或将其强制转换为受支持的类型。

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE:07001

使用名称参数化查询时需要命名所有参数。 参数缺少名称 <exprs>

所有分区列不允许

SQLSTATE:KD005

无法将所有列用于分区列。

修改的计划不存在

SQLSTATE:42704

在没有现有计划或触发器的情况下无法更改表上的 <scheduleType>。 在尝试更改计划或触发器之前,请向表添加计划或触发器。

更改表列描述符重复

SQLSTATE:42710

ALTER TABLE <type><columnName> 多次指定了描述符“<optionName>”,这是无效的。

嵌套CTE中的模糊别名

SQLSTATE:42KD0

嵌套 CTE 中的名称 <name> 不明确。

请将 <config> 设置为“CORRECTED”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY”,则外部 CTE 定义将优先。

请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine”。

列或字段不明确

SQLSTATE:42702

列或字段 <name> 不明确且具有 <n> 个匹配项。

模糊列引用 (AMBIGUOUS_COLUMN_REFERENCE)

SQLSTATE:42702

<name> 不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。

此列指向其中一个 DataFrame,但 Spark 无法确定是指向哪一个。

请在联接 DataFrame 之前,通过 DataFrame.alias 将 DataFrame 命名为不同的别名,

然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")))指定该列。

模糊约束

SQLSTATE:42K0C

对约束 <constraint> 的引用不明确。

不明确的侧向列别名

SQLSTATE:42702

横向列别名 <name> 不明确且具有 <n> 个匹配项。

模糊引用

SQLSTATE:42704

引用 <name> 不明确,可能是:<referenceNames>

模糊字段引用

SQLSTATE:42000

对字段 <field> 的引用不明确。 它在架构中出现了 <count> 次。

不支持分析约束

SQLSTATE:0A000

不支持 ANALYZE CONSTRAINTS

ANSI配置无法禁用

SQLSTATE:56038

无法在此产品中禁用 ANSI SQL 配置 <config>

AQE_THREAD_INTERRUPTED

SQLSTATE:HY008

AQE 线程中断,可能是由于用户取消查询。

参数_非常数

SQLSTATE:42K08

函数 <functionName> 在需要常量参数的位置 <parameterName> 处包含参数 <pos>。 请单独计算参数 <sqlExpr>,并以常量形式传递结果。

SQLSTATE:22003

<message><alternative> 如有必要,请将 <config> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW

赋值参数个数不匹配

SQLSTATE:42802

分配或别名的列数或变量数:<numTarget> 与源表达式的数目:<numExpr> 不匹配。

SQLSTATE:42604

截止联接无效。

有关更多详细信息,请参阅 AS_OF_JOIN

不支持AVRO默认值

SQLSTATE:0A000

如果启用 rescuedDataColumn,则不支持使用默认值。 可以将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue 设置为 false 来删除此检查,但仍然不会使用默认值,而是使用 null 值。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE:22KD3

无法将 Avro <avroPath> 转换为 SQL <sqlPath>,因为原始编码的数据类型为 <avroType>,但是你尝试将字段读取为 <sqlType>,这会导致错误的答案。

若要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。

不支持AVRO位置字段匹配

SQLSTATE:0A000

如果启用 rescuedDataColumnfailOnUnknownFields,则不支持使用位置字段匹配。 可以删除这些选项继续操作。

批处理元数据未找到 (BATCH_METADATA_NOT_FOUND)

SQLSTATE:42K03

无法找到批处理 <batchMetadataFile>

BigQuery选项是互斥的

SQLSTATE:42616

必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据

二进制算术溢出

SQLSTATE:22003

<value1> <symbol> <value2> 导致溢出。 使用 <functionName> 忽略溢出问题并返回 NULL

BOOLEAN_STATEMENT_WITH_EMPTY_ROW

SQLSTATE:21000

布尔语句 <invalidStatement> 无效。 需要值类型为 BOOLEAN 的单个行,但得到空行。

内置目录

SQLSTATE:42832

<operation> 不支持内置目录。

在流数据集上调用不支持

SQLSTATE:42KDE

无法对流式处理数据集/数据帧调用 <methodName> 方法。

无法修改排序规则桶列

SQLSTATE:428FR

ALTER TABLE (ALTER|CHANGE) COLUMN 无法更改存储桶列的类型/子类型的排序规则,但在表 <columnName> 中找到了存储桶列 <tableName>

无法更改分区列

SQLSTATE:428FR

不支持对分区列使用 ALTER TABLE (ALTER|CHANGE) COLUMN,但却在表 <columnName> 中发现分区列 <tableName>

无法分配事件时间列(CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK)

SQLSTATE:42611

需要定义水印,才能重新分配事件时间列。 未能在流式处理查询中找到水印定义。

无法转换数据类型

SQLSTATE:42846

无法将 <sourceType> 强制转换为 <targetType>

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE:42846

无法将 Protobuf <protobufColumn> 转换为 SQL <sqlColumn>,因为架构不兼容(protobufType = <protobufType>,sqlType = <sqlType>)。

无法将 Protobuf 消息类型转换为 SQL 类型

SQLSTATE:42846

无法将 Protobuf 的 <protobufType> 转换为 SQL 类型 <toType>

无法将SQL类型转换为Protobuf字段类型

SQLSTATE:42846

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为架构不兼容(protobufType = <protobufType>,sqlType = <sqlType>)。

无法将 SQL 值转换为 PROTOBUF 枚举类型

SQLSTATE:42846

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为 <data> 不在枚举 <enumString> 的定义值中。

无法复制状态

SQLSTATE:0AKD0

无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。

SQLSTATE:42KDE

未能创建数据源表 <tableName>

有关详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE

无法解码网址

SQLSTATE:22546

无法解码提供的 URL:<url>。 请确保 URL 格式正确,然后重试。

无法删除系统所有的

SQLSTATE:42832

无法删除系统拥有的 <resourceType>

无法删除不明确的约束

SQLSTATE:42K0C

无法删除名称 <constraintName>CHECK 约束共享的约束

PRIMARY KEYFOREIGN KEY 约束。 可以删除 PRIMARY KEY

按查询划分的 FOREIGN KEY 约束:

ALTER TABLE .. DROP PRIMARY KEY

ALTER TABLE .. DROP FOREIGN KEY ..

无法建立连接

SQLSTATE:08001

无法与远程 <jdbcDialectName> 数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细错误消息:<causeErrorMessage>

无法建立无服务器连接

SQLSTATE:08001

无法与远程 <jdbcDialectName> 数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请允许从 Internet 到主机的入站流量,因为你使用的是无服务器计算。 如果你的网络策略不允许入站 Internet 流量,请使用非无服务器计算,或者可以联系 Databricks 代表了解无服务器专用网络。 ** 详细错误消息:<causeErrorMessage>

无法在转换中调用

SQLSTATE:0A000

数据集转换和作只能由驱动程序调用,而不能在其他数据集转换中调用;例如, dataset1.map(x => dataset2.values.count() * x) 由于值转换和计数作不能在 dataset1.map 转换内部执行,因此无效。 有关详细信息,请参阅 SPARK-28702。

无法加载函数类

SQLSTATE:46103

注册函数 <className> 时无法加载类 <functionName>,请确保它位于类路径上。

无法加载PROTOBUF类

SQLSTATE:42K03

无法加载名称为 <protobufClassName> 的 Protobuf 类。 <explanation>

SQLSTATE:58030

加载状态期间出错。

有关详细信息,请参阅 CANNOT_LOAD_STATE_STORE

无法合并不兼容的数据类型

SQLSTATE:42825

无法合并不兼容的数据类型 <left><right>。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请考虑在尝试合并之前将列强制转换为兼容的数据类型。

无法合并模式

SQLSTATE:42KD9

架构合并失败:

初始架构:

<left>

无法与初始架构合并的架构:

<right>

无法修改配置

SQLSTATE:46110

无法修改 Spark 配置值:<key>

另请参阅“https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements”。

无法解析小数

SQLSTATE:22018

无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。

无法解析间隔

SQLSTATE:22006

无法分析 <intervalString>。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。 如果问题仍然存在,请仔细检查输入值不为 null 或为空,然后重试。

无法解析JSON字段

SQLSTATE:2203G

无法将 JSON 标记类型 <fieldName> 的字段名称 <fieldValue> 和值 <jsonType> 分析为目标 Spark 数据类型 <dataType>

不能解析PROTOBUF描述符

SQLSTATE:22018

将描述符字节解析为 Protobuf FileDescriptorSet 时出错。

无法解析时间戳

SQLSTATE:22007

<message>。 使用 <func> 来容忍无效的输入字符串并改为返回 NULL

SQLSTATE:55019

初始化期间无法查询 MV/ST。

有关更多详细信息,请参阅 CANNOT_QUERY_TABLE_DURING_INITIALIZATION

无法读取归档文件

SQLSTATE:KD003

无法读取路径 <path> 处的文件,因为该文件已存档。 请调整查询筛选器以排除已存档的文件。

SQLSTATE:KD003

无法读取路径 <format> 处的 <path> 文件。

有关详细信息,请参阅 CANNOT_READ_FILE

无法从安全提供者读取敏感密钥

SQLSTATE:42501

无法从安全提供程序读取敏感密钥“<key>”。

无法识别HIVE_TYPE

SQLSTATE:429BB

无法识别 hive 类型字符串:<fieldType>,列:<fieldName>。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保你使用的是受支持的 Spark SQL 版本。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE:0AKD0

无法在 Hive 元存储对象中引用 Unity Catalog <objType>

无法移除保留属性

SQLSTATE:42000

无法移除预留属性:<property>

无法跨目录重命名

SQLSTATE:0AKD0

不允许跨目录重命名 <type>

无法跨架构重命名

SQLSTATE:0AKD0

不允许跨架构重命名 <type>

无法解析数据框列

SQLSTATE:42704

无法解析 DataFrame 列 <name>。 这可能是因为非法引用,如 df1.select(df2.col("a"))

无法解析星展开

SQLSTATE:42704

无法解析 <targetString>.* 给定的输入列 <columns>。 请检查指定的表或结构是否存在并且可在输入列中访问。

无法恢复路径的权限

SQLSTATE:58030

无法将创建的路径 <path> 上的权限设置回 <permission>

无法跨统一通信和华为移动服务进行浅克隆

SQLSTATE:0AKD0

无法跨 Unity Catalog 和 Hive 元存储浅度克隆表。

无法进行浅层克隆嵌套

SQLSTATE:0AKUC

无法对已经是浅度克隆的表 <table> 执行浅度克隆。

无法将非UC托管表作为源或目标进行浅克隆

SQLSTATE:0AKUC

只有 MANAGED 表类型支持浅度克隆。 表 <table> 不是 MANAGED 表。

SQLSTATE:0A000

无法更新 <table> 字段 <fieldName> 类型:

有关详细信息,请参阅 CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE:42846

无法将 <expression><sourceType> 强制转换为 <targetType>

<details>

无法使用KRYO

SQLSTATE:22KD3

无法加载 Kryo 序列化编解码器。 无法在 Spark Connect 客户端中使用 Kryo 序列化。 使用 Java 序列化、提供自定义编解码器或使用 Spark 经典版。

无法验证连接

SQLSTATE:08000

不支持验证 <jdbcDialectName> 连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。

SQLSTATE:58030

为提供程序 <providerClass> 写入状态存储文件时出错。

有关详细信息,请参阅 CANNOT_WRITE_STATE_STORE

SQLSTATE:22018

类型 <expression> 的值 <sourceType> 无法强制转换为 <targetType>,因为其格式错误。 根据语法更正值,或更改其目标类型。 使用 try_cast 来容许格式错误的输入并改为返回 NULL

有关更多详细信息,请参阅 CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE:22003

由于溢出,类型 <value> 的值 <sourceType> 无法强制转换为 <targetType>。 使用 try_cast 容许溢出,并返回 NULL

表插入中的类型溢出

SQLSTATE:22003

由于溢出,无法将 <sourceType> 类型分配到 <targetType> 类型列或变量 <columnName>。 对输入值使用 try_cast 以容许溢出并改为返回 NULL

目录未找到

SQLSTATE:42P08

找不到目录 <catalogName>。 请考虑将 SQL 配置 <config> 设置为目录插件。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE:56000

找不到检查点块 <rddBlockId>!

可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。

如果此问题仍然存在,可以考虑改用 rdd.checkpoint(),这个检查点比本地检查点慢,但容错能力更高。

循环类引用

SQLSTATE:42602

类中不能有循环引用,但获得了类 <t> 的循环引用。

类未覆盖预期的方法

SQLSTATE:38000

<className> 必须替代 <method1><method2>

类不受地图对象支持

SQLSTATE:0A000

MapObjects 不支持将类 <cls> 作为生成的集合。

无法支持洁净室命令

SQLSTATE:0A000

不支持清洁室命令

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE:42K05

引用清洁室内 <type> 的名称无效。 按照 [catalog].[schema].[<type>] 的格式,在清洁室内使用 <type> 的名称。

如果不确定要使用的名称,则可以运行“SHOW ALL IN CLEANROOM [clean_room]”,并使用“name”列中的值。

克隆历史无效选项

SQLSTATE:42613

使用历史记录进行克隆时指定了无效选项: <invalidOption>

有效语法:CREATE (或 REPLACE) TABLE ... 深 CLONE ... WITH HISTORY.

克隆_不支持_历史记录

SQLSTATE:0A000

不支持带历史记录的克隆。

云文件源文件未找到

SQLSTATE:42K03

已收到文件 <filePath> 的文件通知,但该文件不再存在。 请确保在处理文件之前该文件未被删除。 若要继续处理流,可以将 Spark SQL 配置 <config> 设置为 true。

云服务提供商错误

SQLSTATE:58000

云提供商错误:<message>

聚类列不匹配

SQLSTATE:42P10

指定的聚类分析与现有表 <tableName> 的聚类分析不匹配。

指定的聚类分析列:[<specifiedClusteringString>]。

现有聚类分析列:[<existingClusteringString>]。

不支持集群

SQLSTATE:42000

<operation>”不支持聚类分析。

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE:0A000

请联系 Databricks 代表来启用群集自动功能。

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE:56038

请启用 clusteringTable.enableClusteringTableFeature 以使用 CLUSTER BY AUTO。

自动聚类需预测优化

SQLSTATE:56038

CLUSTER BY AUTO 要求启用预测性优化。

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE:56038

仅 UC 托管表支持 CLUSTER BY AUTO。

SQLSTATE:56038

编解码器 <codecName> 不可用。

有关更多详细信息,请参阅 CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE:42704

找不到编解码器 <codecName> 的短名称。

排序无效名称

SQLSTATE:42704

<collationName> 不表示正确的排序规则名称。 建议的有效排序规则名称:[<proposals>]。

排序无效提供程序

SQLSTATE:42704

<provider> 不表示正确的排序规则提供程序。 支持的提供程序包括:[<supportedProviders>]。

SQLSTATE:42P21

无法确定要用于字符串函数和运算符的排序规则。

有关更多详细信息,请参阅 COLLATION_MISMATCH

SQLSTATE:54000

无法使用超过数组大小限制 <numberOfElements><maxRoundedArrayLength> 元素创建数组,

有关详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED

列别名不允许

SQLSTATE:42601

<op> 中不允许使用列别名。

列已存在

SQLSTATE:42711

<columnName> 已存在。 选择其他名称或重命名现有列。

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE:0A000

字段 <pos> 中的某些值与列数组类型不兼容。 预期的类型 <type>

列掩码_基于属性访问控制_不匹配

SQLSTATE:0A000

无法解析列掩码 <tableName>,因为从策略继承的列掩码与显式定义的列掩码之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。

列掩码检查约束不支持

SQLSTATE:0A000

不支持使用列掩码策略对表 CHECK 创建 <tableName> 约束。

列掩码通过列名重复

SQLSTATE:42734

<statementType> 语句尝试将列掩码策略分配到某个列,而该列包含 USING COLUMNS 列表中的其他两个或更多个具有名称 <columnName> 的被引用列,这是无效操作。

SQLSTATE:0A000

不支持 <tableName> 的列掩码策略:

有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED

列掩码不兼容的模式更改

SQLSTATE:0A000

无法从表 <statementType> <columnName> 执行 <tableName>,因为它已在列 <maskedColumn> 的列掩码策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。

列掩码合并不支持的来源

SQLSTATE:0A000

MERGE INTO 操作不支持源表 <tableName> 中的列掩码策略。

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO 操作不支持写入具有列掩码策略的表 <tableName>

列掩码多部分目标列名

SQLSTATE:42K05

此语句尝试将列掩码策略分配到具有多个名称部分的列 <columnName>,这是无效操作。

列掩码使用列名进行多部分处理

SQLSTATE:42K05

此语句尝试将列掩码策略分配到某个列,而 USING COLUMNS 列表包含的名称 <columnName> 具有多个名称部分,这是无效操作。

列掩码未启用

SQLSTATE:56038

未启用对定义列掩码的支持

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

列掩码策略仅在 Unity Catalog 中受支持。

COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE:0A000

具有列掩码的 SHOW PARTITIONS 表不支持 <format> 命令。

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED(列掩码表克隆源不支持)

SQLSTATE:0A000

不支持使用列掩码策略从表 <mode> 进行 <tableName> 克隆。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用列掩码策略将 <mode> 克隆到表 <tableName>

列掩码不支持常量作为参数

SQLSTATE:0AKD1

不支持将常数用作列掩码策略中的参数。 请更新 SQL 命令以从列掩码定义中删除常量,然后再次重试该命令。

COLUMN_MASKS_UNSUPPORTED_DATA_TYPE(列掩码不支持的数据类型)

SQLSTATE:0AKDC

用作列掩码策略的函数 <functionName> 包含数据类型不受支持的 <dataType>参数。

列掩码不支持提供者

SQLSTATE:0A000

无法执行 <statementType> 命令,因为不支持使用表提供程序“<provider>”为目标数据源分配列掩码策略。

列掩码不支持子查询

SQLSTATE:0A000

无法对表 <operation> 执行 <tableName>,因为表中包含一个或多个具有子查询表达式的列掩码策略,尚不支持此操作。 请联系表的所有者以更新列掩码策略,以便继续操作。

列掩码使用与目标列相同的列名

SQLSTATE:42734

<columnName> 与目标列同名,这是无效的;请从 USING COLUMNS 列表中删除该列,然后重试命令。

列在表中未定义

SQLSTATE:42703

<colType><colName> 未在表 <tableName> 中定义,定义的表列为:<tableCols>

列未找到

SQLSTATE:42703

找不到列 <colName>。 根据 SQL 配置 <caseSensitiveConfig> 验证列名的拼写和正确性。

列序数超出范围

SQLSTATE:22003

列序号超出边界。 表中的列数为 <attributesLength>,但列序号为 <ordinal>

属性如下:<attributes>

逗号前置约束错误

SQLSTATE:42601

约束定义前出现意外的“,”。 确保未定义列(和预期)时,约束子句不以逗号开头。

尚未实现连接注释

SQLSTATE:42000

命令 COMMENT ON CONNECTION 尚未实现

比较器返回空值

SQLSTATE:22004

对于 NULL<firstValue> 之间的比较,比较器返回了 <secondValue>

它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。

若要恢复已弃用的行为,即,将 NULL 视为 0(使用“等于”运算符),必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。

SQLSTATE:42K09

无法处理表达式的输入数据类型:<expression>

有关更多详细信息,请参阅 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

并发查询

SQLSTATE:0A000

此查询的另一个实例 [id:<queryId>] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>,新 runId:<newQueryRunId>]。

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE:53000

群集中所需的最小可用槽数是 <numTasks>,而群集只有 <numSlots> 个可用槽。 查询将停止或失败。 增加群集大小以继续。

并行流日志更新

SQLSTATE:40000

并发更新日志。 检测到多个流式处理作业的 <batchId>

请确保一次只有一个流式处理作业在特定检查点位置运行。

配置不可用

SQLSTATE:42K0I

配置 <config> 不可用。

目录结构冲突

SQLSTATE:KD009

检测到冲突的目录结构。

可疑路径:

<discoveredBasePaths>

如果提供的路径是分区目录,请在数据源的选项中设置“basePath”,以指定表的根目录。

如果有多个根目录,请单独加载它们,然后将它们联合起来。

冲突的分区列名称

SQLSTATE:KD009

检测到的分区列名称冲突:

<distinctPartColLists>

对于已分区表目录,数据文件应仅位于叶目录中。

同一级别的目录应具有相同的分区列名称。

请检查以下目录是否有意外文件或不一致的分区列名称:

<suspiciousPaths>

冲突的提供者

SQLSTATE:22023

指定的提供程序 <provider> 与现有目录提供程序 <expectedProvider> 不一致。 请使用“USING <expectedProvider>”,然后重试该命令。

SQLSTATE:56K00

泛型 Spark 连接错误。

有关详细信息,请参阅 CONNECT

连接已存在

SQLSTATE:42000

连接无法创建连接 <connectionName>,因为它已存在。

选择其他名称、删除或替换现有连接,或者添加 IF NOT EXISTS 子句以容许现有的连接。

连接名称不能为空

SQLSTATE:42000

无法执行此命令,因为连接名称必须非空。

未找到连接

SQLSTATE:42000

无法执行此命令,因为找不到连接名称 <connectionName>

连接选项不受支持

SQLSTATE:42000

<connectionType>”类型的连接不支持以下选项:<optionsNotSupported>。 支持的选项:<allowedOptions>

连接类型不支持

SQLSTATE:42000

无法创建“<connectionType>”类型的连接。 支持的连接类型:<allowedTypes>

SQLSTATE:56K00

泛型会话迁移错误(userId:<userId>、sessionId:<sessionId>、serverSessionId:<serverSessionId>)。

有关更多详细信息,请参阅 CONNECT_SESSION_MIGRATION

约束需要统一目录

SQLSTATE:0A000

表约束仅在 Unity Catalog 中受支持。

转换_输入无效

SQLSTATE:22018

无法将值 <str> (<fmt> 转换为 <targetType>,因为它的格式错误。 请根据语法更正值,或更改其格式。 使用 <suggestion> 来容许格式错误的输入并改为返回 NULL

SQLSTATE:21S01

无法写入 <tableName>,原因是

有关更多详细信息,请参阅 COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE:0A000

方案 <scheme> 无效。 COPY INTO 源凭证目前仅支持 s3/s3n/s3a/wasbs/abfss。

需要复制到凭证中

SQLSTATE:42601

COPY INTO 源凭证必须指定 <keyList>

无法复制到重复文件中——不允许复制

SQLSTATE:25000

复制的文件在并发 COPY INTO 操作中提交。 请稍后再试。

不允许复制到加密中

SQLSTATE:0A000

方案 <scheme> 无效。 COPY INTO 源加密目前仅支持 s3/s3n/s3a/abfss。

复制到 Azure 的加密不支持

SQLSTATE:0A000

COPY INTO 加密仅支持 ADLS Gen2 或 abfss:// 文件方案

复制需加密

SQLSTATE:42601

COPY INTO 源加密必须指定“<key>”。

需要加密并预计的复制

SQLSTATE:42601

无效加密选项 <requiredKey>COPY INTO 源加密必须指定“<requiredKey>”=“<keyValue>”。

复制到特性中不兼容的设置

SQLSTATE:42613

COPY INTO 功能“<feature>”与“<incompatibleSetting>”不兼容。

禁止将数据复制到非盲追加模式

SQLSTATE:25000

除了追加数据外,COPY INTO 不能与其他事务同时运行。 请稍后再试。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE:25000

COPY INTO 无法加载其状态,超过最大重试次数。

复制操作中,架构与目标表不匹配

SQLSTATE:42KDG

复制到 Delta 表(表:<table>)时检测到架构不匹配。

这可能表示传入数据存在问题,或者 Delta 表架构通过以下设置根据传入数据进行了自动演变:

COPY_OPTIONS(‘mergeSchema’ = ‘true’)

架构差异:

<schemaDiff>

复制到源文件格式不受支持

SQLSTATE:0A000

源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 中的一种。 不支持在 Delta 表上使用 COPY INTO 作为源,因为在进行 OPTIMIZE 操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false 来关闭此检查。

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE:42KD9

源目录不包含 <format> 类型的任何可分析文件。 请检查“<source>”的内容。

通过将“<config>”设置为“false”,可以将错误静音。

SQLSTATE:55019

处理 COPY INTO 状态时出现内部错误。

有关详细信息,请参阅 COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE:42601

未能分析 COPY INTO 命令。

有关详细信息,请参阅 COPY_INTO_SYNTAX_ERROR

复制到不支持的功能

SQLSTATE:0A000

不支持 COPY INTO 功能“<feature>”。

COPY_UNLOAD_格式类型_不支持

SQLSTATE:42000

无法卸载格式为“<formatType>”的数据。 <connectionType> 的受支持格式包括:<allowedFormats>

创建外部架构功能尚未实现

SQLSTATE:42000

命令 CREATE FOREIGN SCHEMA 尚未实现

外部表创建尚未实现

SQLSTATE:42000

命令 CREATE FOREIGN TABLE 尚未实现

不支持创建或刷新MV

SQLSTATE:42601

不支持 CREATE OR REFRESH STREAMING TABLE。 请改用 CREATE OR REPLACE MATERIALIZED VIEW

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE:0A000

无法 CREATEREFRESH 指定了 ASYNC 的具体化视图或流式处理表。 请从 ASYNCCREATE 语句中删除 REFRESH,或使用 REFRESH ASYNC 异步刷新现有具体化视图或流式处理表。

创建无别名永久视图

SQLSTATE:0A000

不允许在未显式分配表达式 <name> 的别名的情况下创建永久视图 <attr>

创建表列描述符重复

SQLSTATE:42710

CREATE TABLE<columnName> 多次指定了描述符“<optionName>”,这是无效的。

SQLSTATE:21S01

无法创建视图 <viewName>,原因为

有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH

资凭证丢失

SQLSTATE:42601

创建或更新外部位置时请提供凭据。

凭据目的不匹配

SQLSTATE:42809

凭据 <credentialName> 具有用途 <actualPurpose> ,但命令中给出的用途是 <expectedPurpose>

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE:0A000

使用 enforceSchemarescuedDataColumn 时,无法设置 CSV 选项 failOnUnknownFields,因为列是按名称读取的,而不是序号。

循环函数引用

SQLSTATE:42887

检测到循环函数引用:<path>

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE:56038

未在帐户中启用 Databricks Delta。<hints>

SQLSTATE:42K09

由于数据类型不匹配,无法进行解析 <sqlExpr>

有关更多详细信息,请参阅 DATATYPE_MISMATCH

数据类型缺少大小

SQLSTATE:42K01

DataType <type> 需要长度参数,例如 <type>(10)。 请指定长度。

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE:25000

写入世系失败:缺少与 CLM/RLS 策略对应的关系。

数据源已存在

SQLSTATE:42710

数据源“<provider>”已存在。 请为新数据源选择其他名称。

数据源外部错误 (DATA_SOURCE_EXTERNAL_ERROR)

SQLSTATE:KD010

保存到外部数据源时遇到错误。

数据源不存在 (DATA_SOURCE_NOT_EXIST)

SQLSTATE:42704

找不到数据源“<provider>”。 请确保已注册该数据源。

数据源未找到 (DATA_SOURCE_NOT_FOUND)

SQLSTATE:42K02

未能找到数据源:<provider>。 请确保提供程序名称正确,并且包已正确注册且与 Spark 版本兼容。

数据源选项包含无效字符

SQLSTATE:42602

选项 <option> 不能为空,且不应包含无效字符、查询字符串或参数。

数据源选项是必填项

SQLSTATE:42601

选项 <option> 是必需的。

DATA_SOURCE_TABLE_SCHEMA_MISMATCH (数据源表模式不匹配)

SQLSTATE:42K03

数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或要创建表,请避免指定该架构。

数据源架构:<dsSchema>

预期架构:<expectedSchema>

数据源URL不允许

SQLSTATE:42KDB

数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。

日期时间字段超出范围

SQLSTATE:22023

<rangeMessage>。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

日期时间溢出

SQLSTATE:22008

日期/时间操作溢出:<operation>

SQLSTATE:KD000

已超出数据源 <sourceName>的 API 配额。

有关详细信息,请参阅 DC_API_QUOTA_EXCEEDED

SQLSTATE:KD000

未能连接到 <sourceName> 源。 错误代码:<errorCode>

有关更多详情,请参阅 DC_CONNECTION_ERROR

SQLSTATE:KD000

Dynamics API 调用中出错,errorCode:<errorCode>

有关更多详细信息,请参阅 DC_DYNAMICS_API_ERROR

SQLSTATE:KD000

Netsuite JDBC 调用中出错,errorCode:<errorCode>

有关更多详细信息,请参阅 DC_NETSUITE_ERROR

SQLSTATE:未分配

架构更改发生在 <tableName> 源的表 <sourceName> 中。

有关更多详细信息,请参阅 DC_SCHEMA_CHANGE_ERROR

SQLSTATE:KD000

ServiceNow API 调用中出错,errorCode:<errorCode>

有关更多详细信息,请参阅 DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE:KD000

对象 <objName> 的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。

若要重试,可以重新运行整个管道或刷新此特定的目标表。 如果错误仍然存在,请提交票证。 作业 ID:<jobId>。 作业状态:<jobStatus>

SQLSTATE:KD000

Sharepoint API 调用中出错,errorCode:<errorCode>

有关更多详细信息,请参阅 DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE:KD000

<sourceName> API 调用中发生错误。 源 API 类型:<apiType>。 错误代码:<errorCode>

有时,在达到 <sourceName> API 限制时,可能会发生这种情况。 如果你未超过 API 限制,请尝试重新运行连接器。 如果问题仍然存在,请提交票证。

SQLSTATE:0A000

数据源 <sourceName> 中出现“不受支持”错误。

有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR

SQLSTATE:KD000

Workday RAAS API 调用发生错误,errorCode:<errorCode>

有关更多详情,请参阅 DC_WORKDAY_RAAS_API_ERROR

小数精度超出最大精度

SQLSTATE:22003

小数精度 <precision> 超过最大精度 <maxPrecision>

默认数据库不存在

SQLSTATE:42704

默认数据库 <defaultDatabase> 不存在,请先创建该数据库,或将默认数据库更改为 <defaultDatabase>

默认文件未找到

SQLSTATE:42K03

可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时,或者基础文件已删除,可以通过重启群集手动使磁盘缓存失效。

默认位置无效

SQLSTATE:42608

无法将 DEFAULTMERGEINSERTUPDATE 命令中的 SET VARIABLE 关键字直接分配给目标列,因为它是表达式的一部分。

例如: UPDATE 允许 SET c1 = DEFAULT ,但 UPDATE T 不允许 SETc1 =DEFAULT + 1

默认不支持

SQLSTATE:42623

无法执行 <statementType> 命令,因为不支持使用表提供程序“DEFAULT”为目标数据源分配 <dataSource> 值。

描述_JSON_未扩展

SQLSTATE:0A000

DESCRIBE TABLE ...仅当指定 [EXTENDED|FORMATTED] 时,才支持 AS JSON。

例如:DESCRIBE EXTENDED <tableName> 支持 AS JSON,但 DESCRIBE <tableName> AS JSON 不受支持。

不同 Delta 表由流媒体源读取

SQLSTATE:55019

流式处理查询从意外的 Delta 表(id =“<newTableId>”)中读取。

它用于根据检查点从另一个 Delta 表(id =“<oldTableId>”)中读取。

当更改代码以从新表读取,或删除并重新创建表时,

可能会发生此错误。 请还原更改或删除流式处理查询检查点

以从头开始。

不支持的 DISTINCT 窗口函数

SQLSTATE:0A000

不支持不同的窗口函数:<windowExpr>

SQLSTATE:22012

被零除。 使用 try_divide 容许除数为 0,并返回 NULL。 如有必要,请将 <config> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 DIVIDE_BY_ZERO

不支持DLT期望

SQLSTATE:56038

仅在 DLT 管道中支持预期。

不支持按视图群集

SQLSTATE:56038

具有 MATERIALIZED 子句的 CLUSTER BY 视图仅在 DLT 管道中受支持。

DLT_查看位置不支持

SQLSTATE:56038

物化视图的位置仅在 DLT 数据流管道中受支持。

DLT_视图_模式_带有_类型_不支持

SQLSTATE:56038

仅 DLT 管道支持具有指定类型的具体化视图架构。

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE:56038

视图中的 CONSTRAINT 子句仅在 DLT 管道中受支持。

删除计划不存在

SQLSTATE:42000

在没有现有计划或触发器的情况下无法删除表上的 SCHEDULE

重复的CTE名称

SQLSTATE:42602

CTE 定义不能有重复的名称:<duplicateNames>

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE:42713

箭头结构中不允许出现重复的字段名称,已得到 <fieldNames>

重复的映射键

SQLSTATE:23505

找到重复的映射键 <key>,请检查输入数据。

如果你要删除重复的键,可以将 <mapKeyDedupPolicy> 设置为“LAST_WIN”,使最后插入的键优先。

重复的指标名称

SQLSTATE:42710

指标名称不唯一:<metricName>。 同一名称不能用于具有不同结果的指标。

但是,允许具有相同结果和名称的多个指标实例(例如自联接)。

重复分配

SQLSTATE:42701

列或变量 <nameList> 作为赋值目标出现多次。

重复条款

SQLSTATE:42614

发现重复子句:<clauseName>。 请删除其中的一个。

作用域内的重复条件

SQLSTATE:42734

在作用域中找到重复条件 <condition> 。 请删除其中的一个。

SQLSTATE:42734

找到重复的处理程序。 请删除其中的一个。

有关详细信息,请参阅DUPLICATE_EXCEPTION_HANDLER

DUPLICATE_KEY

SQLSTATE:23505

发现重复键 <keyColumn>

SQLSTATE:4274K

对例程 <routineName> 的调用无效,因为它包含对同一参数名称 <parameterName> 的多个参数赋值。

有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

重复例程参数名称 (DUPLICATE_ROUTINE_PARAMETER_NAMES)

SQLSTATE:42734

在用户定义的例程 <routineName> 的参数列表中发现重复的名称:<names>

重复的例程返回列

SQLSTATE:42711

在用户定义的例程 RETURNS<routineName> 子句列列表中发现重复的列:<columns>

不允许发出超过时间标记的行

SQLSTATE:42815

上一个节点发出了 eventTime=<emittedRowEventTime> 早于 current_watermark_value=<currentWatermark> 的行

这可能会导致执行管道下游有状态运算符出现正确性问题。

请更正运算符逻辑,以在当前全局水印值之后发出行。

空的JSON字段值

SQLSTATE:42604

无法分析数据类型 <dataType> 的空字符串。

本地文件在阶段访问查询中为空

SQLSTATE:22023

暂存 <operation> 查询中包含空本地文件

数据源不支持空架构

SQLSTATE:0A000

<format> 数据源不支持编写空架构或嵌套的空架构。 请确保数据架构至少有一列或多列。

编码器未找到

SQLSTATE:42704

找不到 Spark SQL 内部表示形式的 <typeName> 类型编码器。

考虑将输入类型更改为“<docroot>/sql-ref-datatypes.html”支持的其中一个类型。

标签结束未见标签开始

SQLSTATE:42K0L

没有开始标签情况下结束标签 <endLabel> 无法存在。

结束偏移量的主题分区偏移量大于最新可用触发器偏移量

SQLSTATE:KD000

在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

最新偏移量:<latestOffset>,结束偏移量:<endOffset>

结束偏移量对主题分区大于预取偏移量

SQLSTATE:KD000

对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

预提取的偏移量:<prefetchedOffset>,结束偏移量:<endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT (错误读取AVRO数据: 未知指纹)

SQLSTATE:KD00B

读取 avro 数据时出错 -- 遇到未知指纹: <fingerprint>不确定要使用的架构。

如果在启动 Spark 上下文后注册了其他架构,则可能会发生这种情况。

事件日志需要共享计算资源

SQLSTATE:42601

无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。

事件日志 TVF 不支持流水线

SQLSTATE:0A000

EVENT_LOG 使用“架构”字段或发布到默认存储的管道不支持 Table-Valued 函数。

若要查询事件日志,请在管道设置中指定event_log字段,将其发布到元存储。

有关详细信息,请参阅“监控 DLT 管道”文档: https://docs.databricks.com/aws/en/dlt/observability

事件日志不可用

SQLSTATE:55019

没有任何适用于 <tableOrPipeline> 的事件日志。 请稍后在生成事件后重试

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE:42832

<tableIdentifier> 的表类型为 <tableType>

查询事件日志仅支持具体化视图、流式表或 DLT 管道。

事件时间不在时间戳类型上

SQLSTATE:42K09

事件时间 <eventName><eventType> 类型无效,应为“TIMESTAMP”。

超出限制长度

SQLSTATE:54006

超过 char/varchar 类型长度限制:<limit>

除外_嵌套列_类型无效

SQLSTATE:428H2

EXCEPT<columnName> 已解析,本应该为 StructType,但发现类型为 <dataType>

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE:42702

EXCEPT 列表中的列必须非重复且不重叠,但出现了 (<columns>)。

减去未匹配的已解决列

SQLSTATE:42703

EXCEPT 列 [<exceptColumns>] 已解析,但不与星形扩展中的任何 [<expandedColumns>] 列匹配。

结构扩展过程中未解析的列异常

SQLSTATE:42703

无法解析 <objectName> 子句中的列/字段名称 EXCEPT。 你是否指的是下列其中一项:[<objectList>]?

注意:在结构扩展期间,EXCEPT 子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。

执行器_广播_连接_内存不足

SQLSTATE:53200

内存不足,无法生成广播关系 <relationClassName>。 关系大小 = <relationSize>. 此任务使用的内存总量 = <taskMemoryUsage>。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>。 [sparkPlanId: <sparkPlanId>] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。

EXECUTOR_BROADCAST_JOIN_STORE_OOM

SQLSTATE:53200

内存不足,无法存储广播关系 <relationClassName>。 关系大小 = <relationSize>. StorageLevel = <storageLevel>。 [sparkPlanId: <sparkPlanId>] 使用“set spark.sql.autoBroadcastJoinThreshold=-1”或联接提示强制随机联接来禁用此查询的广播。

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE:42701

USING 命令的 EXECUTE IMMEDIATE 子句包含多个具有相同别名 (<aliases>) 的参数,这是无效的;请更新命令以指定唯一的别名,然后重试。

期望永久视图而非临时视图

SQLSTATE:42809

<operation>”需要永久视图,但 <viewName> 是临时视图。

SQLSTATE:42809

应该为“<operation>”提供表,但 <viewName> 是视图。

有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW

SQLSTATE:42809

<tableName> 不支持 <operation>

有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE:42846

无法将行解码为表达式的值:<expressions>

表达式编码失败 (EXPRESSION_ENCODING_FAILED)

SQLSTATE:42846

无法将表达式的值 <expressions> 解码为行。

表达式类型不可排序

SQLSTATE:42822

列表达式 <expr> 无法排序,因为其类型 <exprType> 不可排序。

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE:42893

无法在源表<sourceTable>上运行操作,因为浅表克隆<targetTable>仍然存在,其状态无效。 如果确实想要继续此操作,请通过显式运行 DROP 命令清理这个浅表克隆。

外部表无效方案

SQLSTATE:0A000

外部表不支持 <scheme> 方案。

FABRIC_REFRESH_INVALID_SCOPE (无效的刷新范围)

SQLSTATE:0A000

运行“REFRESH FOREIGN <scope> <name>”时出错。 无法直接刷新 Fabric <scope>,请改用“REFRESH FOREIGN CATALOG <catalogName>”刷新 Fabric Catalog。

执行用户自定义函数失败

SQLSTATE:39000

用户自定义函数 (<functionName>: (<signature>) =><result>) 由于 <reason> 而失败。

函数调用失败

SQLSTATE:38000

为调用准备函数 <funcName> 失败。 请仔细检查函数的参数。

SQLSTATE:HV000

操作上的 JDBC <url> 失败:

有关详细信息,请参阅 FAILED_JDBC

解析结构类型失败

SQLSTATE:22018

解析结构 <raw> 失败。

SQLSTATE:KD001

读取文件 <path> 时出错。

有关更多详细信息,请参阅 FAILED_READ_FILE

使用KRYO注册类失败

SQLSTATE:KD000

无法向 Kryo 注册课程。

重命名路径失败

SQLSTATE:42K04

无法将 <sourcePath> 重命名为 <targetPath>,因为目标已存在。

无法重命名临时文件

SQLSTATE:58030

无法将临时文件 <srcPath> 重命名为<dstPath>,因为 FileSystem.rename 返回 false。

行转换为JSON失败

SQLSTATE:2203G

未能将类 <value> 的行值 <class> 转换为 JSON 格式的目标 SQL 类型 <sqlType>

无法加载例程

SQLSTATE:38000

无法加载例程 <routineName>

解析失败_内容过于复杂

SQLSTATE:54001

该语句(包括潜在的 SQL 函数和引用的视图)太复杂,无法分析。

若要缓解此错误,可将语句划分为多个不太复杂的区块。

功能未启用

SQLSTATE:56038

功能 <featureName> 未启用。 请考虑将配置 <configKey> 设置为 <configValue> 以启用此功能。

功能_不在_经典仓库

SQLSTATE:56038

<feature> 在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。

FEATURE_REQUIRES_UC

SQLSTATE:0AKUD

<feature> 在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。

功能不可用

SQLSTATE:56038

<feature> 在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。

字段已存在

SQLSTATE:42710

无法 <op> 列,因为 <fieldNames> 已在 <struct> 中存在。

字段未找到

SQLSTATE:42704

<fieldName> 中没有此类结构字段 <fields>

文件在暂存路径中已存在

SQLSTATE:42K04

暂存路径 <path> 中的文件已存在,但未设置 OVERWRITE

FLATMAPGROUPSWITHSTATE 用户函数错误 (USER_FUNCTION_ERROR)

SQLSTATE:39000

用户在 flatMapGroupsWithState 中提供的函数出错。 原因:<reason>

禁止的数据源在无服务器环境中

SQLSTATE:0A000

不允许在无服务器计算中查询数据源 <source>。 无服务器计算仅支持 <allowlist> 数据源。

禁止操作

SQLSTATE:42809

不允许对 <statement> 执行 <objectType> 操作:<objectName>

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE:39000

用户在 foreach 批处理接收器中提供的函数中发生错误。 原因:<reason>

针对每个用户的函数错误

SQLSTATE:39000

用户在 foreach 接收器中提供的函数中发生错误。 原因:<reason>

外键不匹配

SQLSTATE:42830

外键父列 <parentColumns> 与主键子列 <childColumns> 不匹配。

外部对象名称不能为空

SQLSTATE:42000

无法执行此命令,因为外部 <objectType> 名称必须非空。

发现多个数据源

SQLSTATE:42710

检测到名称为“<provider>”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。

来自JSON的冲突模式更新

SQLSTATE:42601

from_json 推理在以下位置遇到冲突的架构更新:<location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE:42601

from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>)

在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord

选项“columnNameOfCorruptRecord”。

从JSON格式损坏的模式

SQLSTATE:42601

from_json 推理无法读取存储在以下位置的架构:<location>

FROM_JSON_INFERENCE_FAILED (从 JSON 推断失败)

SQLSTATE:42601

from_json 无法推断架构。 请改为提供一个架构。

不支持FROM_JSON推断

SQLSTATE:0A000

仅当定义流式处理表时,才支持 from_json 推理

SQLSTATE:42601

from_json 配置无效:

有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE:22KD3

from_json 无法从 <old> 发展为 <new>

函数参数必须命名

SQLSTATE:07001

函数 <function> 需要命名参数。 参数缺少名称 <exprs>。 请更新函数调用以添加所有参数的名称,例如 <function>(param_name => ...)

生成列,默认值

SQLSTATE:42623

列不能同时具有默认值和生成表达式,但列 <colName> 具有默认值 (<defaultValue>) 和生成表达式 (<genExpr>)。

获取表格按类型_Hive版本不支持

SQLSTATE:56038

Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。

获取预热追踪失败

SQLSTATE:42601

未能获取预热跟踪。 原因:<cause>

热身跟踪功能不允许

SQLSTATE:42601

不允许使用函数 get_warmup_tracing()。

石墨接收器_协议无效

SQLSTATE:KD000

无效的 Graphite 协议:<protocol>

石墨接收器属性缺失

SQLSTATE:KD000

Graphite 接收器需要“<property>”属性。

分组列不匹配

SQLSTATE:42803

在分组列 <grouping> 中找不到分组 (<groupingColumns>) 的列。

分组ID列不匹配

SQLSTATE:42803

grouping_id (<groupingIdColumn>) 的列与分组列 (<groupByColumns>) 不匹配。

分组大小超过限制

SQLSTATE:54000

分组集大小不能大于 <maxSize>

SQLSTATE:42903

GROUP BY 中不允许使用聚合函数,但找到了 <sqlExpr>

有关更多详细信息,请参阅 GROUP_BY_AGGREGATE

按位置分组聚合

SQLSTATE:42903

GROUP BY <index> 引用了包含聚合函数的表达式 <aggExpr>GROUP BY 中不允许使用聚合函数。

分组位置超出范围

SQLSTATE:42805

GROUP BY 位置 <index> 不在选择列表中(有效范围为 [1, <size>])。

分组表达式类型不可排序

SQLSTATE:42822

表达式 <sqlExpr> 无法用作分组表达式,因为其数据类型 <dataType> 不是可排序的数据类型。

SQLSTATE:KD00F

尝试从 HDFS 读取时,HTTP 请求失败。

有关更多详细信息,请参阅 HDFS_HTTP_ERROR

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE:22546

<function> 的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如 hll_sketch_agg 函数生成的缓冲区)。

HLL_INVALID_LG_K

SQLSTATE:22546

<function> 的调用无效;lgConfigK 值必须介于 <min><max> 之间,包括:<value>

HLL_UNION_DIFFERENT_LG_K

SQLSTATE:22000

草图具有不同的 lgConfigK 值:<left><right>。 将 allowDifferentLgConfigK 参数设置为 true 以使用不同的 <function> 值调用 lgConfigK

HMS_FEDERATION_浅克隆_未找到_IN_UC

SQLSTATE:22KD1

浅克隆路径“<path>”无法解析为Unity目录中的表。 请确保该表存在并且已集成到 Unity Catalog。

SQLSTATE:0A000

尝试使用旧的固定点分析器和单传递解析程序解析查询或命令时出现失败。

有关更多详细信息,请参阅 HYBRID_ANALYZER_EXCEPTION

标识符_名称部分过多

SQLSTATE:42601

<identifier> 不是有效的标识符,因为它的名称部分超过 2 个。

身份列重复序列生成器选项

SQLSTATE:42601

重复的 IDENTITY 列序列生成器选项:<sequenceGeneratorOption>

标识列不合法步骤

SQLSTATE:42611

IDENTITY 列步长不能为 0。

唯一标识列不支持的数据类型

SQLSTATE:428H2

<dataType> 列不支持 DataType IDENTITY

非法的星期几

SQLSTATE:22009

非法输入一周中的某天:<string>

SQLSTATE:42601

提供给状态存储的非法值

有关更多详细信息,请参阅 ILLEGAL_STATE_STORE_VALUE

连接选项的不当URI方案

SQLSTATE:42616

由于为连接选项“<uri>”提供的 URI <option> 架构不当,无法创建连接。

允许的架构:<allowedSchemes>

如果架构不存在于 URI 中,请添加架构,或从允许的值指定架构。

无法比较的透视列

SQLSTATE:42818

无效透视列 <columnName>。 透视列必须可比较。

列类型不兼容 (INCOMPATIBLE_COLUMN_TYPE)

SQLSTATE:42825

只能对具有兼容列类型的表执行 <operator><columnOrdinalNumber> 表的 <tableOrdinalNumber> 列是 <dataType1> 类型,与第一个表同一列的 <dataType2> 不兼容。<hint>

不兼容的数据源注册

SQLSTATE:56038

检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:<message>

SQLSTATE:KD000

无法为表 <tableName> 写入不兼容的数据:

有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE:42613

联接类型 <joinType1><joinType2> 不兼容。

视图模式更改不兼容

SQLSTATE:51024

视图 <viewName> 的 SQL 查询包含不兼容的架构更改,无法解析列 <colName>。 需要名为 <expectedNum><colName> 列,但收到的列为 <actualCols>

请尝试通过运行 <suggestion> 重新创建视图。

SQLSTATE:42K01

不完整的复杂类型:

有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION

版本间行为不一致

SQLSTATE:42K0B

由于升级到,可能会得到其他结果

有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION

参数数量不正确

SQLSTATE:42605

<failure><functionName> 至少需要 <minArgs> 个参数,最多需要 <maxArgs> 个参数。

错误的加速率

SQLSTATE:22003

<rowsPerSecond> rowsPerSecond 的最大偏移量为 <maxSeconds>,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>

不确定的排序

SQLSTATE:42P22

无法确定要用于字符串操作的排序规则。 使用 COLLATE 子句显式设置排序规则。

表达式中的不明确排序规则

SQLSTATE:42P22

<expr> 的数据类型具有不确定的排序规则。 使用 COLLATE 子句显式设置排序规则。

架构中不可确定的排序规则

SQLSTATE:42P22

架构包含不确定的排序规则:[<columnPaths>]。 使用 COLLATE 子句显式设置排序规则。

索引已存在

SQLSTATE:42710

无法在表 <indexName> 上创建索引 <tableName>,因为它已存在。

索引未找到

SQLSTATE:42704

在表 <indexName> 上找不到索引 <tableName>

不支持INFINITE_STREAMING_TRIGGER

SQLSTATE:0A000

此群集类型不支持触发器类型 <trigger>

使用不同的触发器类型,例如 AvailableNow、Once。

SQLSTATE:21S01

无法写入 <tableName>,原因是

有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH

插入分区列的元数不匹配

SQLSTATE:21S01

无法中写入“<tableName>”,<reason>

表列:<tableColumns>

使用静态值对列进行分区:<staticPartCols>

数据列:<dataColumns>

使用的列集合无效,无法进行插入或替换操作

SQLSTATE:42000

表必须分区,所有指定的列都必须表示表的分区列的完整集。

以下列不是分区列: <nonPartitionColumns>

缺少以下分区列: <missingPartitionsColumns>

插入替换未启用

SQLSTATE:0A000

请联系 Databricks 代表启用 INSERT INTO ... REPLACE USING (...) 功能。

权限不足

SQLSTATE:42501

权限不足:

<report>

权限不足_EXT_LOC

SQLSTATE:42501

用户 <user> 对外部位置 <location> 的特权不足。

权限不足_无所有者

SQLSTATE:42501

<securableName> 没有所有者。 要求管理员设置所有者。

权限不足_所有权_可安全保护

SQLSTATE:42501

用户不拥有 <securableName>

权限不足_可保护对象

SQLSTATE:42501

用户对 <action> 没有 <securableName> 权限。

权限不足_可安全父对象_所有者

SQLSTATE:42501

<securableName> 的所有者不同于 <parentSecurableName> 的所有者。

权限不足存储凭据

SQLSTATE:42501

存储凭据 <credentialName> 的特权不足。

权限不足_底层可保护对象

SQLSTATE:42501

由于对基础安全对象的权限,用户无法对 <action> 执行 <securableName>

权限不足_基础可保护对象_详细说明

SQLSTATE:42501

由于对基础安全对象的权限,用户无法对 <action> 执行 <securableName>

<underlyingReport>

SQLSTATE:22015

使用间隔操作时的整数溢出。

有关更多详细信息,请参阅 INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE:22012

被零除。 使用 try_divide 容许除数为 0,并返回 NULL

SQLSTATE:42903

聚合函数中的 FILTER 表达式 <filterExpr> 无效。

有关更多详细信息,请参阅 INVALID_AGGREGATE_FILTER

INVALID_无偏编码器

SQLSTATE:42001

找到无效的不可知编码器。 预计会得到 AgnosticEncoder 的一个实例,但却得到 <encoderType>。 有关详细信息,请参阅“<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html”。

无效算法值

SQLSTATE:22023

无效或不受支持的边缘内插算法值 <alg>

SQLSTATE:22003

索引 <indexValue> 超出界限。 数组具有 <arraySize> 个元素。 使用 SQL 函数 get() 容许访问无效索引上的元素,并改为返回 NULL

有关更多详细信息,请参阅 INVALID_ARRAY_INDEX

SQLSTATE:22003

索引 <indexValue> 超出界限。 数组具有 <arraySize> 个元素。 使用 try_element_at 容许访问无效索引上的元素,并返回 NULL

有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT

无效的属性名称语法

SQLSTATE:42601

属性名称中的语法错误:<name>。 检查反引号是否成对显示,带引号的字符串是一个完整的名称部分,并且仅在带引号的名称部分内使用反引号。

无效的AWS认证

SQLSTATE:42000

请选择以下身份验证方法之一:

  • 提供 Databricks 服务凭据(<serviceCredential>)的名称(作为 spark 流选项或群集环境变量)。

  • 提供 AWS AccessKey(<awsAccessKey>)和 SecretAccessKey(<awsSecretKey>)以使用 AWS 密钥。

  • 请勿提供 AWS 密钥或 Databricks 服务凭据,以使用用于 Kinesis 身份验证的默认 AWS 凭据提供程序链。

AWS身份验证显式选项无效

SQLSTATE:42000

请提供您的 Databricks 服务凭据的名称或编号(<serviceCredential>

<awsAccessKey><awsSecretKey>

无效的位图位置

SQLSTATE:22003

索引为 0 的位图位置 <bitPosition> 超出边界。 位图具有 <bitmapNumBits> 位(<bitmapNumBytes> 字节)。

无效布尔声明

SQLSTATE:22546

期望条件中有布尔语句,但 <invalidStatement> 已找到。

SQLSTATE:22003

边界 <boundary> 无效:<invalidValue>

有关更多详细信息,请参阅 INVALID_BOUNDARY

无效的分桶列数据类型

SQLSTATE:42601

不能对存储桶列使用 <type>。 存储桶不支持排序规则数据类型。

无效的桶文件

SQLSTATE:58030

无效的桶文件:<path>

INVALID_BYTE_STRING

SQLSTATE:22P03

预期的格式为 ByteString,但实际为 <unsupported> (<class>)。

无效的列名称作为路径

SQLSTATE:46121

数据源 <datasource> 无法保存列 <columnName>,因为它的名称包含文件路径中不允许的某些字符。 请使用别名将其重命名。

无效的列或字段数据类型

SQLSTATE:42000

列或字段 <name> 的类型是 <type>,但必须是 <expectedType>

SQLSTATE:22022

配置“<confValue>”中的值“<confName>”无效。

有关更多详细信息,请参阅 INVALID_CONF_VALUE

无效或损坏的记录类型

SQLSTATE:42804

损坏记录的列 <columnName> 必须具有可为 STRING null 的类型,但获得了 <actualType>

无效的坐标参考系统值

SQLSTATE:22023

无效或不受支持的 CRS(坐标引用系统)值 <crs>

当前收件人用法无效

SQLSTATE:42887

要在 Unity Catalog 中定义仅共享视图,current_recipient 函数只能在 CREATE VIEW 语句或 ALTER VIEW 语句中使用。

SQLSTATE:HY109

游标无效。

有关更多详细信息,请参阅 INVALID_CURSOR

SQLSTATE:22007

无法识别的日期/时间模式:<pattern>

有关更多详细信息,请参阅 INVALID_DATETIME_PATTERN

SQLSTATE:42623

无法执行 <statement> 命令,因为目标列或变量 <colName> 具有 DEFAULT<defaultValue>

有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE

SQLSTATE:42602

分隔符的值无效。

有关更多详细信息,请参阅 INVALID_DELIMITER_VALUE

无效的目标目录

SQLSTATE:42809

SYNC 命令的目标目录必须位于 Unity Catalog 中。 已找到 <catalog>

无效的驱动程序内存 (INVALID_DRIVER_MEMORY)

SQLSTATE:F0000

系统内存 <systemMemory> 必须至少为 <minSystemMemory>

请通过在 Spark 配置中使用 --driver-memory 选项 或 "<config>" 来增加内存堆的大小。

无效的动态选项

SQLSTATE:42K10

禁止为外部表 <option_list> 提供的选项 <table_name>

无效的空位置

SQLSTATE:42K05

位置名称不能为空字符串,但已给出 <location>

SQLSTATE:42K0R

条件声明无效。

有关详细信息 ,请参阅INVALID_ERROR_CONDITION_DECLARATION

INVALID_ESC

SQLSTATE:42604

发现无效的转义字符串:<invalidEscape>。 转义字符串只能包含一个字符。

无效的转义字符

SQLSTATE:42604

EscapeChar 应该是长度为 1 的字符串字面量,但收到了 <sqlExpr>

无效的执行器内存

SQLSTATE:F0000

执行程序内存 <executorMemory> 必须至少为 <minSystemMemory>

请使用 Spark 配置中的 --executor-memory 选项或“”<config>增加执行程序内存。

表达式编码器无效

SQLSTATE:42001

找到无效的表达式编码器。 需要 ExpressionEncoder 的实例,但获得 <encoderType>。 有关详细信息,请参阅“<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html”。

无效的外部类型

SQLSTATE:42K0N

外部类型 <externalType> 对表达式 <type> 中的类型 <expr> 无效。

无效提取基本字段类型

SQLSTATE:42000

无法从 <base> 中提取值。 需要复杂类型 [STRUCT, ARRAY, MAP],但得到 <other>

INVALID_EXTRACT_FIELD (提取字段无效)

SQLSTATE:42601

无法从 <field> 中提取 <expr>

无效的提取字段类型

SQLSTATE:42000

字段名称应是非 null 字符串文本,但它是 <extraction>

无效字段名称

SQLSTATE:42000

字段名称 <fieldName> 无效:<path> 不是结构。

SQLSTATE:42601

格式无效:<format>

有关更多详细信息,请参阅 INVALID_FORMAT

无效的秒分数错误

SQLSTATE:22023

秒的有效范围为 [0, 60](含首尾),但提供的值为 <secAndMicros>。 若要避免此错误,请使用 try_make_timestamp,将在发生错误时返回 NULL

如果不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntztry_make_timestamp_ltz

SQLSTATE:42612

GET DIAGNOSTICS 语句的使用无效。

有更详细的信息请参阅INVALID_GET_DIAGNOSTICS_USAGE

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE:35000

GET DIAGNOSTICS 语句的使用无效。 GET DIAGNOSTICS 语句中条件编号的唯一支持值为 1。

SQLSTATE:HY000

句柄 <handle> 无效。

有关更多详细信息,请参阅 INVALID_HANDLE

SQLSTATE:42K0Q

处理程序声明无效。

有关详细信息,请参阅INVALID_HANDLER_DECLARATION

无效的HTTP请求方法

SQLSTATE:22023

输入参数:方法、值:<paramValue> 不是 http_request 的有效参数,因为它不是有效的 HTTP 方法。

无效的HTTP请求路径

SQLSTATE:22023

输入参数:路径、值:<paramValue> 不是 http_request 的有效参数,因为不允许路径遍历。

INVALID_IDENTIFIER

SQLSTATE:42602

未加引号的标识符 <ident> 无效,必须反引号为:<ident>

不带引号的标识符只能包含 ASCII 字母(“a”-“z”、“A”-“Z”)、数字(“0”-“9”)和下划线(“_”)。

未加引号的标识符也不得以数字开头。

不同的数据源和元存储可能会对有效标识符施加额外的限制。

无效的零索引

SQLSTATE:22003

索引 0 无效。 索引应为< 0> 0(第一个元素的索引为1)。

SQLSTATE:42000

无效的内联表。

有关更多详细信息,请参阅 INVALID_INLINE_TABLE

SQLSTATE:22006

将“<input>”分析为间隔时出错。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。

有关更多详细信息,请参阅 INVALID_INTERVAL_FORMAT

无效的间隔微秒添加

SQLSTATE:22006

无法将间隔添加到日期,因为它的微秒部分不是 0。 若要解决此问题,请将输入日期转换为时间戳,以支持添加包含非零微秒的间隔。

SQLSTATE:42K0K

反向分布函数 <funcName> 无效。

有关详细信息,请参阅 INVALID_INVERSE_DISTRIBUTION_FUNCTION

无效的 Java 标识符作为字段名称

SQLSTATE:46121

<fieldName> 不是 Java 的有效标识符,不能用作字段名称

<walkedTypePath>

无效的JoinWith连接类型

SQLSTATE:42613

joinWith 中的加入类型无效:<joinType>

INVALID_JSON_DATA_TYPE (JSON 数据类型无效)

SQLSTATE:2203G

无法将 JSON 字符串“<invalidType>”转换为数据类型。 请输入有效的数据类型。

无效的JSON数据类型用于排序规则

SQLSTATE:2203G

排序规则只能应用于字符串类型,但 JSON 数据类型为 <jsonType>

无效的 JSON 记录类型

SQLSTATE:22023

在推断模式 <failFastMode> 中的通用架构时检测到 JSON 记录的类型无效。 期望 STRUCT 类型,但找到 <invalidType>

无效的JSON根字段

SQLSTATE:22032

无法将 JSON 根字段转换为目标 Spark 类型。

无效的_JSON_模式_映射_类型

SQLSTATE:22032

输入架构 <jsonSchema> 只能包含 STRING 作为 MAP 的键类型。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE(无效的 Kryo 序列化器缓冲区大小)

SQLSTATE:F0000

配置“<bufferSizeConfKey>”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue> MiB。

SQLSTATE:42K0L

标签 <labelName> 的使用无效。

有关更多详细信息,请参阅 INVALID_LABEL_USAGE

SQLSTATE:42K0D

无效的 lambda 函数调用。

有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE:42613

不允许使用具有 <joinType> 关联的 LATERAL JOIN,因为 OUTER 子查询无法与其连接伙伴相关联。 删除 LATERAL 关联,或者改用 INNER JOIN 或 LEFT OUTER JOIN。

SQLSTATE:42K0E

表达式 <expr> 等限制无效。

有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE:KD002

UnsupportedLogVersion。

有关详细信息,请参阅 INVALID_LOG_VERSION

无效的非绝对路径

SQLSTATE:22KD1

提供的非绝对路径 <path> 不符合资格。 请将路径更新为有效的 dbfs 装载位置。

无效的非确定性表达式

SQLSTATE:42K0E

运算符需要确定性表达式,但实际表达式为 <sqlExprs>

无效数字字面量范围

SQLSTATE:22003

数值 <rawStrippedQualifier> 超出了 <typeName> 的有效范围,最小值为 <minValue>,最大值为 <maxValue>。 请相应地调整值。

SQLSTATE:42K0E

观察到的指标无效。

有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS

SQLSTATE:42K06

无效选项:

有关更多详细信息,请参阅 INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT(无效的Pandas用户定义函数位置)

SQLSTATE:0A000

组聚合 pandas UDF <functionList> 不能与其他非 pandas 聚合函数一起调用。

SQLSTATE:22023

提供的参数映射无效:

有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE

SQLSTATE:22023

<parameter> 中参数 <functionName> 的值无效:

有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE

无效的分区列数据类型

SQLSTATE:0A000

不能对分区列使用 <type>

SQLSTATE:42601

分区命令无效。

有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION

无效的分区值

SQLSTATE:42846

未能将分区列 <value> 的值 <dataType> 强制转换为数据类型 <columnName>。 确保该值与此分区列的预期数据类型匹配。

无效_PIPELINE_ID

SQLSTATE:42604

管道 ID <pipelineId> 无效。

管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID

无效权限

SQLSTATE:42852

特权 <privilege> 对于 <securable> 无效。

无效的属性键

SQLSTATE:42602

<key> 是一个无效的属性键,请使用引号,例如 SET <key>=<value>

属性值无效

SQLSTATE:42602

<value> 是一个无效的属性值,请使用引号,例如 SET <key>=<value>

无效的合格列名

SQLSTATE:42000

列名 <columnName> 无效,因为它没有限定表名,或者由超过 4 个名称部分组成。

查询无效,混合查询参数。

SQLSTATE:42613

参数化查询必须使用位置参数或命名参数,但不能同时使用这两种参数。

无效的递归CTE

SQLSTATE:42836

找到的递归定义无效。 递归查询必须包含一个 UNION 或一个包含 2 个子项的 UNION ALL 语句。 首个子级必须是锚定词,并且没有任何递归引用。

SQLSTATE:42836

WITH RECURSIVE 子句中找到无效的递归引用。

有关详细信息,请参阅INVALID_RECURSIVE_REFERENCE

无效的正则表达式替换

SQLSTATE:22023

无法对源 =“<source>”、模式 =“<pattern>”、更换 =“<replacement>”和位置 = <position> 执行 regexp_replace。

无效重置命令格式

SQLSTATE:42000

预期格式为“RESET”或“RESET key”。 如果你要在键中包含特殊字符,请使用引号,例如 RESET key

无效的重新信号使用

SQLSTATE:0K000

RESIGNAL 当处理程序未处于活动状态时。 RESIGNAL 语句只能在异常处理程序正文中使用。

无效的S3复制凭证

SQLSTATE:42501

COPY INTO 凭证必须包括 AWS_ACCESS_KEYAWS_SECRET_KEYAWS_SESSION_TOKEN

无效保存模式

SQLSTATE:42000

指定的保存模式 <mode> 无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。

SQLSTATE:42K07

输入架构 <inputSchema> 不是有效的架构字符串。

有关更多详细信息,请参阅 INVALID_SCHEMA

无效的架构或关系名称

SQLSTATE:42602

<name> 不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。

无效方案

SQLSTATE:0AKUC

Unity Catalog 不支持 <name> 作为默认文件方案。

SQLSTATE:22531

机密查找无效:

有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP

无效的设置语法

SQLSTATE:42000

预期格式为“SET”、“SET key”或“SET key=value”。 如果你要在键中包含特殊字符,或者在值中包含分号,请使用反引号,例如 SET key=value

无效共享别名名称

SQLSTATE:42601

<sharedObjectType> 别名必须采用“schema.name”格式。

无效单一变量列 (INVALID_SINGLE_VARIANT_COLUMN)

SQLSTATE:42613

如果还有用户指定的架构,则无法使用 singleVariantColumn 选项。

无效的来源目录

SQLSTATE:42809

源目录不得位于 SYNC 命令的 Unity Catalog 中。 已找到 <catalog>

无效的过滤服务合并命令源

SQLSTATE:42KDH

筛选服务 MERGE 操作的源只能包含映射和筛选器。

请调整 MERGE 命令或使用暂存表作为源。

<stmt>

INVALID_SQLSTATE(无效的SQL状态)

SQLSTATE:428B3

无效 SQLSTATE 值:“<sqlState>”。 SQLSTATE 长度必须为 5 个字符,且仅包含 A-Z 和 0-9。 SQLSTATE 不得以“00”、“01”或“XX”开头。

SQL参数无效

SQLSTATE:42K08

<name> 的参数 sql() 无效。 请考虑将其替换为 SQL 文本或集合构造函数 (如 map()array()struct())。

SQLSTATE:42000

无效的 SQL 语法:

有关更多详细信息,请参阅 INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE:42604

暂存 <operation> 查询中的暂存路径无效:<path>

无效的执行语句

SQLSTATE:07501

INTOEXECUTE IMMEDIATE 子句仅适用于查询,但给定语句不是查询:<sqlString>

无效语句或子句

SQLSTATE:42601

语句或子句:<operation> 无效。

流媒体实时模式触发间隔无效 (INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL)

SQLSTATE:22023

实时触发器间隔设置为 <interval> ms。 这小于 <minBatchDuration> spark.databricks.streaming.realTimeMode.minBatchDuration 指定的毫秒最小值。

无效的流媒体实时模式触发覆盖间隔

SQLSTATE:22023

无法分析实时触发器的检查点间隔 <interval>。 请验证已传递正整数。

SQLSTATE:42823

子查询无效:

有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION

用于ALTER命令的目标无效

SQLSTATE:42809

ALTER <commandTableType> ... <command> 不支持 <tableName>。 请改用ALTER <targetTableType>... <command>

无效的目标用于SET_TBLPROPERTIES命令

SQLSTATE:42809

ALTER <commandTableType> ... SET TBLPROPERTIES 不支持 <tableName>。 请改用ALTER <targetTableType>... SET TBLPROPERTIES

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE:42K0F

无法创建类型为 <objName> 的持久对象 <obj>,因为该对象引用了类型为 <tempObjName> 的临时对象 <tempObj>。 请将临时对象 <tempObjName> 设为持久对象,或将持久对象 <objName> 设为临时对象。

时间戳格式无效

SQLSTATE:22000

提供的时间戳 <timestamp> 与预期的语法 <format> 不匹配。

无效时区

SQLSTATE:22009

时区:<timeZone> 无效。 时区必须是基于地区的区域 ID 或区域偏移量。 区域 ID 必须具有“区域/城市”的格式,如“America/Los_Angeles”。 区域偏移量必须采用“(+|-)HH”、“(+|-)HH:mm”或“(+|-)HH:mm:ss”格式,例如“-08”、“+01:00”或“-13:33:33”,并且必须位于 -18:00 到 +18:00 的范围内。 “Z”和“UTC”被接受为“+00:00”的同义词。

时间旅行规范无效 (INVALID_TIME_TRAVEL_SPEC)

SQLSTATE:42K0E

在按时间顺序查看表时,无法同时指定版本和时间戳。

SQLSTATE:42K0E

时间回溯时间戳表达式 <expr> 无效。

有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

无效的类型化文字

SQLSTATE:42604

类型化文本 <valueType> 的值无效:<value>

INVALID_UDF_IMPLEMENTATION

SQLSTATE:38000

函数 <funcName> 未实现 ScalarFunction 和 AggregateFunction。

无效的升级语法

SQLSTATE:42809

<command> <supportedOrNot> 源表在 Hive 元存储中,而目标表在 Unity Catalog 中。

无效的URL

SQLSTATE:22P02

URL 无效:<url>。 使用 try_parse_url 来容许无效的 URL 并改为返回 NULL

INVALID_USAGE_OF_STAR_OR_REGEX(星号或正则表达式的无效使用)

SQLSTATE:42000

<elem> 中使用的 <prettyName> 无效。

无效的UTF8字符串

SQLSTATE:22029

在字符串中找到的 UTF8 字节序列无效:<str>

无效的UUID

SQLSTATE:42604

输入 <uuidInput> 不是有效的 UUID。

UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式

请检查 UUID 的格式。

SQLSTATE:42K0M

变量声明无效。

有关更多详细信息,请参阅 INVALID_VARIABLE_DECLARATION

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE(查询执行即时的变量类型无效)

SQLSTATE:42K09

变量类型必须是字符串类型,但实际类型是 <varType>

信号语句的变量类型无效

SQLSTATE:42K09

变量类型必须是“MAP<STRING, STRING>”类型,但得到的是<varType>

无效变体转换

SQLSTATE:22023

变量值 <value> 不能强制转换为 <dataType>。 请改用 try_variant_get

SQLSTATE:22023

变体无效。

有关更多详细信息,请参阅 INVALID_VARIANT_FROM_PARQUET

无效的变体获取路径

SQLSTATE:22023

路径 <path> 不是 <functionName> 中有效的变体提取路径。

有效路径应以 $ 开头,后跟零个或多个段,例如 [123].name['name']["name"]

无效变体碎片化架构

SQLSTATE:22023

架构 <schema> 不是有效的变体分片架构。

无效的WHERE条件

SQLSTATE:42903

WHERE 条件 <condition> 包含无效表达式:<expressionList>

重写查询以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

无效窗口规格定义用于聚合函数 (INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC)

SQLSTATE:42601

无法为 ORDER BY 指定 <aggFunc> 或窗口框架。

无效的编写者提交消息

SQLSTATE:42KDE

数据源写入器生成了无效数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>

SQLSTATE:42000

请求的写入分发无效。

有关详细信息,请参阅 INVALID_WRITE_DISTRIBUTION

隔离命令失败

SQLSTATE:39000

未能执行 <command>。 命令输出:

<output>

隔离命令未知故障

SQLSTATE:39000

未能执行 <command>

联接条件不是布尔类型

SQLSTATE:42K0E

联接条件 <joinCondition><conditionType> 类型无效,应为“BOOLEAN”。

SQLSTATE:22000

有些数据可能已经丢失,因为它们在 Kafka 中不再可用;

数据已被 Kafka 设为过期,或者主题可能在其中的所有数据处理完毕之前

已被删除。

如果不希望流式查询在这种情况下失败,请将源选项 failOnDataLoss 设置为 false。

原因:

有关更多详情,请参阅 KAFKA_DATA_LOSS

KINESIS_无法读取分片至结束偏移量

SQLSTATE:22000

在以下 Kinesis 流的分片 <endSeqNum> 达到所需的序列号 <shardId> 之前无法读取:

使用使用者模式 <stream> 的 kinesis 流 <consumerMode>。 由于潜在的数据丢失,此

查询将失败。 最后读取记录的序列号为 <lastSeqNum>

如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已

删除并以相同名称进行了重建。 可以

在 spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false 替代此失败行为。

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE:51000

对于 kinesis 流 <streamId>,已删除以前注册的流 EFO 使用者 <consumerId>

重启查询,以便注册新的使用者。

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED(超出 Kinesis EFO 订阅限制)

SQLSTATE:51000

对于分片 <shard>,上一次 subscribeToShard API 调用在下一次调用的 5 秒内。

在 5 秒或更长时间后重启查询。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD(Kinesis 获取的分片小于追踪的分片)

SQLSTATE:42K04

从 Kinesis 提取的最小 shardId (<fetchedShardId>)

小于跟踪的最小 shardId (<trackedShardId>)。

此为意外错误,当删除 Kinesis 流并使用相同的名称重新创建,

并使用现有检查点位置重启使用此 Kinesis 流的流式处理查询时,会发生这种情况。

使用新的检查点位置重启流式处理查询,或使用新名称创建流。

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE:0A000

不支持 Kinesis 轮询模式。

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION(Kinesis记录序列号顺序违反)

SQLSTATE:22000

对于分片 <shard>,上一次提取中从 Kinesis 读取的最后一条记录具有序列号 <lastSeqNum>

它大于当前提取中读取的记录的序列号 <recordSeqNum>

这是意外行为,当重试或下一次提取的开始位置未正确初始化时,可能会发生这种情况,并可能导致下游记录重复。

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE:42KDD

若要从具有使用者配置(consumerNameconsumerNamePrefixregisteredConsumerId)的 Kinesis Streams 读取,consumerMode 必须是 efo

必须指定注册的消费者ID和类型的KINESIS源

SQLSTATE:42KDD

若要从具有已注册使用者的 Kinesis Streams 读取,必须同时指定 registeredConsumerIdregisteredConsumerIdType 选项。

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS(必须指定流名称或ARNs)

SQLSTATE:42KDD

若要从 Kinesis Streams 读取,必须将 streamNamestreamARN 选项的任一个(但不是两者)配置为以逗号分隔的流名称/ARN 列表。

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE:42KDD

若要从具有已注册使用者的 Kinesis Streams 读取,请不要配置 consumerNameconsumerNamePrefix 选项,因为它们不会生效。

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE:22023

已注册的使用者 ID 数应等于 Kinesis 流的数量,但却获得了 <numConsumerIds> 个使用者 ID 和 <numStreams> 个流。

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND(未找到Kinesis源注册消费者)

SQLSTATE:22023

找不到为 streamARN <consumerId> 提供的已注册使用者 <streamARN>。 验证是否已注册使用者或未提供 registeredConsumerId 该选项。

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE:22023

已注册的使用者类型 <consumerType> 无效。 它必须是 nameARN

KRYO_BUFFER_OVERFLOW (KRYO 缓冲区溢出)

SQLSTATE:54006

Kryo 序列化失败:<exceptionMsg>。 若要避免这种情况,请增加“<bufferSizeConfKey>”值。

标签不匹配

SQLSTATE:42K0L

开始标签 <beginLabel> 与结束标签 <endLabel> 不匹配。

标签已存在

SQLSTATE:42K0L

标签 <label> 已存在。 选择其他名称或重命名现有标签。

标签名称禁止

SQLSTATE:42K0L

禁止标签名称 <label>

加载数据路径不存在

SQLSTATE:42K03

LOAD DATA 输入路径不存在:<path>

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE:42601

LOCAL 必须与 file 的架构配合使用,但收到了:<actualSchema>

位置已存在

SQLSTATE:42710

无法将托管表命名为 <identifier>,因为它的关联位置 <location> 已存在。 请选择其他表名,或者先删除现有位置。

丢失主题分区_在结束偏移量中_触发器_当前可用

SQLSTATE:KD000

在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区丢失。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

最新偏移量 <tpsForLatestOffset> 的主题分区,结束偏移量 <tpsForEndOffset> 的主题分区

畸形的_AVRO_消息

SQLSTATE:KD000

在消息反序列化中检测到格式错误的 Avro 消息。 分析模式:<mode>。 若要将格式错误的 Avro 消息作为 null 结果进行处理,请尝试将选项“mode”设置为“PERMISSIVE”。

格式错误的字符编码

SQLSTATE:22000

使用 <function> 执行 <charset> 时找到的值无效

错误格式的CSV记录

SQLSTATE:KD000

CSV 记录的格式错误:<badRecord>

格式错误的日志文件

SQLSTATE:KD002

日志文件格式不正确:无法从 <text> 中读取正确的日志版本。

格式错误的_PROTOBUF_消息

SQLSTATE:42K0G

在消息反序列化中检测到格式不正确的 Protobuf 消息。 分析模式:<failFastMode>。 若要将格式不正确的 protobuf 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。

SQLSTATE:22023

在记录分析中检测到格式错误的记录:<badRecord>

分析模式:<failFastMode>。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。

有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING

格式错误变体

SQLSTATE:22023

变体二进制格式不正确。 请检查数据源是否有效。

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE:0A000

托管冰山表不支持 <operation>

MANAGED_TABLE_WITH_CRED

SQLSTATE:42613

不支持使用存储凭据创建托管表。

物化视图_MESA_刷新_无_PIPELINE_ID

SQLSTATE:55019

无法对具体化视图运行 <refreshType>,因为它之前包含 pipelineId。 若要启用 <refreshType>,请删除再重新创建具体化视图。

SQLSTATE:56038

不允许具体化视图操作 <operation>

有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

物化视图输出未明确别名

SQLSTATE:0A000

必须显式为具体化视图中的输出表达式 <expression> 指定别名。

流式查询上的物化视图无效

SQLSTATE:42000

无法使用流式处理查询来创建具体化视图 <name>。 请在您的CREATE [OR REFRESH] STREAMING TABLE子句中使用STREAM或删除FROM关键字,以便将此关系转换为批处理查询。

物化视图不支持的操作

SQLSTATE:0A000

具体化视图目前不支持操作 <operation>

会话中的变量数量已超出最大限制

SQLSTATE:54KD1

无法创建新变量 <variableName>,因为会话中的变量数超过允许的最大数目 (<maxNumVariables>)。

每次获取的记录数对Kinesis源无效

SQLSTATE:22023

maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit> 的正整数

合并基数违法

SQLSTATE:23K01

ON 语句的 MERGE 搜索条件将目标表中的单行与源表的多行匹配。

这可能会导致对目标行执行多次更新或删除操作,这是不允许的。

合并无条件执行

SQLSTATE:42601

WHEN 语句中必须至少包含一个 MERGE 子句。

指标约束不受支持

SQLSTATE:0A000

未启用 METRIC CONSTRAINT

SQLSTATE:22023

<argValue> 表函数的参数“<argName>”不支持提供的值“METRIC_STORE”。

有关更多详细信息,请参阅 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

指标存储不支持错误

SQLSTATE:56038

Metric Store 例程 <routineName> 目前在此环境中已禁用。

模型视图_不明确的连接条件

SQLSTATE:42K0E

指标视图定义包含具有不明确条件的联接: <expr>。 使用 using 联接条件或使用 <sourceAlias> 别名显式限定列。

指标视图缓存表不被支持

SQLSTATE:42K0E

不允许指标视图使用缓存表。

指标视图功能已禁用

SQLSTATE:42K0E

指标视图功能已禁用。 请确保“spark.databricks.sql.metricView.enabled”设置为 true。

度量视图无效的测量函数输入

SQLSTATE:42K0E

MEASURE() 函数仅采用属性作为输入,但获得 <expr>

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE:42K0E

指标视图定义无效。 原因:<reason>

度量视图在CTE中不支持

SQLSTATE:42K0E

CTE 定义中不允许使用指标视图。 计划:<plan>

指标视图连接不支持

SQLSTATE:42K0E

不允许使用联接的指标视图。 计划:<plan>

度量视图缺失度量函数

SQLSTATE:42K0E

度量值列 <column> 指标视图的使用需要 MEASURE() 函数才能生成结果。

指标视图不支持的使用

SQLSTATE:42K0E

不支持指标视图使用情况。 计划:<plan>

不支持METRIC_VIEW窗口函数

SQLSTATE:42K0E

不允许指标视图使用窗口函数 <expr>

不支持迁移

SQLSTATE:42601

<table> 不支持迁移到托管表,因为它不是 <tableKind> 表。

不支持迁移回滚

SQLSTATE:42809

<table> 不支持从托管表回滚至外部表,因为它不是 <tableKind> 表。

主题分区在结束偏移量与预取数据之间不匹配

SQLSTATE:KD000

Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

预提取偏移量 <tpsForPrefetched> 的主题分区,结束偏移量 <tpsForEndOffset> 的主题分区。

SQLSTATE:42803

非聚合表达式 <expression> 基于不参与 GROUP BY 子句的列。

将列或表达式添加到 GROUP BY、聚合表达式,或者在不关心返回组中哪些值时使用 <expressionAnyValue>

有关更多详细信息,请参阅 MISSING_AGGREGATION

缺少操作所需条款

SQLSTATE:42601

操作 <clauses> 缺少子句 <operation>。 请添加所需的子句。

缺少连接选项

SQLSTATE:42000

<connectionType>”类型的连接必须包括以下选项:<requiredOptions>

缺少用于V1会话目录的数据库

SQLSTATE:3F000

v1 会话目录中未指定数据库名称。 请确保在与 v1 目录交互时,提供有效的数据库名称。

缺少分组依据

SQLSTATE:42803

查询不包含 GROUP BY 子句。 添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。

缺少检查约束名称

SQLSTATE:42000

CHECK 约束必须具有名称。

MISSING_PARAMETER_FOR_KAFKA(缺少Kafka的参数)

SQLSTATE:42KDD

参数 <parameterName> 对于 Kafka 是必需的,但未在 <functionName> 中指定。

缺少常规所需参数

SQLSTATE:42KDD

需要参数 <parameterName>,但未在 <functionName> 中指定。

缺少日程定义

SQLSTATE:42000

必须遵循 SCHEDULE 提供计划定义。

缺少超时配置 (MISSING_TIMEOUT_CONFIGURATION)

SQLSTATE:HY000

操作已超时,但未配置超时持续时间。 若要设置基于时间的处理超时,请在“mapGroupsWithState”或“flatMapGroupsWithState”操作中使用“GroupState.setTimeoutDuration()”。 对于基于事件时间的超时,请使用“GroupState.setTimeoutTimestamp()”,并使用“Dataset.withWatermark()”定义水印。

MISSING_WINDOW_SPECIFICATION

SQLSTATE:42P20

Window 规范未在 WINDOW<windowName> 子句中定义。 有关 WINDOW 子句的详细信息,请参阅“<docroot>/sql-ref-syntax-qry-select-window.html”。

修改内置目录

SQLSTATE:42832

不支持修改内置目录 <catalogName>

MULTIPLE_LOAD_PATH(多重加载路径)

SQLSTATE:42000

Databricks Delta 在 load() API 中不支持多个输入路径。

路径:<pathList>。 若要通过从同一 Delta 表加载多个路径来

生成单个数据帧,请加载

具有相应分区筛选器的 Delta 表。 如果多个路径

来自不同的 Delta 表,请使用数据集的 union()/unionByName() API

来合并由单独的 load() API 调用生成的数据帧。

多个匹配的约束条件

SQLSTATE:42891

找到至少两个与给定条件匹配的约束。

多重查询结果子句与管道运算符

SQLSTATE:42000

<clause1><clause2> 无法使用“|>”在同一 SQL 管道操作符中共存。 请将多个结果子句分隔为单独的管道操作符,然后再次重试查询。

多次时间旅行规范

SQLSTATE:42K0E

无法在按时间顺序查看子句和选项中指定按时间顺序查看。

多个_XML_数据来源

SQLSTATE:42710

检测到名称为 <provider> (<sourceNames> 的多个数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE:42K0E

<names> 不支持多部分别名 (<expr>),因为它不是生成器函数。

多源不支持表达式

SQLSTATE:42K0E

表达式 <expr> 不支持多个源。

SQLSTATE:0A000

未能执行该语句。

有关详细信息 ,请参阅MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED

MULTI_STATEMENT_TRANSACTION_NO_ACTIVE_TRANSACTION

SQLSTATE:25000

没有活动事务到<action>

多UDF接口错误

SQLSTATE:0A000

不允许实现多个 UDF 接口,UDF 类 <className>

互斥条款

SQLSTATE:42613

子句 <clauses> 或选项互斥。 请删除其中的一个子句。

MV_ST_改变查询不正确的支持类型

SQLSTATE:42601

输入查询需要 <expectedType>,但基础表是 <givenType>

不支持命名参数

SQLSTATE:4274K

函数 <functionName> 不支持命名参数;请改为使用函数调用的位置参数重试查询。

不支持用于SQL UDF的命名参数

SQLSTATE:0A000

无法调用函数 <functionName>,因为不支持命名参数引用。 在此情况下,命名参数引用为 <argument>

已禁用命名参数支持

SQLSTATE:0A000

无法调用函数 <functionName>,因为此处未启用命名参数引用。

在此情况下,命名参数引用为 <argument>

将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。

命名空间已存在

SQLSTATE:42000

无法创建命名空间 <nameSpaceName>,因为它已存在。

选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS 子句以容许现有的命名空间。

命名空间不为空

SQLSTATE:42000

无法删除命名空间 <nameSpaceNameName>,因为它包含对象。

使用 DROP NAMESPACE ... CASCADE 删除命名空间及其所有对象。

命名空间未找到

SQLSTATE:42000

找不到命名空间 <nameSpaceName>。 请验证该命名空间的拼写和正确性。

如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。

若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS

NATIVE_IO_ERROR(本地输入/输出错误)

SQLSTATE:KD00F

本机请求失败。 requestId:<requestId>,云:<cloud>,操作:<operation>

request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

错误:<error>

XML数据源未启用

SQLSTATE:56038

此群集中未启用本机 XML 数据源。

不允许负刻度

SQLSTATE:0A000

不允许负刻度:“<scale>”。 将配置 <sqlConf> 设置为“true”以允许它。

频率表达式中的负值

SQLSTATE:22003

<frequencyExpression> 中找到负值:<negativeValue>,但预期为正整数值。

嵌套聚合函数

SQLSTATE:42607

不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE:07501

不允许使用嵌套 EXECUTE IMMEDIATE 命令。 请确保提供的 SQL 查询 (<sqlString>) 不包含另一个 EXECUTE IMMEDIATE 命令。

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE:HV091

字段 <nonExistFields> 不存在。 可用字段:<fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE:42K08

函数 <funcName> 要求参数 <paramName><paramType> 类型的可折叠表达式,但实际参数是不可折叠的。

非最后匹配子句忽略条件

SQLSTATE:42613

MATCHED 语句中有多个 MERGE 子句时,只有最后一个 MATCHED 子句可以省略该条件。

源条款不匹配且不省略条件非最终

SQLSTATE:42613

NOT MATCHED BY SOURCE 语句中有多个 MERGE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。

非最后未由目标子句匹配省略条件

SQLSTATE:42613

NOT MATCHED [BY TARGET 语句中有多个 MERGE] 子句时,只有最后一个 NOT MATCHED [BY TARGET] 子句可以省略该条件。

非字面枢轴值

SQLSTATE:42K08

必须为透视值提供文本表达式,但找到的是 <expression>

非分区列

SQLSTATE:42000

PARTITION 子句不能包含非分区列:<columnName>

不支持流媒体中的非时间窗口

SQLSTATE:42KDE

流式处理数据帧/数据集的 <windowFunc>(如列 <columnName>)不支持窗口函数。

结构化流式处理仅支持使用 WINDOW 函数的时间窗口聚合。 (窗口规范:<windowSpec>

SQLSTATE:42601

FROM 子句中不允许:

有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM

SQLSTATE:42601

管道 WHERE 子句中不允许:

有关更多详细信息,请参阅 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE:42601

用于例程或 <expr> 子句的表达式 <name> 必须是 STRING 的常量 NOT NULL

有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING

不是分区表

SQLSTATE:42809

不允许对 <operation> 执行操作 <tableIdentWithDB>,因为它不是已分区表。

NOT_A_SCALAR_FUNCTION

SQLSTATE:42887

<functionName> 此处显示为标量表达式,但函数定义为表函数。 请更新查询以将函数调用移动到 FROM 子句中,或者将 <functionName> 重新定义为标量函数。

不是表函数

SQLSTATE:42887

<functionName> 此处显示为表函数,但函数定义为标量函数。 请更新查询以将函数调用移动到 FROM 子句外部,或者将 <functionName> 重新定义为表函数。

NOT_NULL_ASSERT_VIOLATION

SQLSTATE:42000

NULL 值出现在不可为 null 的字段中:<walkedTypePath>如果架构是从 Scala 元组/大小写类或 Java bean 推断的,请尝试使用 scala.Option[_],或其他可为 null 的类型(如 java.lang.Integer 而不是 int/scala.Int)。

SQLSTATE:42000

此处不允许分配 NULL

有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION

不支持的更改列

SQLSTATE:0A000

ALTER TABLE ALTER / CHANGE COLUMN 不支持将 <table> 的类型为 <originName> 的列 <originType> 更改为类型为 <newName><newType>

不支持更改相同列

SQLSTATE:0A000

ALTER TABLE ALTER / CHANGE COLUMN 不支持在同一命令中多次更改 <table>其列 <fieldName> ,包括其嵌套字段。

不支持V2表格命令

SQLSTATE:0A000

v2 表不支持 <cmd>

不支持不含 Hive 支持的命令

SQLSTATE:0A000

不支持 <cmd>,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。

SQLSTATE:0A000

JDBC 目录中不支持的命令:

有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE:0A000

<operation> 在 SQL <endpoint> 上不受支持。

不支持与无服务器架构一起使用

SQLSTATE:0A000

无服务器计算不支持 <operation>

NOT_UNRESOLVED_ENCODER

SQLSTATE:42601

需要未解析的编码器,但找到了 <attr>

无默认列值可用

SQLSTATE:42608

无法确定 <colName> 的默认值,因为它不可为空且没有默认值。

无处理程序用于用户定义的聚合函数

SQLSTATE:42000

没有适用于 UDAF“<functionName>”的处理程序。 请改用 sparkSession.udf.register(...)。

未指定合并操作

SQLSTATE:42K0E

df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。

无路径的父级外部位置

SQLSTATE:未分配

找不到路径“<path>”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA (无SQL类型在ProtoBuf架构中)

SQLSTATE:42S22

在 Protobuf 架构中找不到 <catalystFieldPath>

没有为表格指定存储位置

SQLSTATE:未分配

生成表凭据时,找不到表“<tableId>”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。

没有此类目录异常

SQLSTATE:42704

找不到目录“<catalog>”。 请验证目录名称,然后再次重试查询或命令。

NO_SUCH_CLEANROOM_EXCEPTION (无此清净室异常)

SQLSTATE:未分配

洁净室“<cleanroom>”不存在。 请验证洁净室名称拼写正确并且与有效的现有洁净室名称匹配,然后再次重试查询或命令。

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE:KD000

凭据“”<credential>不存在。 请验证凭据名称拼写正确,并匹配有效现有凭据的名称,然后再次重试查询或命令。

没有此类外部位置异常

SQLSTATE:未分配

外部位置“<externalLocation>”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE:未分配

找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。

没有这样的提供者异常 (NO_SUCH_PROVIDER_EXCEPTION)

SQLSTATE:未分配

共享提供程序“<providerName>”不存在。 请验证共享提供程序名称是否拼写正确,以及是否匹配现有的有效提供程序名称,然后再次重试查询或命令。

找不到_此_收件人_异常

SQLSTATE:未分配

收件人“<recipient>”不存在。 请验证收件人名称是否拼写正确,以及是否匹配现有的有效收件人的名称,然后再次重试查询或命令。

无此共享异常

SQLSTATE:未分配

共享“<share>”不存在。 请验证共享名是否拼写正确,以及是否匹配现有的有效共享的名称,然后再次重试查询或命令。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE:未分配

存储凭据“<storageCredential>”不存在。 请验证存储凭据名称是否拼写正确,以及是否匹配现有的有效存储凭据的名称,然后再次重试查询或命令。

无此用户异常

SQLSTATE:未分配

用户“<userName>”不存在。 请验证你授予权限或更改所有权的用户名是否拼写正确,以及是否匹配现有的有效用户的名称,然后再次重试查询或命令。

NO_UDF_INTERFACE

SQLSTATE:38000

UDF 类 <className> 不实现任何 UDF 接口。

可为空的列或字段

SQLSTATE:42000

列或字段 <name> 可为 null,但它必须不可为 null。

可为空的行 ID 属性

SQLSTATE:42000

行 ID 属性不可为 null:<nullableRowIdAttrs>

空数据源选项

SQLSTATE:22024

数据源读/写选项 <option> 不能有 null 值。

NULL_MAP_KEY(空地图键)

SQLSTATE:2200E

不能使用 null 作为映射键。

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE:22004

立即执行需要一个非 null 变量作为查询字符串,但提供的变量 <varName> 为 null。

空变量信号声明

SQLSTATE:22004

Signal 语句需要非 null 变量,但提供的变量 <varName> 为 null。

数值超出支持范围

SQLSTATE:22003

<value> 无法解释为数字,因为它的位数超过了 38 位。

SQLSTATE:22003

有关更多详细信息,请参阅 NUMERIC_VALUE_OUT_OF_RANGE

列数不匹配

SQLSTATE:42826

只能对列数相同的输入执行 <operator>,但第一个输入包含 <firstNumColumns> 列,而 <invalidOrdinalNum> 输入包含 <invalidNumColumns> 列。

数字表值别名不匹配

SQLSTATE:42826

给定别名的数目与输出列数不匹配。

函数名称:<funcName>;别名数:<aliasesNum>;输出列数:<outColsNum>

未提供 OAUTH_CUSTOM_IDENTITY_CLAIM

SQLSTATE:22KD2

未提供自定义标识声明。

此处仅支持秘密功能

SQLSTATE:42K0E

<functionName> 不支持调用函数 <location>;此处支持 <supportedFunctions>

仅支持UC_SQL_CONNECTOR

SQLSTATE:0A000

只有支持 Unity Catalog 的 Databricks SQL 连接器才支持 SQL 操作 <operation>

操作已取消

SQLSTATE:HY008

操作已取消。

操作需要 Unity 目录

SQLSTATE:0AKUD

操作 <operation> 需要启用 Unity Catalog。

操作不支持:只读模式

SQLSTATE:42KD1

<plan> 在只读会话模式下不受支持。

按位置排序超出范围

SQLSTATE:42805

ORDER BY 位置 <index> 不在选择列表中(有效范围为 [1, <size>])。

SQLSTATE:42846

无法为 Parquet 类型为<dataType>的数据类型 <parquetType> 创建 Parquet 转换器。

有关更多详细信息,请参阅 PARQUET_CONVERSION_FAILURE

PARQUET类型非法

SQLSTATE:42846

非法 Parquet 类型:<parquetType>

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE:42846

无法识别的 Parquet 类型:<field>

PARQUET类型不被支持

SQLSTATE:42846

尚不支持 Parquet 类型:<parquetType>

PARSE_EMPTY_STATEMENT

SQLSTATE:42617

语法错误,意外空语句。

PARSE_MODE_UNSUPPORTED

SQLSTATE:42601

<funcName> 模式不支持函数 <mode>。 可接受的模式为 PERMISSIVEFAILFAST

解析语法错误

SQLSTATE:42601

<error> <hint> 位置或附近有语法错误。

分区已存在

SQLSTATE:428FT

无法在表 RENAME 中添加或 <partitionList> TO 分区 <tableName>,因为它们已存在。

选择其他名称、删除现有分区,或添加 IF NOT EXISTS 子句以容许现有的分区。

分区未找到

SQLSTATE:428FT

在表 <partitionList> 中找不到分区 <tableName>

请验证分区规范和表名。

若要容许删除时出错,请使用 ALTER TABLEDROP IF EXISTS PARTITION

分区列在模式中未找到

SQLSTATE:42000

在架构 <column> 中找不到分区列 <schema>。 请提供用于分区的现有列。

分区位置已存在

SQLSTATE:42K04

<locationPath> 中已存在分区位置 <tableName>

分区位置不在表目录下

SQLSTATE:42KD5

无法执行 ALTER TABLE SET PARTITION LOCATION 语句,因为

分区位置 <location> 不在表目录 <table> 下。

若要修复此问题,请将分区的位置设置为 <table> 的子目录。

PARTITION_METADATA

SQLSTATE:0AKUC

不允许对表 <action> 执行 <tableName>,因为 Unity Catalog 中不支持存储分区元数据。

分区编号不匹配

SQLSTATE:KD009

值 (<partitionNumber>) 的数量与架构大小 (<partitionSchemaSize>) 不匹配:值为 <partitionValues>,架构为 <partitionSchema>,文件路径为 <urlEncodedPath>

请重新具体化表或联系所有者。

分区转换表达式不在分区中

SQLSTATE:42S23

表达式 <expression> 必须位于“partitionedBy”内。

路径已存在

SQLSTATE:42K04

路径 <outputPath> 已存在。 请将模式设置为“overwrite”以覆盖现有路径。

路径未找到

SQLSTATE:42K03

路径不存在:<path>

PHOTON_反序列化_PROTOBUF_内存限制_已超出

SQLSTATE:54000

反序列化 Photon protobuf 计划至少需要 <size> 个字节数,超过

<limit> 个字节的限制。 这可能是由于非常大的计划或存在非常

宽的架构。 尝试简化查询、删除不必要的列或禁用 Photon。

PHOTON序列化的PROTOBUF内存限制已超出

SQLSTATE:54000

序列化的 Photon protobuf 计划的大小为 <size> 字节数,超过

<limit> 个字节的限制。 计划中数据类型的序列化大小为 <dataTypeSize> 个字节。

这可能是由于非常大的计划或存在非常宽的架构。

请考虑重写查询,以删除不需要的操作和列或禁用 Photon。

管道操作符聚合表达式不包含聚合函数

SQLSTATE:0A000

非分组表达式 <expr> 作为管道运算符的参数 |> AGGREGATE 提供,但不包含任何聚合函数;请更新它以包含聚合函数,然后再次重试查询。

管道操作符_包含聚合函数

SQLSTATE:0A000

使用管道运算符<expr>子句时不允许聚合函数|> <clause>;请改用管道运算符|> AGGREGATE子句。

透视值数据类型不匹配

SQLSTATE:42K09

透视值“<value>”无效:值数据类型 <valueType> 与透视列数据类型 <pivotType> 不匹配。

策略已存在

SQLSTATE:42000

无法创建策略 <policyName> ,因为它已存在。

选择其他名称或删除现有策略以容忍预先存在的连接。

策略_未找到

SQLSTATE:22023

无法执行<commandType>命令,因为找不到该策略<policyName><securableFullname>

请验证拼写和正确性。

不支持的可保护类型策略

SQLSTATE:42000

无法在安全对象类型 <securableType>上创建策略。 支持的安全对象类型: <allowedTypes>

参数数量与过程不匹配

SQLSTATE:42605

过程 <procedureName> 需要 <expected> 参数,但提供了 <actual>

空例程创建过程

SQLSTATE:0A000

不允许使用具有空例程定义的 CREATE PROCEDURE

过程创建参数_OUT_INOUT_具有默认值

SQLSTATE:42601

参数 <parameterName> 是使用参数模式 <parameterMode> 定义的。 调用例程时,不能省略 OUT 和 INOUT 参数,因此不支持 DEFAULT 表达式。 若要继续操作,请删除 DEFAULT 子句或将参数模式更改为 IN

不支持的过程

SQLSTATE:0A000

不支持存储过程

操作不支持HMS系统

SQLSTATE:0A000

Hive 元存储不支持存储过程。 请改用 Unity Catalog。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE:42K0G

找不到依赖项:<dependencyName>

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE:42K0G

读取路径中的 Protobuf 描述符文件时出错:<filePath>

Google Protocol Buffer字段缺失

SQLSTATE:42K0G

在 Protobuf 架构中的 <field> 处搜索与给定的 <protobufSchema> 匹配的 <matchSize>。 候选项:<matches>

在SQL架构中缺少的PROTOBUF字段

SQLSTATE:42K0G

在 Protobuf 架构中找到了 <field>,但 SQL 架构中没有匹配项。

PROTOBUF_FIELD_TYPE_MISMATCH (Protobuf 字段类型不匹配)

SQLSTATE:42K0G

字段的类型不匹配:<field>

不支持PROTOBUF Java类

SQLSTATE:0A000

<protobufFunction> 不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。

未找到PROTOBUF消息

SQLSTATE:42K0G

无法在描述符中找到消息 <messageName>

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE:22KD3

无法调用 <functionName> SQL 函数,因为未加载 Protobuf 数据源。

请使用加载的“spark-protobuf”包重启作业或会话,例如在命令行上使用 --packages 参数,然后再次重试查询或命令。

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE:42K0G

尚不支持 Protobuf 类型:<protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE:22000

无法重试 pubsub 提取阶段中的任务。 阶段 <partitionInfo> 中的分区 <stageInfo>,TID <taskId>

PS_无效_空选项

SQLSTATE:42000

<key> 不能为空字符串。

PS_无效密钥类型

SQLSTATE:22000

无效的 PubSub dedup 密钥类型:<key>

PS_无效选项

SQLSTATE:42000

PubSub 不支持选项 <key>。 它只能在测试中使用。

PS_无效选项类型

SQLSTATE:42000

无效的 <key> 类型。 <key> 的预期类型为类型 <type>

无效的读取限制

SQLSTATE:42000

PubSub 流上的读取限制无效:<limit>

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE:22000

解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>。 输入 UnsafeRow 可能已损坏:<unsafeRow>

缺少授权信息

SQLSTATE:42000

找不到完整的 PubSub 身份验证信息。

缺少必要选项

SQLSTATE:42000

无法找到所需选项:<key>

检查点移动失败 (PS_MOVING_CHECKPOINT_FAILURE)

SQLSTATE:22000

无法将原始数据检查点文件从 <src> 移动到目标目录:<dest>

多重认证选项

SQLSTATE:42000

请提供 Databricks 服务凭据或 GCP 服务帐户凭据。

多个失败的阶段

SQLSTATE:22000

无法启动 PubSub 流,因为存在多个失败的提取:<failedEpochs>

PS_OPTION_NOT_IN_BOUNDS(选项不在范围内)

SQLSTATE:22000

<key> 必须在以下边界内:(<min>, <max>)(不包括这两个边界)。

请提供凭证(带选项)

SQLSTATE:42000

共享群集不支持使用实例配置文件进行身份验证。 使用 .option() 直接向流提供凭据。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE:0A000

PubSub 源连接器仅在禁用 spark.speculation 的群集中可用。

无法创建订阅

SQLSTATE:42000

尝试在主题 <subId> 上创建订阅 <topicId> 时出错。 请检查是否有足够的权限来创建订阅,然后重试。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE:22000

无法分析串行化字节以生成 proto。

PS_UNSUPPORTED_GET_OFFSET_CALL不支持的获取偏移调用

SQLSTATE:0A000

如果不提供限制,则不支持 getOffset。

Python数据源错误

SQLSTATE:38000

未能<action> Python 数据源 <type><msg>

PYTHON_流数据源_运行时错误

SQLSTATE:38000

Python 流式处理数据源执行 <action> 时失败:<msg>

SQLSTATE:428HD

无法访问被引用表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:

有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE:428HD

无法访问被引用表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:

有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

查询执行超时时间已超出

SQLSTATE:57KD0

由于超时(<timeoutSec>秒)而取消了查询执行。 可以通过设置 <config>来增加限制(以秒为单位)。

查询结果写入云存储权限错误

SQLSTATE:42501

工作区内部存储配置可防止 Databricks 访问云存储。

无法找到当前文件

SQLSTATE:42K03

<message>

可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE:4274K

<functionName> 函数调用设置了 <parameterName><alternativeName>,它们是彼此的别名。 请仅设置其中一个。

SQLSTATE:42000

分析 read_files() 函数的临时凭据时出错。

有关详细信息,请参阅 READ_FILES_CREDENTIALS_PARSE_ERROR

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER(读取_TVF_意外的必需参数)

SQLSTATE:4274K

必须在没有名称的位置 <functionName> 分配函数 <parameterName> 的必需参数 <expectedPos>

接收者过期不支持

SQLSTATE:0A000

收件人过期时间戳仅支持 TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ 类型。

递归_CTE_在_旧版模式

SQLSTATE:42836

递归定义不能在旧 CTE 优先模式中使用(spark.sql.legacy.ctePrecedencePolicy=LEGACY)。

强制内联时的递归常表达式

SQLSTATE:42836

强制使用 CTE 内联时,不能使用递归定义。

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE:42K0G

在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:<fieldDescriptor>。 请尝试将选项 recursive.fields.max.depth 设置为 1 到 10 之间。 不允许超过 10 个递归级别。

递归视图

SQLSTATE:42K0H

检测到递归视图 <viewIdent>(周期:<newPath>)。

分区中不允许设置引用默认值

SQLSTATE:42601

DEFAULT 子句中不允许引用 PARTITION 列值。

关系大于8G

SQLSTATE:54000

无法生成大于 8G 的 <relationName>

远程功能HTTP失败错误

SQLSTATE:57012

远程 HTTP 请求失败,错误代码为 <errorCode>,错误消息为 <errorMessage>

远程函数 HTTP 结果解析错误 (REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR)

SQLSTATE:22032

由于无法分析远程 HTTP 响应的 JSON 结果,因此无法计算 <functionName> SQL 函数;错误消息为“<errorMessage>”。 查看 API 文档:<docUrl>。 请修复错误消息中指示的问题,然后再次重试查询。

远程函数 HTTP 结果意外错误

SQLSTATE:57012

由于无法处理意外的远程 HTTP 响应,因此无法计算 <functionName> SQL 函数;错误消息为“<errorMessage>”。 查看 API 文档:<docUrl>。 请修复错误消息中指示的问题,然后再次重试查询。

远程功能_HTTP_重试_超时

SQLSTATE:57012

远程请求在重试 <N> 次后失败;最后一个失败的 HTTP 错误代码为 <errorCode>,消息为 <errorMessage>

远程功能缺少必要条件错误

SQLSTATE:57012

由于 <functionName>,未能计算 <errorMessage> SQL 表达式。 查看 <docUrl> 中的要求。 请修复错误消息中指示的问题,然后再次重试查询。

重命名源路径未找到

SQLSTATE:42K03

由于未找到 <sourcePath>,重命名失败。

重复条款

SQLSTATE:42614

在每个 <clause> 操作中最多可以使用 <operation> 子句一次。

所需参数已按位置提供

SQLSTATE:4274K

已在没有名称的位置 <routineName> 分配例程 <parameterName> 的必需参数 <positionalIndex>

请更新函数调用以删除此参数带 <parameterName> 的命名参数,或删除

位于 <positionalIndex> 的位置参数,然后重试查询。

必需的参数未找到

SQLSTATE:4274K

无法调用例程 <routineName>,因为需要名为 <parameterName> 的参数,但例程调用未提供值。 请更新例程调用,以(在索引 <index> 按位置或按名称)提供参数值,然后重试查询。

需要单一部分命名空间

SQLSTATE:42K05

<sessionCatalog> 需要单部分命名空间,但收到了 <namespace>

救援数据列与单一变体冲突

SQLSTATE:4274K

“rescuedDataColumn”DataFrame API 读取器选项与“singleVariantColumn”DataFrame API 选项互斥。

请删除其中一项,然后再次重试 DataFrame 操作。

写入时保留的CDC列

SQLSTATE:42939

写入包含保留列 <columnList>,这些列

在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除

这些列,或者将

<config> 设置为 false 来禁用表上的更改数据馈送。

SQLSTATE:0A000

选项 <option><source> 源的共享群集上具有受限值。

有关详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

例程已存在

SQLSTATE:42723

无法创建 <newRoutineType> <routineName>,因为该名称的 <existingRoutineType> 已存在。

选择其他名称、删除或替换现有 <existingRoutineType>,或者添加 IF NOT EXISTS 子句以容许现有 <newRoutineType>

未找到例程

SQLSTATE:42883

找不到例程 <routineName>。 请验证架构和目录的拼写和正确性。

如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要在放置时容忍错误,请使用DROP ... IF EXISTS

找不到例程参数

SQLSTATE:42000

例程 <routineName> 不支持位置 <parameterName> 处指定的参数 <pos><suggestion>

例程使用系统保留的类名

SQLSTATE:42939

无法创建函数 <routineName>,因为指定的类名“<className>”保留供系统使用。 请重命名该类,然后重试。

行级安全与ABAC不匹配

SQLSTATE:0A000

无法解析 <tableName> 上的行筛选器,因为从策略继承的行筛选器与显式定义的行筛选器之间存在不匹配。 若要继续,请禁用基于属性的访问控制(ABAC),并联系 Databricks 支持部门。

行级安全检查约束不支持

SQLSTATE:0A000

不支持使用行级别安全策略对表 CHECK 创建 <tableName> 约束。

行级安全重复列名称

SQLSTATE:42734

<statementType> 语句尝试将行级别安全策略分配到某个表,但两个或更多个被引用列具有相同的名称 <columnName>,这是无效操作。

SQLSTATE:0A000

不支持 <tableName> 的行级别安全策略:

有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

行级安全不兼容的架构更改

SQLSTATE:0A000

无法从表 <statementType> <columnName> 执行 <tableName>,因为它已在行级安全策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。

行级安全性合并不支持的来源

SQLSTATE:0A000

MERGE INTO 操作不支持源表 <tableName> 中的行级别安全策略。

行级安全性合并不支持的目标

SQLSTATE:0A000

MERGE INTO 操作不支持写入具有行级别安全策略的表 <tableName>

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE:42K05

此语句尝试将行级别安全策略分配到某个表,但被引用列 <columnName> 具有多个名称部分,这是无效操作。

行级安全需要UNITY_CATALOG

SQLSTATE:0A000

行级别安全策略仅在 Unity Catalog 中受支持。

行级安全功能不支持显示分区

SQLSTATE:0A000

使用行级别安全策略的 SHOW PARTITIONS 表不支持 <format> 命令。

行级安全表克隆源不受支持

SQLSTATE:0A000

不支持使用行级别安全策略从表 <mode> 进行 <tableName> 克隆。

行级安全策略表不支持克隆目标

SQLSTATE:0A000

不支持使用行级别安全策略将 <mode> 克隆到表 <tableName>

行级安全不支持常量作为参数

SQLSTATE:0AKD1

不支持在行级安全策略中使用常数作为参数。 请更新 SQL 命令以从行筛选器定义中删除常数,然后再次重试该命令。

ROW_LEVEL_SECURITY_不支持的数据类型

SQLSTATE:0AKDC

用于行级别安全策略的函数 <functionName> 具有具有不受支持的数据类型 <dataType>的参数。

行级安全性不支持的提供程序

SQLSTATE:0A000

无法执行 <statementType> 命令,因为不支持使用表提供程序“<provider>”为目标数据源分配行级别安全策略。

ROW_SUBQUERY_TOO_MANY_ROWS 错误:子查询返回过多行。

SQLSTATE:21000

用作行的子查询返回了多个行。

行值为空

SQLSTATE:22023

在索引 NULL 处的行中找到 <index>,期望值为非 NULL 值。

规则_ID_未找到

SQLSTATE:22023

找不到规则名称“<ruleName>”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。

示例表格权限

SQLSTATE:42832

示例数据库/表不支持权限。

标量函数不兼容

SQLSTATE:42K0O

ScalarFunction <scalarFunc> 不会重写使用自定义实现的“produceResult(InternalRow)”方法。

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE:42K0P

ScalarFunction <scalarFunc> 不会实现或重写“produceResult(InternalRow)”方法。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE:0A000

相关的标量查询“<sqlExpr>”既不存在于 GROUP BY 中,也不存在于聚合函数中。

使用序号位置将其添加到 GROUP BY,或者将其包装在 first()(或 first_value)中(如果你不在意收到的值)。

标量子查询返回行数过多 (SCALAR_SUBQUERY_TOO_MANY_ROWS)

SQLSTATE:21000

用作表达式的子查询返回了多个行。

已存在的时间表

SQLSTATE:42710

无法添加 <scheduleType> 到已具有 <existingScheduleType> 的表。 请删除现有计划或使用 ALTER TABLE ... ALTER <scheduleType> 更改它。

调度期无效

SQLSTATE:22003

<timeUnit> 的计划期限必须是介于 1 和 <upperBound> (含)之间的整数值。 已收到:<actual>

SCHEMA_ALREADY_EXISTS

SQLSTATE:42P06

无法创建架构 <schemaName>,因为它已存在。

选择其他名称、删除现有架构,或添加 IF NOT EXISTS 子句以容许现有的架构。

SCHEMA_NOT_EMPTY

SQLSTATE:2BP01

无法删除架构 <schemaName>,因为它包含对象。

使用 DROP SCHEMA ... CASCADE 删除架构及其所有对象。

模式未找到

SQLSTATE:42704

找不到架构 <schemaName>。 请验证架构和目录的拼写和正确性。

如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。

若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS

模式注册表配置错误

SQLSTATE:42K0G

无法初始化架构注册表中的架构。 <reason>

第二个函数参数不是整数 (SECOND_FUNCTION_ARGUMENT_NOT_INTEGER)

SQLSTATE:22023

<functionName> 函数的第二个参数需是整数。

秘密功能_位置无效

SQLSTATE:42K0E

无法使用对 <commandType> 函数的一个或多个非加密引用执行 SECRET 命令;请使用 AES_ENCRYPT 加密每个此类函数调用的结果,然后重试该命令

种子表达式是不可展开的

SQLSTATE:42K08

表达式 <seedExpr> 的种子表达式 <exprWithSeed> 必须可折叠。

服务器正忙

SQLSTATE:08KD1

服务器正忙,无法处理该请求。 请稍等片刻,然后重试。

SFTP_无法连接

SQLSTATE:08006

无法使用用户名<host>连接到端口<port>上的 SFTP 服务器<username>

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE:42K05

具有冲突命名空间的 SHOW COLUMNS<namespaceA> != <namespaceB>

不分桶排序

SQLSTATE:42601

sortBy 必须与 bucketBy 一起使用。

SPARK作业已取消

SQLSTATE:HY008

作业 <jobId> 已取消 <reason>

不允许指定分桶

SQLSTATE:42601

没有显式列列表的 CREATE TABLE 无法指定存储桶信息。

请使用具有显式列列表的表单,然后指定存储桶信息。

或者,允许通过省略此子句来推断存储桶信息。

无法指定具有分桶功能的集群划分

SQLSTATE:42908

不能同时指定 CLUSTER BYCLUSTERED BY INTO BUCKETS

不允许指定 CLUSTER BY 与 PARTITIONED BY一起使用

SQLSTATE:42908

不能同时指定 CLUSTER BYPARTITIONED BY

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE:42601

没有显式列列表的 CREATE TABLE 不能指定 PARTITIONED BY

请使用具有显式列列表的表单,然后指定 PARTITIONED BY

或者,允许通过省略此 PARTITION BY 子句来推断分区方式。

SQL_CONF_NOT_FOUND

SQLSTATE:42K0I

找不到 SQL 配置 <sqlConf>。 请验证该配置是否存在。

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE:07501

EXECUTE IMMEDIATE 命令中不允许使用 SQL 脚本。 请确保提供的 SQL 查询 (<sqlString>) 不是 SQL 脚本。 请确保sql_string是格式正确的 SQL 语句,不包含 BEGIN 和 END。

SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED

SQLSTATE:54000

已超出 SQL 脚本中的最大行数(id: <scriptId>) 。 允许的最大行数是 <maxLines>,并且你有 <lines> 行。

SQL_SCRIPT_超出本地变量声明的最大数量限制

SQLSTATE:54KD1

已超出 SQL 脚本(id: <scriptId>)中本地变量声明的最大数目。 允许的最大声明数是 <maxDeclarations>,并且你拥有 <declarations>

当前暂存路径不可访问

SQLSTATE:22000

访问目标暂存路径 <path> 时发生暂时性错误,请在几分钟后重试

星级分组_BY_销售点

SQLSTATE:0A000

使用 GROUP BY 和序号位置时,不允许在选择列表中使用星号 (*)。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE(有状态处理器无法在句柄状态无效时执行操作)

SQLSTATE:42802

未能执行有状态处理器操作“<operationType>”,句柄状态“<handleState>”无效。

有状态处理器无法在无效的时间模式下执行操作

SQLSTATE:42802

未能执行有状态处理器操作“<operationType>”,timeMode“<timeMode>”无效

有状态处理器重复定义状态变量

SQLSTATE:42802

名称为 <stateVarName> 的状态变量已在 StatefulProcessor 中定义。

有状态处理器分配TTL时的时间模式不正确

SQLSTATE:42802

在 timeMode“<stateName>”中不能对状态“<timeMode>”使用 TTL,请改用 TimeMode.ProcessingTime()。

有状态处理器的生存时间必须为正值

SQLSTATE:42802

对于针对状态“<operationType>”执行的状态存储操作“<stateName>”,TTL 持续时间必须大于零。

有状态处理器_未知时间模式

SQLSTATE:42802

未知时间模式 <timeMode>。 接受的 timeMode 模式为“none”、“processingTime”、“eventTime”

状态存储无法创建带有保留字符的列族

SQLSTATE:42802

未能创建具有不受支持的起始字符和名称“<colFamilyName>”的列系列。

状态存储不能使用具有无效名称的列族

SQLSTATE:42802

未能执行列系列操作“<operationName>”,名称“<colFamilyName>”无效。 列系列名称不能为空或包含前导/尾随空格,也不能使用保留关键字“default”

状态存储列族模式不兼容

SQLSTATE:42802

与列(family=<colFamilyName>、oldSchema=<oldSchema>、newSchema=<newSchema>)的架构转换不兼容。

状态存储不支持可重用迭代器

SQLSTATE:42K06

StateStore <inputClass> 不支持可重用迭代器。

状态存储句柄未初始化 (STATE_STORE_HANDLE_NOT_INITIALIZED)

SQLSTATE:42802

尚未为此 StatefulProcessor 初始化句柄。

请仅在 transformWithState 运算符中使用 StatefulProcessor。

状态存储范围扫描的排序列数不正确

SQLSTATE:42802

范围扫描编码器的排序序号数 <numOrderingCols> 不正确。 排序序号数不能为零,也不能大于架构列数。

状态存储_前缀扫描前缀列数不正确

SQLSTATE:42802

前缀扫描编码器的前缀列数 <numPrefixCols> 不正确。 前缀列数不能为零,也不能大于或等于架构列数。

重启后状态存储配置无效

SQLSTATE:42K06

不能在重启之间将 <configName><oldConfig> 更改为 <newConfig>。 请将 <configName> 设置为 <oldConfig>,或使用新的检查点目录重启。

状态存储无效供应商

SQLSTATE:42K06

给定的状态存储提供程序 <inputClass> 不会扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。

状态存储无效变量类型更改

SQLSTATE:42K06

在查询重启之间无法将 <stateVarName> 更改为 <newType>。 请将 <stateVarName> 设置为 <oldType>,或使用新的检查点目录重启。

状态存储本地RocksDB超时

SQLSTATE:58030

访问 RocksDB 状态存储以执行有状态流式处理操作时,调用 RocksDB 的原生函数 <funcName> 在等待超时=<timeoutMs> ms 后超时。 如果错误仍然存在,请重试并重启群集。

状态存储不支持空类型排序列

SQLSTATE:42802

范围扫描编码器不支持名称为“<fieldName>”、索引为“<index>”的 null 类型排序列。

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE:42K06

给定的状态存储提供程序 <inputClass> 不会扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。

因此,它不支持状态数据源中的 snapshotStartBatchId 或 readChangeFeed 选项。

状态存储状态模式文件阈值超限

SQLSTATE:42K06

状态架构文件数 <numStateSchemaFiles> 超过此查询的最大状态架构文件数:<maxStateSchemaFiles>

已添加:<addedColumnFamilies>,已删除:<removedColumnFamilies>

请将“spark.sql.streaming.stateStore.stateSchemaFilesThreshold”设置为更高的数字,或还原状态架构修改

状态存储_在缺失的列族上不支持的操作

SQLSTATE:42802

不支持对缺少的列系列“<operationType>”执行状态存储操作“<colFamilyName>”。

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED(状态存储值模式演变阈值超出)

SQLSTATE:42K06

<numSchemaEvolutions> 的状态架构演变数超过了允许此列系列的最大状态架构演变数(<maxSchemaEvolutions>)。

有冲突的列系列:<colFamilyName>

请将“spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold”设置为更大的数值,或恢复状态架构修改。

状态存储不支持以可变大小排序的列

SQLSTATE:42802

范围扫描编码器不支持名称为“<fieldName>”、索引为“<index>”的变量大小排序列。

静态分区列在插入列列表中

SQLSTATE:42713

列列表中还指定了静态分区列 <staticName>

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE:KD006

未找到提交的批处理,检查点位置:<checkpointLocation>。 在停止之前,请确保查询已运行并提交任何微批次。

性病冲突选项

SQLSTATE:42613

这些选项 <options> 不能一起指定。 请指定一个。

STDS_无法读取操作员元数据

SQLSTATE:42K03

未能读取 checkpointLocation=<checkpointLocation> 和 batchId=<batchId> 的运算符元数据。

文件不存在,或者文件已损坏。

请重新运行流式处理查询以构造运算符元数据,如果错误仍然存在,则向相应的社区或供应商报告。

STDS_未能读取状态模式

SQLSTATE:42K03

未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>

请重新运行流式处理查询以构造状态架构,如果错误仍然存在,则向相应的社区或供应商报告。

SQLSTATE:42616

源选项“<optionName>”的值无效:

有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE:KD006

状态没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>

STDS偏移日志不可用

SQLSTATE:KD006

<batchId> 的偏移量日志不存在,检查点位置:<checkpointLocation>

请指定可用于查询的批处理 ID - 可使用状态元数据数据源查询可用的批处理 ID。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE(偏移元数据日志不可用)

SQLSTATE:KD006

元数据不适用于 <batchId> 的偏移量日志,检查点位置:<checkpointLocation>

该检查点似乎只能使用较旧的 Spark 版本运行。 请使用最近的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE:42601

必须指定“<optionName>”。

不支持状态操作符的流式AQE

SQLSTATE:0A000

结构化流式处理中的有状态运算符不支持自适应查询执行。

从物化视图流式传输

SQLSTATE:0A000

无法从具体化视图 <viewName> 流式处理。 不支持从具体化视图流式处理。

SQLSTATE:42KDE

流式处理输出模式无效:<outputMode>

有关更多详细信息,请参阅 STREAMING_OUTPUT_MODE

SQLSTATE:0A000

流式处理实时模式具有以下限制:

有关更多详细信息,请参阅 STREAMING_REAL_TIME_MODE

流式有状态运算符在状态元数据中不匹配

SQLSTATE:42K03

流式处理的有状态运算符名称与状态元数据中的运算符不匹配。 当用户添加/删除/更改现有流式处理查询的有状态运算符时,可能会发生这种情况。

元数据中的有状态运算符:[<OpsInMetadataSeq>];当前批次中的有状态运算符:[<OpsInCurBatchSeq>]。

流媒体表需要刷新

SQLSTATE:55019

需要刷新流式处理表 <tableName> 才能执行 <operation>

如果表是从 DBSQL 中创建的,请运行 REFRESH STREAMING TABLE

如果表是由 DLT 中的管道创建的,请运行管道更新。

不支持流式表

SQLSTATE:56038

只能在 DLT 和 Databricks SQL 数据仓库中创建和刷新流式处理表。

SQLSTATE:42601

不允许 <operation> 操作:

有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED

流表查询无效

SQLSTATE:42000

只能从流式处理查询创建流式处理表 <tableName>。 请将 STREAM 关键字添加到 FROM 子句,以将此关系转换为流式处理查询。

找不到Kinesis的流STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE:42K02

<streamName> 中找不到 Kinesis 流 <region>

请启动指向正确流名称的新查询。

结构数组长度不匹配

SQLSTATE:2201E

输入行不包含架构所需的预期值数。 提供 <expected> 值时,<actual> 字段是必填字段。

限制和偏移量之和超出最大整数限制

SQLSTATE:22003

LIMIT 子句和 OFFSET 子句的总和不得大于最大 32 位整数值 (2,147,483,647),但发现限值 = <limit>,偏移值 = <offset>

SYNC_METADATA_DELTA_ONLY

SQLSTATE:0AKDD

仅 delta 表支持修复表同步元数据命令。

同步源目标表不一致

SQLSTATE:42KD2

源表名 <srcTable> 必须与目标表名 <destTable> 相同。

SQLSTATE:42601

在此上下文中,已停止支持子句或关键字:<clause>

有关更多详细信息,请参阅 SYNTAX_DISCONTINUED

表或视图已存在

SQLSTATE:42P07

无法创建表或视图 <relationName>,因为它已存在。

选择其他名称、删除现有对象、添加 IF NOT EXISTS 子句以容许预先存在的对象、添加 OR REPLACE 子句以替换现有的具体化视图,或添加 OR REFRESH 子句来刷新现有的流式处理表。

SQLSTATE:42P01

找不到表或视图 <relationName>。 请验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTSDROP TABLE IF EXISTS

有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND

尚未为 SQL 函数实现的表值参数

SQLSTATE:0A000

无法对带有 <action> 参数的 SQL 用户定义函数 <functionName> 执行 TABLE,因为此功能尚未实现。

表值函数在Python中分析失败

SQLSTATE:38000

无法分析 Python 用户定义表函数:<msg>

表值函数所需的元数据与调用不兼容

SQLSTATE:22023

无法评估表函数 <functionName>,因为其表元数据为 <requestedMetadata>,但函数调用 <invalidFunctionCallProperty>

表值函数所需的元数据无效

SQLSTATE:22023

无法评估表函数 <functionName>,因为其表元数据无效;<reason>

表值函数表参数过多

SQLSTATE:54023

表值函数的表参数太多。

允许一个表参数,但收到了:<num>

如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”

找不到具有指定ID的表

SQLSTATE:42P01

找不到 ID 为 <tableId> 的表。 请验证 UUID 是否正确。

任务写入失败 (TASK_WRITE_FAILED)

SQLSTATE:58030

将行写入 <path> 时任务失败。

临时表或视图已存在

SQLSTATE:42P07

无法创建临时视图 <relationName>,因为它已存在。

选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS 子句以容许现有的视图。

临时视图名称包含过多名称部分

SQLSTATE:428EK

CREATE TEMPORARY VIEW 或相应的数据集 API 仅接受单部分视图名称,但收到了:<actualName>

SELECT 中的尾随逗号

SQLSTATE:42601

在子句 SELECT 中检测到尾随逗号。 删除 FROM 子句前的尾随逗号。

转置超出行限制

SQLSTATE:54006

行数超过<maxValues>的允许限制为TRANSPOSE。 如果这是预期的,请将 <config> 设置为至少与当前行数相同。

转置操作中无效的索引列

SQLSTATE:42804

由于 TRANSPOSE,索引列 <reason> 无效。

无最小公共类型的转置

SQLSTATE:42K09

转置要求非索引列共享一个最低的公共类型,但<dt1><dt2>不满足这一条件。

触发间隔无效

SQLSTATE:22003

触发器间隔必须是可以转换为整数秒的正持续时间。 接收时间:<actual> 秒。

UC_BUCKETED_TABLES

SQLSTATE:0AKUC

Unity Catalog 中不支持存储桶表。

未提供UC目录名称

SQLSTATE:3D000

对于 Unity Catalog,请显式指定目录名称。 例如 SHOW GRANT your.address@email.com ON CATALOG main。

SQLSTATE:0AKUC

Unity Catalog 不支持命令 <commandName>

有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED

UC命令在无服务器环境中不受支持

SQLSTATE:0AKUC

无服务器下的 Unity Catalog 群集不支持命令 <commandName>。 请改用单个用户或共享群集。

UC_命令在共享访问模式下不受支持

SQLSTATE:0AKUC

共享访问模式下的 Unity Catalog 群集不支持命令 <commandName>。 改用单用户访问模式。

不支持UC凭证用途

SQLSTATE:0AKUC

指定的凭据类型不受支持。

UC_数据源不受支持

SQLSTATE:0AKUC

Unity Catalog 中不支持数据源格式 <dataSourceFormatName>

不支持UC数据源选项

SQLSTATE:0AKUC

Unity Catalog 中不支持数据源选项。

UC_依赖不存在

SQLSTATE:42P01

Unity 目录中不存在依赖项:

<errorMessage>

外部存储卷缺少位置

SQLSTATE:42601

外部卷必须存在 LOCATION 子句。 请检查用于创建外部卷的语法“CREATE EXTERNAL VOLUME ... LOCATION ...”。

UC_失败的供应状态

SQLSTATE:0AKUC

查询失败,因为它尝试引用表 <tableName>,但无法执行此操作:<failureReason>。 请更新表 <tableName> 以确保它处于活动预配状态,然后再次重试查询。

UC_不支持用于表创建的文件方案

SQLSTATE:0AKUC

不支持在 Unity Catalog 中使用文件方案 <schemeName> 创建表。

请改为使用同一表提供程序的 CREATE CONNECTION 命令创建联合数据源连接,然后使用 CREATE FOREIGN CATALOG 命令创建基于连接的目录以引用其中的表。

UC_HIVE_METASTORE_联邦跨目录视图不支持

SQLSTATE:56038

Hive 元存储联合视图不支持跨多个目录的依赖项。 Hive 元存储联合目录中的视图 <view> 必须使用 hive_metastore 或 spark_catalog 目录中的依赖项,但其依赖项 <dependency> 位于另一个目录 <referencedCatalog> 中。 请更新依赖项以满足此约束,然后再次重试查询或命令。

UC_蜂巢_元存储_联邦_未启用

SQLSTATE:0A000

未在此群集上启用 Hive 元存储联合。

此群集不支持访问目录 <catalogName>

UC_INVALID_DEPENDENCIES(无效依赖项)

SQLSTATE:56098

<viewName> 的依赖项在作为 <storedDeps> 分析时被记录为 <parsedDeps>。 此问题可能是因为不当使用非 SQL API 而导致。 可以通过运行 ALTER VIEW <viewName> AS <viewText> 来修复 Databricks Runtime 中的依赖项。

UC_INVALID_NAMESPACE

SQLSTATE:0AKUC

Unity Catalog 中不支持嵌套或空命名空间。

UC_INVALID_REFERENCE(无效引用)

SQLSTATE:0AKUC

无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>

UC_LAKEHOUSE_联合数据库_禁止写入

SQLSTATE:56038

此群集上的提供程序 <provider> 未启用 Unity Catalog Lakehouse 联合身份验证写入支持。

UC_位置不支持托管卷

SQLSTATE:42601

托管卷不接受 LOCATION 子句。 创建托管卷时,请检查语法“CREATE VOLUME ...”。

UC_未启用

SQLSTATE:56038

此群集上未启用 Unity Catalog。

UC查询联合未启用

SQLSTATE:56038

未在此群集上启用 Unity Catalog 查询联合。

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE:0AKUC

查询失败,因为它尝试引用 <objectType> <name> 因而未能成功:解析的 DBFS 路径 <resolvedHmsPath> 与 Unity Catalog 存储位置 <ucStorageLocation> 不一致。

未启用UC服务凭据

SQLSTATE:56038

此群集上未启用服务凭据。

UC_体积未启用

SQLSTATE:56038

此实例上未启用对 Unity Catalog 卷的支持。

UC_VOLUMES_共享未启用

SQLSTATE:56038

此实例上未启用对卷共享的支持。

UC_VOLUME_NOT_FOUND

SQLSTATE:42704

<name> 不存在。 请使用“SHOW VOLUMES”列出可用卷。

SQLSTATE:39000

无法为 <udfName>安装 UDF 依赖项。

有关更多详细信息,请参阅 UDF_ENVIRONMENT_ERROR

SQLSTATE:未分配

函数 <fn> 执行失败

有关更多详细信息,请参阅 UDF_ERROR

SQLSTATE:54KD0

违反了一个或多个 UDF 限制。

有关更多详细信息,请参阅 UDF_LIMITS

用户自定义函数数量超出最大限制 (UDF_MAX_COUNT_EXCEEDED)

SQLSTATE:54KD0

超出了 <maxNumUdfs> 个 UDF 的查询范围 UDF 限制(公共预览期间受限制)。 已找到 <numUdfs>。 UDF 为:<udfNames>

SQLSTATE:39000

Python 辅助角色意外退出

有关更多详细信息,请参阅 UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE:0A000

处于共享访问模式的群集不支持 PySpark UDF <udf> (<eval-type>)。

SQLSTATE:39000

执行失败。

有关更多详细信息,请参阅 UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE:0A000

用户定义的 <functionType> 函数不支持参数默认值。

SQLSTATE:39000

函数 <fn> 执行失败。

有关更多详细信息,请参阅 UDF_USER_CODE_ERROR

UDTF别名数量不匹配

SQLSTATE:42802

AS 子句中提供的别名数与 UDTF 输出的列数不一致。

需要 <aliasesSize> 别名,但收到了 <aliasesNames>

请确保提供的别名数与 UDTF 输出的列数一致。

请求排序字符串中的别名无效 - 来自ANALYZE方法

SQLSTATE:42802

未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>;请删除此别名,然后再次尝试查询。

UDTF_请求分析方法中选择的表达式无效,需要别名

SQLSTATE:42802

未能计算用户定义的表函数,因为它的“analyze”方法返回了请求的“select”表达式 (<expression>),但不包含相应的别名;请更新 UDTF 以在此处指定别名,然后再次尝试查询。

无法获取内存

SQLSTATE:53200

无法获取内存的 <requestedBytes> 字节,收到了 <receivedBytes>

无法转换为PROTOBUF消息类型

SQLSTATE:42K0G

无法将 SQL 类型 <toType> 转换为 Protobuf 类型 <protobufType>

无法获取 Hive 表

SQLSTATE:58030

无法提取 Hive 数据库 <dbName> 的表。 错误类名称:<className>.

无法推断架构

SQLSTATE:42KD9

无法推理 <format> 的架构。 必须手动指定。

未经授权的访问

SQLSTATE:42501

未授权访问:

<report>

未绑定的SQL参数

SQLSTATE:42P02

找到未绑定的参数:<name>。 请修复 args 并提供对 SQL 文本或集合构造函数 (例如 map()array()struct()) 的映射参数。

UNCLOSED_BRACKETED_COMMENT

SQLSTATE:42601

找到未闭合的方括号注释。 请在注释的末尾追加 */。

意外输入类型

SQLSTATE:42K09

函数 <paramIndex> 的参数 <functionName> 需要 <requiredType> 类型,但 <inputSql> 的类型为 <inputType>

命名参数的输入类型意外

SQLSTATE:42K09

函数 <namedParamKey> 的参数 <functionName> 需要 <requiredType> 类型,但 <inputSql> 的类型为 <inputType><hint>

意外操作符_在流视图中

SQLSTATE:42KDD

<op> 语句中作为流式处理源的意外运算符 CREATE VIEW

流式处理视图查询只能包含 SELECTWHEREUNION ALL 操作。

意外的定位参数

SQLSTATE:4274K

无法调用例程 <routineName>,因为它在分配到 <parameterName> 的已命名参数之后包含位置参数;请重新排列它们,使位置参数排在前面,然后重试查询。

类的意外序列化器

SQLSTATE:42846

<className> 具有意外的表达式序列化程序。 预期返回“STRUCT”的“IF”或“STRUCT”,但找到了 <expr>

SQLSTATE:KD003

分析期间遇到 <changeType><unknownFieldBlob>,可通过自动重试 <isRetryable> 进行修复:

有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE:4274K

例程 <routineName> 的调用在位置 <sqlExpr> 处包含一个未知的位置自变量 <pos>。 这是无效的。

未知的变体中基本类型

SQLSTATE:22023

在变体值中找到 ID 为 <id> 的未知基元类型。

未知_PROTOBUF_消息类型

SQLSTATE:42K0G

尝试将 <descriptorName> 视为消息,但它是 <containingType>

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE:42K0A

当未给定 UNPIVOT 表达式时,<given> 要求所有给定的 <empty> 表达式都是列。 这些表达式不是列:[<expressions>]。

UNPIVOT要求值列

SQLSTATE:42K0A

至少需要为 UNPIVOT 指定一个值列,所有列均指定为 ID。

取消透视值数据类型不匹配

SQLSTATE:42K09

逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>]。

反透视值大小不匹配

SQLSTATE:428C4

所有逆透视值列的大小必须与值列名称 (<names>) 相同。

未识别的参数名称 (UNRECOGNIZED_PARAMETER_NAME)

SQLSTATE:4274K

无法调用例程 <routineName>,因为例程调用包含名为 <argumentName> 的参数的命名参数引用,但此例程不包括任何包含具有此名称的参数的签名。 你是否指以下其中一项? [<proposal>]。

未识别的SQL类型

SQLSTATE:42704

无法识别的 SQL 类型 - 名称:<typeName>,ID:<jdbcType>

未识别的统计数据

SQLSTATE:42704

无法识别统计信息 <stats>。 有效统计信息包括 countcount_distinctapprox_count_distinctmeanstddevminmax 和百分位值。 百分位必须是数字值,后跟“%”,范围介于 0% 到 100%。

未解析的表值函数

SQLSTATE:42883

无法将 <name> 解析为表值函数。

请确保 <name> 定义为表值函数,并且正确提供了所有必需的参数。

如果未定义 <name>,请在使用表值函数之前创建它。

有关定义表值函数的详细信息,请参阅 Apache Spark 文档。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE:42803

无法基于 select 子句推断 GROUP BY ALL 的分组列。 请显式指定分组列。

SQLSTATE:42703

无法解析名称为 <objectName> 的列、变量或函数参数。

有关更多详细信息,请参阅 UNRESOLVED_COLUMN

SQLSTATE:42703

无法使用结构类型列 <fieldName> 解析具有名称 <columnPath> 的字段。

有关更多详细信息,请参阅 UNRESOLVED_FIELD

未解决的插入或替换使用栏

SQLSTATE:42703

REPLACE USING<colName> 无法在 <relationType> 中解析。

您是否指的是以下列之一? [<suggestion>]。

SQLSTATE:42703

无法将列 <objectName> 解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。

有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY

SQLSTATE:42883

无法解析搜索路径 <routineName> 上的例程 <searchPath>

验证 <routineName>的拼写,检查例程是否存在,并确认你对目录和架构具有 USE 权限,以及对例程具有 EXECUTE 权限。

有关更多详细信息,请参阅 UNRESOLVED_ROUTINE

未解决的使用列进行连接

SQLSTATE:42703

无法解析联接的 USING 一侧的 <colName><side><side> 一侧的列:[<suggestion>]。

未解决的变量

SQLSTATE:42883

无法解析搜索路径 <variableName> 上的变量 <searchPath>

非结构化数据处理不支持的文件格式

SQLSTATE:0A000

不支持非结构化文件格式 <format>。 支持的文件格式为 <supportedFormats>

请将 format 表达式中的 <expr> 更新为受支持的格式之一,然后再次重试查询。

非结构化数据处理不支持的模型选项

SQLSTATE:0A000

不支持非结构化模型选项 ('<option>' -> ''<value>)。 支持的值为: <supportedValues>

切换到其中一个受支持的值,然后再次重试查询。

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE:42000

指定“metadataModel”选项时,函数参数“ocrText”必须是NULL,或者被省略。 指定的“metadataModel”选项会触发数据提取功能,并禁止使用提供的“ocrText”。

SQLSTATE:0A000

不支持添加文件。

有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE

不支持的修改列参数

SQLSTATE:0A000

不支持使用 <parameter> 指定 ALTER <commandTableType>

不支持的箭头类型

SQLSTATE:0A000

不支持的箭头类型 <typeName>

不支持的批量表值函数

SQLSTATE:42000

函数 <funcName> 不支持批处理查询。

SQLSTATE:0A000

无法调用“<methodName>”类的“<className>”方法。

有关更多详细信息,请参阅 UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE:0A000

不能在表架构中使用 char/varchar 类型。

如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。

不支持的操作条款

SQLSTATE:0A000

<clause> 不支持 <operation>

SQLSTATE:0A000

排序规则 <collationName> 不受支持:

有关更多详细信息,请参阅 UNSUPPORTED_COLLATION

不支持的文件流源的通用祖先位置

SQLSTATE:42616

应向 UC 注册源路径和 sourceArchiveDir 的公共上级。

如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。

请将它们放入单个外部位置。

不支持的约束条款

SQLSTATE:0A000

不支持约束子句 <clauses>

不支持的约束类型

SQLSTATE:42000

不支持的约束类型。 仅支持 <supportedConstraintTypes>

不支持直接查询的数据源

SQLSTATE:0A000

不支持直接查询文件中的数据源类型:<dataSourceType>

不支持的数据类型

SQLSTATE:0A000

不支持的数据类型 <typeName>

不支持的数据源保存模式

SQLSTATE:0A000

数据源“<source>”不能以 <createMode> 模式写入。 请改用“追加”或“覆盖”模式。

不支持的数据类型用于数据源

SQLSTATE:0A000

<format> 数据源不支持类型为 <columnName> 的列 <columnType>

不支持的编码器数据类型

SQLSTATE:0A000

无法为 <dataType> 创建编码器。 请对 UDF 或 DataFrame 使用不同的输出数据类型。

SQLSTATE:0A000

不支持 DEFAULT 列值。

有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER (不支持的反序列化器)

SQLSTATE:0A000

不支持反序列化程序:

有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER

不支持的表达式生成列

SQLSTATE:42621

无法使用生成表达式 <fieldName> 创建生成的列 <expressionStr>,因为 <reason>

运算符不支持的表达式

SQLSTATE:42K0E

查询运算符包含一个或多个不受支持的表达式。

考虑重写该查询,以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

无效的表达式:[<invalidExprSqls>]

不支持的参数表达式

SQLSTATE:42K0E

查询参数包含不受支持的表达式。

参数可以是变量或文本。

无效表达式:[<invalidExprSql>]

不支持窗口的表达式

SQLSTATE:42P20

窗口函数中不支持表达式 <sqlExpr>

SQLSTATE:0A000

不支持该功能:

有关详细信息,请参阅 UNSUPPORTED_FEATURE

不受支持的功能类型

SQLSTATE:0A000

不支持的用户定义函数类型:<language>

SQLSTATE:42K0E

不支持生成器:

有关详细信息,请参阅 UNSUPPORTED_GENERATOR

不支持的分组表达式

SQLSTATE:42K0E

grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用。

不支持的Kinesis源初始位置和触发器对

SQLSTATE:42616

Kinesis 源不支持初始位置为 <trigger><initialPosition>

SQLSTATE:42809

无法插入目标。

有关更多详细信息,请参阅 UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE (不支持的连接类型)

SQLSTATE:0A000

不支持的联接类型“<typ>”。 支持的联接类型包括:<supported>

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE:0AKDD

不支持使用数据源 <tableName> 创建托管表 <dataSource>。 需要使用数据源DELTA或使用CREATE EXTERNAL TABLE <tableName>创建外部表USING <dataSource>...

SQLSTATE:42K0E

MERGE 操作包含不受支持的 <condName> 条件。

有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE:0A000

<tableName> 包含的行级别安全策略或列掩码间接引用了另一个包含行级别安全策略或列掩码的表;这种情况不受支持。 调用序列:<callSequence>

SQLSTATE:42902

无法覆盖正在读取的目标。

有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE

不支持的分区转换

SQLSTATE:0A000

不支持的分区转换:<transform>。 支持的转换为 identitybucketclusterBy。 确保转换表达式使用其中一种。

SQLSTATE:0A000

以下对象不支持保存模式 <saveMode>

有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE

SQLSTATE:0A000

不支持的 SHOW CREATE TABLE 命令。

有关更多详细信息,请参阅 UNSUPPORTED_SHOW_CREATE_TABLE

不支持的单遍分析器功能

SQLSTATE:0A000

单传递分析器无法处理此查询或命令,因为它尚不支持 <feature>

不支持无水印的流操作符

SQLSTATE:0A000

<outputMode> 在没有水印的流式处理 DataFrame/数据集上不支持 <statefulOperator> 输出模式。

SQLSTATE:0A000

不支持流式传输视图。 原因:

有关详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

不支持的流媒体选项权限已强制执行

SQLSTATE:0A000

共享群集上的数据源 <options> 不支持流式处理选项 <source>。 请确认选项已指定并拼写正确,并检查 https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 的限制。

不支持的流媒体接收权限已执行

SQLSTATE:0A000

不支持将数据源 <sink> 用作共享群集上的流式处理接收器。

不支持的流媒体源权限已执行

SQLSTATE:0A000

不支持将数据源 <source> 用作共享群集上的流式处理源。

不支持的流式表值函数

SQLSTATE:42000

函数 <funcName> 不支持流式处理。 请删除 STREAM 关键字

不支持的Kinesis源流读取限制

SQLSTATE:0A000

Kinesis 源不支持 <streamReadLimit>

SQLSTATE:0A000

不支持的子查询表达式:

有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

不支持的时间序列列

SQLSTATE:56038

不支持创建具有时序列的主键

不支持包含多列的时间序列

SQLSTATE:0A000

不支持创建具有多个时序列 <colSeq> 的主键

不支持的Kinesis源触发器

SQLSTATE:0A000

Kinesis 源不支持 <trigger>

不支持的类型文字

SQLSTATE:0A000

不支持 <unsupportedType> 类型的文本。 支持的类型为<supportedTypes>

不支持的用户定义函数特性

SQLSTATE:0A000

函数 <function> 使用以下需要较新版本的 Databricks 运行时的功能:<features>。 请参阅 <docLink> 以了解详细信息。

不支持的UDF类型在同一位置

SQLSTATE:0A000

UDF 类型不能一起使用:<types>

非类型化SCALA用户定义函数 (UNTYPED_SCALA_UDF)

SQLSTATE:42K0E

你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。

Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType),NULL 输入的结果为 0。 若要消除此错误,可以:

  1. 使用类型化的 Scala UDF API(没有返回类型参数),例如 udf((x: Int) => x)

  2. 如果输入类型都是非基元,则使用 Java UDF API,例如 udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)

  3. 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。

SQLSTATE:0AKUC

表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:

有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED

SQLSTATE:42601

用户定义函数无效:

有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE:P0001

<errorMessage>

用户引发的异常:参数不匹配

SQLSTATE:P0001

raise_error() 函数用于引发错误类:<errorClass>,需要参数:<expectedParms>

提供的参数 <providedParms> 与需要的参数不匹配。

请确保提供所有需要的参数。

用户引发异常_未知错误类

SQLSTATE:P0001

raise_error() 函数用于引发未知错误类:<errorClass>

变量已存在

SQLSTATE:42723

无法创建变量 <variableName>,因为它已存在。

选择其他名称,或者删除或替换现有变量。

变量未找到

SQLSTATE:42883

找不到 <variableName> 变量。 请验证架构和目录的拼写和正确性。

如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE:22023

无法构造大于 16 MiB 的变体。 变体值的最大允许大小为 16 MiB。

VARIANT_DUPLICATE_KEY (变体重复键)

SQLSTATE:22023

由于对象键 <key> 重复,无法构建变体。

VARIANT_SIZE_LIMIT

SQLSTATE:22023

无法在 <sizeLimit> 中生成大于 <functionName> 的变体。

请避免在此表达式中输入较大的字符串(例如,添加函数调用来检查表达式大小,如果太大,则首先将其转换为 NULL)。

视图已存在

SQLSTATE:42P07

无法创建视图 <relationName>,因为它已存在。

选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。

视图超过最大嵌套深度

SQLSTATE:54K00

视图 <viewName> 的深度超出了最大视图分辨率深度 (<maxNestedDepth>)。

分析已中止以避免错误。 若要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。

视图未找到

SQLSTATE:42P01

找不到视图 <relationName>。 请验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTS

卷已经存在

SQLSTATE:42000

无法创建卷 <relationName>,因为它已存在。

选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。

窗口函数与帧不匹配

SQLSTATE:42K0E

<funcName> 函数只能在具有单个偏移量的有序的基于行的窗口框架中进行计算:<windowExpr>

窗口函数缺少 OVER 子句

SQLSTATE:42601

Window 函数 <funcName> 需要 OVER 子句。

含凭证

SQLSTATE:42601

WITH CREDENTIAL 不支持 <type> 语法。

禁止写入流

SQLSTATE:42601

只能在流式处理数据集/数据帧上调用 writeStream

不支持 DELTA ALTER TABLE ADD COLUMN 的错误列默认值

SQLSTATE:0AKDC

未能执行命令,因为将新列添加到先前存在的 Delta 表时,DEFAULT 值不受支持

请先添加没有默认值的列,

然后运行第二 ALTER TABLE ALTER COLUMN SET DEFAULT 个命令以应用

请求将来插入的行。

错误的列默认值,Delta功能未启用

SQLSTATE:0AKDE

未能执行 <commandType> 命令,因为它为某个列分配了 DEFAULT 值,

但未启用相应的表功能。 请在执行 ALTER TABLE tableName SET

执行 ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。

命令与对象类型不匹配

SQLSTATE:42809

操作 <operation> 需要 <requiredType>。 但 <objectName><foundType>。 请改用 <alternative>

SQLSTATE:42605

<functionName> 需要 <expectedNum> 个参数,但实际数量为 <actualNum>

有关更多详细信息,请参阅 WRONG_NUM_ARGS

XML行标签缺失

SQLSTATE:42KDD

<rowTag> 是以 XML 格式读取/写入文件所需的选项。

XML_不支持的嵌套类型

SQLSTATE:0N000

XML 不支持 <innerDataType> 作为内部类型 <dataType>。 在 <innerDataType> 中使用时,请将 <dataType> 包装在 StructType 字段中。

XML通配符数据恢复冲突错误

SQLSTATE:22023

无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。

ZORDERBY_COLUMN_DOES_NOT_EXIST (排序列不存在)

SQLSTATE:42703

ZOrderBy 列 <columnName> 不存在。

Delta Lake

未找到激活的Delta Spark会话

SQLSTATE:08003

找不到活动的 SparkSession

DELTA_活动事务已设定

SQLSTATE:0B000

当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态

增添具有内部名称的列失败

SQLSTATE:42000

无法添加列 <colName>,因为名称是保留的。

禁止添加删除向量的增量

SQLSTATE:0A000

当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。

不允许在边界紧密情况下添加删除向量的增量

SQLSTATE:42000

所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。

DELTA_在索引小于零时添加列

SQLSTATE:42KD3

要添加列 <columnIndex> 的索引 <columnName> 小于 0

DELTA_添加_列_父项_不是_结构体

SQLSTATE:42KD3

无法添加 <columnName>,因为其父级不是 StructType。 已找到 <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE:42KD3

未在位置 <position> 处找到结构

DELTA_ADD_CONSTRAINTS

SQLSTATE:0A000

请使用 ALTER TABLE ADD CONSTRAINT 添加 CHECK 约束。

生成列中的增量聚合

SQLSTATE:42621

已找到 <sqlExpr>。 生成的列不能使用聚合表达式

不支持增量聚合

SQLSTATE:42903

<operation> <predicate> 中不支持聚合函数。

不支持修改排序规则的布隆过滤器 (DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER)

SQLSTATE:428FR

无法更改列 <column> 的排序规则,因为它具有布隆筛选器索引。 请保留现有的排序规则,或者删除布隆筛选器索引,然后再次重试该命令,以更改排序规则。

DELTA_不支持通过聚类修改排序规则

SQLSTATE:428FR

无法更改列 <column> 的排序规则,因为它是聚类分析列。 请保留现有的排序规则,或者使用 ALTER TABLE 命令将列更改为非聚类分析列,然后再次重试该命令,以更改排序规则。

不支持 DELTA 修改表更改列

SQLSTATE:42837

ALTER TABLE CHANGE COLUMN 不支持将列 <currentType> 更改为 <newType>

DELTA不允许按CLUSTER BY修改表

SQLSTATE:42000

只有使用 Liquid 聚类分析的 Delta 表支持使用 ALTER TABLE CLUSTER BY

不允许在分区表上进行DELTA_ALTER_TABLE_CLUSTER_BY操作

SQLSTATE:42000

ALTER TABLE CLUSTER BY 不能应用于已分区表。

DELTA 不允许重命名表

SQLSTATE:42000

不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称 <newName> 的 Delta 表,可以通过将 <key> 设置为 true 来启用它。

修改DELTA表的SET_CLUSTERING表功能不允许

SQLSTATE:42000

无法使用 <tableFeature> 启用 ALTER TABLE SET TBLPROPERTIES 表功能。 请使用 CREATEREPLACE TABLE CLUSTER BY 创建包含聚类分析的 Delta 表。

DELTA_数据类型变更歧义

SQLSTATE:429BQ

无法将 <column> 的数据类型从 <from> 更改为 <to>。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE [ADD | DROP | RENAME] COLUMN 单独进行这些更改。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE:42702

不明确的分区列 <column> 可以是 <colMatches>

创建表时的DELTA模糊路径

SQLSTATE:42613

CREATE TABLE 包含两个不同的位置:<identifier><location>

可以从 LOCATION 语句中删除 CREATE TABLE 子句,也可以设置

<config> 设置为 true 以跳过此检查。

已归档文件在限制内

SQLSTATE:42KDC

<table> 不包含非存档文件中的足够记录,无法满足指定的 LIMIT/<limit> 条记录)。

扫描中的增量归档文件

SQLSTATE:42KDC

在表 <numArchivedFiles> 中找到 <table> 个需要作为此查询的一部分扫描的可能已存档文件。

无法访问已存档的文件。 当前存档前时间配置为 <archivalTime>

请调整查询筛选器以排除所有已存档的文件。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE:42KD4

当表启用了更改数据馈送 (CDF) 并使用 <opName>DROP COLUMN 进行了架构更改后,不允许执行操作“RENAME COLUMN”。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE:42703

无法删除以下不存在的列的 Bloom 筛选器索引:<unknownColumns>

增量布隆过滤器写入时内存不足

SQLSTATE:82100

在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>

可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE:429BQ

无法更改数据类型:<dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE:42601

无法使用 SET TBLPROPERTIES 更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION

DELTA_无法更改供应商

SQLSTATE:42939

“provider”是保留的表属性,不能更改。

无法为不存在的列创建布隆过滤器_DELTA

SQLSTATE:42703

无法为以下不存在的列创建 Bloom 筛选器索引:<unknownCols>

DELTA_无法创建日志路径

SQLSTATE:42KD5

无法创建 <path>

无法描述视图历史的Delta操作或功能限制

SQLSTATE:42809

无法描述视图的历史记录。

无法在非索引列上删除布隆过滤器

SQLSTATE:42703

无法删除非索引列上的 bloom 筛选器索引:<columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE:0AKDE

无法删除 CHECK 约束表功能。

必须先删除以下约束:<constraints>

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE:0AKDE

无法删除排序规则表功能。

具有非默认排序规则的列必须更改为首先使用 UTF8_BINARY:<colNames>

DELTA_无法评估表达式

SQLSTATE:0AKDC

无法计算表达式:<expression>

无法找到桶规格_DELTA

SQLSTATE:22000

需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格

DELTA_无法为表达式生成代码

SQLSTATE:0AKDC

无法生成表达式的代码:<expression>

无法修改仅追加的DELTA

SQLSTATE:42809

此表配置为仅允许追加。 如果要允许更新或删除,请使用“”。ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)

不能修改协调提交的依赖关系

SQLSTATE:42616

<Command> 无法替代或取消设置提交中的时间戳表属性,因为在此表中启用了协调提交,并依赖于这些提交。 请从 TBLPROPERTIES 子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。

DELTA_无法修改表属性

SQLSTATE:42939

用户无法指定 Delta 表配置 <prop>

无法覆盖协调提交的配置 (DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS)

SQLSTATE:42616

<Command> 无法替代现有目标表的协调提交配置。 请从 TBLPROPERTIES 子句中删除它们(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.tableConf-preview”),然后再次重试该命令。

无法从URI重建路径的DELTA

SQLSTATE:22KD1

在事务日志中找到无法转换为相对路径的 uri (<uri>)。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE:42000

一个无法通过事务日志中找到的当前输入相对化的 (<path>)

路径 ()。 请用以下方式重新运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<userPath>, true)

然后运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“”<path>

无法重命名路径

SQLSTATE:22KD1

无法将 <currentPath> 重命名为 <newPath>

无法用Delta替换缺失的表

SQLSTATE:42P01

无法替换表 <tableName>,因为它不存在。 使用 CREATEREPLACE TABLE 创建表。

DELTA_CANNOT_RESOLVE_COLUMN (无法解析列)

SQLSTATE:42703

无法解析 <columnName> 中的列 <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE:22003

无法将表还原到 <version> 版本。 可用版本:[<startVersion>, <endVersion>]。

DELTA_无法将时间戳恢复至更早时间

SQLSTATE:22003

无法将表还原到时间戳 (<requestedTimestamp>),因为它早于可用的最早版本。 请使用晚于 (<earliestTimestamp>) 的时间戳。

DELTA_无法还原_时间戳更大

SQLSTATE:22003

无法将表还原到时间戳 (<requestedTimestamp>),因为它在可用的最新版本之后。 请使用早于 (<latestTimestamp>) 的时间戳

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE:42616

<Command> 无法同时设置提交中的时间戳表属性与协调提交,因为后者依赖于前者并在内部设置前者。 请从 TBLPROPERTIES 子句中删除它们(“delta.enableInCommitTimestamps”、“delta.inCommitTimestampEnablementVersion”、“delta.inCommitTimestampEnablementTimestamp”),然后再次重试该命令。

无法在路径标识符上设置位置

SQLSTATE:42613

无法更改基于路径的表的位置。

无法设置管理的统计列属性的DELTA

SQLSTATE:42616

无法在非 DLT 表上设置 delta.managedDataSkippingStatsColumns

DELTA_无法在命令中设置_UC_COMMIT_COORDINATOR_CONF

SQLSTATE:42616

将“unity-catalog”作为提交协调器启用时,无法通过命令设置配置“<configuration>”。 请将其从 TBLPROPERTIES 子句中移除,然后再次重试该命令。

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE:42616

启用“unity-catalog”作为提交协调器时,无法从 SparkSession 配置中设置配置“<configuration>”。 请通过运行 spark.conf.unset("<configuration>") 来取消设置它,然后再次重试该命令。

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE:42616

ALTER 无法取消设置协调提交配置。 若要在协调提交中降级一个表,请重试使用 ALTER TABLE[table-name]DROP FEATURE 'coordinatedCommits-preview'

DELTA_无法更新数组字段

SQLSTATE:429BQ

无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素

DELTA_无法更新_MAP_字段

SQLSTATE:429BQ

无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射

无法更新其他字段的增量

SQLSTATE:429BQ

无法更新 <tableName> 类型的 <typeName> 字段

无法更新结构字段的DELTA

SQLSTATE:429BQ

无法更新 <tableName> 字段 <fieldName> 类型:通过添加、删除或更新其字段来更新结构

Delta系统无法将所有列用于分区

SQLSTATE:428FT

无法将所有列用于分区列

DELTA_CANNOT_VACUUM_LITE

SQLSTATE:55000

VACUUM LITE 无法删除所有符合条件的文件,因为 Delta 日志未引用某些文件。 请运行 VACUUM FULL

无法将增量写入视图

SQLSTATE:0A000

<table> 是视图。 不支持对视图的写入。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE(表写入中的DElta转换溢出)

SQLSTATE:22003

由于溢出,无法将 <sourceType> 类型值写入 <targetType> 类型列 <columnName>

对输入值使用 try_cast 以容许溢出并改为返回 NULL

如有必要,将 <storeAssignmentPolicyFlag> 设置为“LEGACY”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag> 设置为 true 以还原旧行为,并遵循 <ansiEnabledFlag>UPDATE 中的 MERGE

此版本中不允许使用DELTA_CDC

SQLSTATE:0AKDC

无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。

增量变更数据馈送不兼容的数据架构

SQLSTATE:0AKDC

由于数据架构不兼容,检索版本 <start><end> 之间的表更改失败。

你的读取架构是版本 <readSchema> 中的 <readVersion>,但我们发现版本 <incompatibleVersion> 中的数据架构不兼容。

如果可能,请通过将 <config> 设置为 endVersion 使用最终版本的架构来检索表更改,或者联系支持人员。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0AKDC

由于架构更改不兼容,检索版本 <start><end> 之间的表更改失败。

你的读取架构是版本 <readSchema> 中的 <readVersion>,但我们发现版本 <incompatibleVersion> 中的架构更改不兼容。

如果可能,请分别将查询表从版本 <start> 更改为 <incompatibleVersion> - 1,从版本 <incompatibleVersion> 更改为 <end>

DELTA_CHANGE_DATA_FILE_NOT_FOUND (增量更改数据文件未找到)

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 如果已从文件系统中手动删除数据,而不是使用表 DELETE 语句进行删除,则可能会发生这种情况。 此请求似乎针对更改数据馈送,如果是这样,当更改数据文件超出保留期并由 VACUUM 语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>

增量变更表已禁用

SQLSTATE:42807

无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。

DELTA_检查点_不可用表

SQLSTATE:42K03

无法为不存在的表 <path> 创建检查点。 是否手动删除了 _delta_log 目录中的文件?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE:42613

提供两条路径作为 CLONE 目标,因此使用哪条路径是不明确的。 在提供

路径的同时,还在 CLONE 处提供 <externalLocation> 的外部位置

<targetIdentifier>

SQLSTATE:0AKDC

克隆源具有有效的格式,但具有 Delta 不支持的功能

有关详细信息 ,请参阅DELTA_CLONE_INCOMPATIBLE_SOURCE

DELTA_克隆_不完整_文件_复制

SQLSTATE:42000

未完全复制文件 (<fileName>)。 预期文件大小 <expectedSize>,找到:<actualSize>。 若要忽略文件大小检查以继续操作,请将 <config> 设置为 false。

增量克隆不支持的源

SQLSTATE:0AKDC

克隆源“<mode>”不受支持 <name>,其格式为 <format>

支持的格式为“delta”、“iceberg”和“parquet”。

SQLSTATE:0AKDC

不支持的源表:

有关详细信息 ,请参阅DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE:0AKDC

不支持的目标表:

有关详细信息 ,请参阅DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED(不支持DELTA聚类克隆表)

SQLSTATE:0A000

不支持 DBR 版本 CLONE 的 Liquid 群集 Delta 表中的 < 14.0

DELTA 聚类列的数据类型不支持

SQLSTATE:0A000

不支持 CLUSTER BY,因为以下列 <columnsWithDataTypes> 不支持跳过数据。

DELTA聚类列不匹配

SQLSTATE:42P10

提供的聚类分析列与现有的表不匹配。

  • 提供的:<providedClusteringColumns>

  • 现有的:<existingClusteringColumns>

DELTA_CLUSTERING_COLUMN缺少统计数据

SQLSTATE:22000

液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>”:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE (用于从流动表创建外部非流动表的Delta群集操作)

SQLSTATE:22000

不允许从使用液体聚类分析的表目录创建不使用液体聚类分析的外部表;路径:<path>

不支持DELTA聚类

SQLSTATE:42000

<operation>”不支持聚类分析。

DELTA_集群_阶段_失败

SQLSTATE:0AKDE

无法使用 <phaseOutType> 表功能完成表的 <tableFeatureToAdd>(原因:<reason>)。 请再次尝试 OPTIMIZE 命令。

== 错误 ==

<error>

数据聚类将表替换为分区表

SQLSTATE:42000

不允许使用已分区表 REPLACE 使用 Liquid 聚类分析的 Delta 表。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE:0A000

无任何聚类分析列的 Liquid 聚类分析 Delta 表不支持 SHOW CREATE TABLE

保持原英文标识符不变以确保技术准确性:DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE:42000

当现有表具有非空聚类分析列时,不允许将具有 Liquid 聚类分析的 Delta 表转换为分区表来执行相关操作:<operation>

请首先运行 ALTER TABLE CLUSTER BY NONE 以删除聚类分析列。

增量聚类与动态分区覆写

SQLSTATE:42000

使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。

增量聚类_含分区谓词

SQLSTATE:0A000

使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令不支持分区谓词。 请删除谓词:<predicates>

增量聚类及排序功能 (DELTA_CLUSTERING_WITH_ZORDER_BY)

SQLSTATE:42613

使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令无法指定 ZORDER BY。 请删除 ZORDER BY (<zOrderBy>)。

按无效列数聚类的Delta

SQLSTATE:54000

Liquid 聚类分析的 CLUSTER BY 最多支持 <numColumnsLimit> 个聚类分析列,但表中有 <actualNumColumns> 个聚类分析列。 请删除多余的聚类分析列。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED(未提供按架构分组的 Delta 集群)

SQLSTATE:42908

未定义架构时,不允许指定 CLUSTER BY。 请定义表 <tableName> 的架构。

DELTA_按分桶聚类

SQLSTATE:42613

无法同时指定聚类分析和分桶。 如果要使用聚类分析创建 Delta 表,请删除 CLUSTERED BY INTO BUCKETS/bucketBy。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE:42613

无法同时指定聚类分析和分区。 如果要使用聚类分析创建 Delta 表,请删除 PARTITIONED BY/partitionBy/partitionedBy。

增量排序不支持

SQLSTATE:0AKDC

Delta Lake 不支持排序规则。

DELTA列数据跳过不支持分区列

SQLSTATE:0AKDC

分区列“<column>”不支持跳过数据。

增量列数据跳过不支持类型

SQLSTATE:0AKDC

类型为 <column> 的列“<type>”不支持跳过数据。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE:42703

未在启用列映射的表上设置最大列 ID 属性 (<prop>)。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID 未正确设置

SQLSTATE:42703

启用列映射的表上的最大列 ID 属性 (<prop>) 为 <tableMax>,它不能小于所有字段的最大列 ID (<fieldMax>)。

DELTA_COLUMN_MISSING_DATA_TYPE (字段缺少数据类型)

SQLSTATE:42601

未提供列 <colName> 的数据类型。

DELTA_COLUMN_NOT_FOUND

SQLSTATE:42703

无法找到给定 [<columnName>] 的 <columnList>

在合并中找不到 DELTA 列

SQLSTATE:42703

无法从 <targetCol> 列找到目标表的列“INSERT”:<colNames>INSERT 子句必须为目标表的所有列指定值。

在架构中找不到DELTA列

SQLSTATE:42703

在下列位置无法找到 <columnName> 列:

<tableSchema>

DELTA列路径未嵌套

SQLSTATE:42704

<columnPath> 应为嵌套数据类型,但找到的类型为 <other>。 正在查找

嵌套字段中 <column> 的索引。

架构:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH(Delta列结构类型不匹配)

SQLSTATE:2200G

结构列 <source> 无法插入到 <targetType> 中的 <targetField> 字段 <targetTable>

增量提交中间重定向状态

SQLSTATE:42P01

无法处理重定向表状态“<state>”内表的提交。

DELTA_压缩验证失败

SQLSTATE:22000

路径 <compactedPath><newPath> 的压缩验证失败:请提交 bug 报告。

DELTA_复合类型列包含空类型

SQLSTATE:22005

在数据类型为 <columName><dataType> 列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。

DELTA_CONCURRENT_APPEND

SQLSTATE:2D521

ConcurrentAppendException:已通过并发更新将文件添加到 <partition><retryMsg> <conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_并发删除_删除

SQLSTATE:2D521

ConcurrentDeleteDeleteException:此事务尝试删除已由并发更新删除的一个或多个文件(例如 <file>)。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

Delta并发删除读取

SQLSTATE:2D521

ConcurrentDeleteReadException:此事务尝试读取已由并发更新删除的一个或多个文件(例如 <file>)。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONCURRENT_TRANSACTION

SQLSTATE:2D521

ConcurrentTransactionException:当多个流式处理查询使用相同的检查点来写入此表时,会发生此错误。 是否同时运行了同一流式处理查询的多个实例?<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONCURRENT_WRITE

SQLSTATE:2D521

ConcurrentWriteException:自当前事务读取表以来,并发事务已写入新数据。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_CONFLICT_SET_COLUMN

SQLSTATE:42701

这些 SET 列之间存在冲突:<columnList>

不支持在命令中覆盖 DELTA 配置

SQLSTATE:42616

<command> 期间,无法从命令设置配置“<configuration>”。 请将其从 TBLPROPERTIES 子句中移除,然后再次重试该命令。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION (在会话中不支持 Delta 配置覆盖)

SQLSTATE:42616

<command> 期间,无法从 SparkSession 配置设置配置“<configuration>”。 请通过运行 spark.conf.unset("<configuration>") 来取消设置它,然后再次重试该命令。

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE:42710

约束“<constraintName>”已存在。 请先删除旧约束。

旧约束:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE:42K09

<columnName> 具有数据类型 <columnType>,无法更改为数据类型 <dataType>,因为以下检查约束引用了此列:

<constraints>

增量约束依赖列更改

SQLSTATE:42K09

无法更改列 <columnName>,因为以下检查约束引用了此列:

<constraints>

DELTA约束不存在

SQLSTATE:42704

无法从表 <constraintName> 中删除不存在的约束 <tableName>。 若要避免引发错误,请提供参数 IF EXISTS 或将 SQL 会话配置 <config> 设置为 <confValue>

DELTA转换在读合并不支持

SQLSTATE:0AKDC

不支持转换读取时合并 <format> 表:<path><hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE:42KD6

在目录中找不到表 <tableName> 的分区信息。 你是否已对该表运行“MSCK REPAIR TABLE”来发现分区?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE:0AKDC

无法将已排序分区列 <colName> 的 Parquet 表转换为 Delta。

Δ转换_不支持的列映射

SQLSTATE:0AKDC

使用 <config> TO <mode> 时,无法将配置“CONVERT”设置为 DELTA

不支持模式更改的DELTA转换

SQLSTATE:0AKDC

找不到 <format> 表的不支持架构更改:<path><hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE:0AKDC

CONVERT TO DELTA 仅支持 Parquet 表,但你尝试转换 <sourceName> 源:<tableId>

DELTA转换为不带统计数据的DELTA行跟踪

SQLSTATE:22000

无法在不收集统计信息的情况下启用行跟踪。

如果要启用行跟踪,请执行以下操作:

  1. 通过运行以下命令启用统计信息收集:

SET <statisticsCollectionPropertyKey> = 真

  1. 在没有 NO CONVERT 选项的情况下运行 DELTA TO STATISTICS

如果不需要收集统计信息,请禁用行跟踪:

  1. 通过运行以下命令停用默认启用表功能:

RESET <rowTrackingTableFeatureDefaultKey>

  1. 通过运行以下命令停用默认表属性:

SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE:0AKDD

COPY INTO 目标必须是 Delta 表。

DELTA_创建外部表时没有架构

SQLSTATE:42601

你正在尝试使用 Delta 从以下位置创建外部表 <tableName>

<path> 创建外部表 ,但在输入路径为空时

未指定架构。

若要详细了解 Delta,请参阅 <docLink>

DELTA_创建外部表_无事务日志

SQLSTATE:42K03

你正在尝试使用 Delta 从以下位置创建外部表 <tableName>

%2$s 创建外部表,但 %2$s/_delta_log 中不存在事务日志。

%2$s/_delta_log。 检查上游作业,确保它正在使用

格式(“delta”)写入,并且该路径是表的根。

若要详细了解 Delta,请参阅 <docLink>

增量创建表标识符位置不匹配

SQLSTATE:0AKDC

不支持创建具有不同位置的基于路径的 Delta 表。 标识符:<identifier>,位置:<location>

缺少表名或位置的DELTA_CREATE_TABLE错误

SQLSTATE:42601

必须指定表单名称或位置。

DELTA_创建表_模式不匹配

SQLSTATE:42KD7

指定的架构与位于 <path> 的现有架构不匹配。

== 指定的 ==

<specifiedSchema>

== 现有 ==

<existingSchema>

== 差异 ==

<schemaDifferences>

如果打算保留现有架构,可以

从 create table 命令省略该架构。 否则请确保

架构匹配。

DELTA创建表设置聚类表功能不允许

SQLSTATE:42000

无法使用 <tableFeature> 启用 TBLPROPERTIES 表功能。 请使用 CREATEREPLACE TABLE CLUSTER BY 创建包含聚类分析的 Delta 表。

DELTA_创建不同聚簇的表

SQLSTATE:42KD7

指定的聚类分析列与 <path> 的现有聚类分析列不匹配。

== 指定的 ==

<specifiedColumns>

== 现有 ==

<existingColumns>

DELTA_创建带有不同分区的表

SQLSTATE:42KD7

指定的分区与 <path> 处的现有分区不匹配。

== 指定的 ==

<specifiedColumns>

== 现有 ==

<existingColumns>

DELTA_使用不同属性创建表

SQLSTATE:42KD7

指定的属性与 <path> 处的现有属性不匹配。

== 指定的 ==

<specifiedProperties>

== 现有 ==

<existingProperties>

DELTA_在非空位置创建表

SQLSTATE:42601

无法创建表(“<tableId>”)。 关联的位置(“<tableLocation>”)不为空,也不是 Delta 表。

DELTA_DATA_CHANGE_FALSE

SQLSTATE:0AKDE

无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>”。

DELTA_删除的_PARQUET_文件_未找到

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 可以在 Delta 的数据保留策略下删除此 parquet 文件。

默认数据保留持续时间:<logRetentionPeriod>。 Prquet 文件的修改时间:<modificationTime>。 Prquet 文件的删除时间:<deletionTime>。 删除的 Delta 版本:<deletionVersion>

增量删除向量缺少记录数量

SQLSTATE:2D521

提交删除向量缺少 numRecords 统计信息的文件是无效操作。

不支持域元数据更改

SQLSTATE:0A000

检测到域 <domainNames> 的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO (删除列时,索引不能小于零)

SQLSTATE:42KD8

删除列的索引 <columnIndex> 低于 0

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE:0AKDC

无法从具有单个列的架构中删除列。 架构:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE:2D521

针对路径 <actionType> 多次指定了文件操作“<path>”。

它与 <conflictingPath> 冲突。

单个提交中不能存在使用相同路径的多个文件操作。

发现重复的列

SQLSTATE:42711

已找到重复列 <coltype><duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE:42701

INSERT 子句中的重复列名

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE:42701

<message>

请在更新表之前删除重复的列。

DELTA_重复数据跳过列

SQLSTATE:42701

发现跳过列的重复数据:<columns>

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE:42601

内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATION

SQLSTATE:22000

在表完整性验证期间,无法反序列化已删除的记录计数直方图。

DELTA_动态分区覆盖_禁用

SQLSTATE:0A000

动态分区覆盖模式由会话配置或写入选项指定,但它已被 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false 禁用。

DELTA_EMPTY_DATA (数据为空)

SQLSTATE:428GU

创建 Delta 表时使用的数据没有任何列。

DELTA_EMPTY_DIRECTORY

SQLSTATE:42K03

在以下目录中未找到任何文件:<directory>

DELTA_EXCEED_CHAR_VARCHAR_LIMIT(字符或可变字符长度超出限制)

SQLSTATE:22001

值“<value>”超过了 char/varchar 类型长度限制。 检查失败:<expr>

分区值转换失败

SQLSTATE:22018

无法将分区值 <value> 强制转换为 <dataType>

DELTA_无法在输出列中找到属性

SQLSTATE:42703

在现有目标输出 <newAttributeName> 中找不到 <targetOutputColumns>

DELTA_推断模式失败

SQLSTATE:42KD9

无法从给定的文件列表推断架构。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE:42KDA

无法合并文件 <file> 的架构:

<schema>

DELTA_浅层克隆操作失败

SQLSTATE:42893

由于浅克隆<sourceTable>仍然存在,并且其中发生了以下错误:<targetTable>,所以无法在源表<message>上运行操作。

SQLSTATE:KD001

无法读取文件的页脚:<currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE:42601

无法识别谓词“<predicate>

DELTA扫描失败,具有历史版本

SQLSTATE:KD002

需要对最新版本的 Delta 源进行完全扫描,但找到了版本 <historicalVersion> 的历史扫描

DELTA_合并字段失败

SQLSTATE:22005

未能合并字段“<currentField>”和“<updateField>

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE:0AKDE

无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:<features>

需要手动启用的增量功能

SQLSTATE:0AKDE

需要手动为表架构启用以下表功能:<unsupportedFeatures>

为此,请对上面列出的每个功能运行以下命令:

ALTER TABLE SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')

将“table_name”和“feature_name”替换为实际值。

当前支持的功能:<supportedFeatures>

DELTA_FEATURE仅能通过历史截断来撤销检查点保护

SQLSTATE:55000

无法删除检查点保护功能。

只能通过截断历史记录来删除此功能。

请使用 TRUNCATE HISTORY 选项重试:

ALTER TABLE DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY

DELTA_功能_删除_检查点_失败

SQLSTATE:22KD0

由于检查点创建失败,删除 <featureName> 失败。

请稍后再试。 如果该问题仍然存在,请联系 Databricks 支持部门。

DELTA_FEATURE_DROP_CHECKPOINT保护等待保留期

SQLSTATE:22KD0

操作未成功,因为仍然存在已删除特征的痕迹。

表历史记录中。 CheckpointProtection 在这些历史版本过期之前

无法删除。

若要删除 CheckpointProtection,请等待历史版本

过期,然后重复此命令。 历史版本的保持期为

当前配置为 <truncateHistoryLogRetentionPeriod>

增量功能丢弃冲突重新验证失败

SQLSTATE:0AKDE

无法删除功能,因为并发事务修改了表。

请重试此操作。

<concurrentCommit>

删除依赖功能

SQLSTATE:0AKDE

无法删除表特征 <feature>,因为此表中的一些其他特征 (<dependentFeatures>) 依赖于 <feature>

在删除此特征之前,请考虑先删除它们。

DELTA_功能删除_未呈现功能

SQLSTATE:0AKDE

无法从此表中删除 <feature>,因为它当前不存在于该表的协议中。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE:0AKDE

无法删除 <feature>,因为 Delta 日志包含使用该功能的历史版本。

请等到历史记录保持期 (<logRetentionPeriodKey>=<logRetentionPeriod>)

是时间已经过去,自上次激活该功能以来。

或者,请等待 TRUNCATE HISTORY 保留期到期 (<truncateHistoryLogRetentionPeriod>)

然后运行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

三角洲功能删除历史记录截断不允许

SQLSTATE:0AKDE

特定功能不需要历史记录截断。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE:0AKDE

无法删除 <feature>,因为不支持删除此功能。

请联系 Databricks 支持人员。

功能删除_不支持的客户端功能

SQLSTATE:0AKDE

无法删除 <feature>,因为此 Databricks 版本不支持它。

请考虑将 Databricks 与更高版本配合使用。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE:0AKDE

删除 <feature> 部分成功。

当前版本的表中不再使用该功能。 但是,该功能

仍存在于表的历史版本中。 无法删除表功能

从表协议中,直到到这些历史版本已过期。

若要从协议中删除表功能,请等待历史版本

过期,然后重复此命令。 历史版本的保持期为

当前已配置为 <logRetentionPeriodKey>=<logRetentionPeriod>

或者,请等待 TRUNCATE HISTORY 保留期到期 (<truncateHistoryLogRetentionPeriod>)

然后运行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

三角洲功能要求更高版本的阅读器

SQLSTATE:0AKDE

无法启用表功能 <feature>,因为它需要更高的读取器协议版本(当前为 <current>)。 请考虑将表的读取器协议版本升级到 <required>,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA功能需要更高版本的写入程序

SQLSTATE:0AKDE

无法启用表功能 <feature>,因为它需要更高的编写器协议版本(当前为 <current>)。 请考虑将表的编写器协议版本升级到 <required>,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_FILE_ALREADY_EXISTS

SQLSTATE:42K04

现有文件路径 <path>

增量文件列表与模式字符串冲突

SQLSTATE:42613

无法同时指定文件列表和模式字符串。

DELTA_FILE_NOT_FOUND

SQLSTATE:42K03

文件路径 <path>

未找到增量文件详细信息

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 如果已从文件系统中手动删除数据,而不是使用表 DELETE 语句进行删除,则会发生这种情况。 有关详细信息,请参阅 <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE:42K03

无此类文件或目录:<path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE:42K03

未在候选文件中找到要重写的文件 (<path>):

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE:KD003

已找到 MapType。 若要访问 MapType 的键或值,请指定一个

<key>

<value>

后跟列的名称(仅当该列是结构类型时)。

例如 mymap.key.mykey

如果列是基本类型,mymap.key 或 mymap.value 就足够了。

架构:

<schema>

DELTAX生成的列数据类型不匹配

SQLSTATE:42K09

<columnName> 具有数据类型 <columnType>,无法更改为数据类型 <dataType>,因为以下生成的列引用了此列:

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE:42K09

无法更改列 <columnName>,因为以下生成的列引用了此列:

<generatedColumns>

DELTA 生成列表达式类型不匹配

SQLSTATE:42K09

生成的列 <columnName> 的表达式类型为 <expressionType>,但列类型为 <columnType>

Delta生成列更新类型不匹配

SQLSTATE:42K09

<currentName> 是生成的列或由生成的列使用的列。 数据类型为 <currentDataType>,无法转换为数据类型 <updateDataType>

DELTA_GEOSPATIAL_不受支持

SQLSTATE:0AKDC

此版本的 Delta Lake 不支持地理空间类型。

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE:0AKDC

地理空间类型具有不支持的空间参考标识符 srid:<srid>。 Delta 表仅支持非负 srid 值。

SQLSTATE:KD00E

IcebergCompatV<version> 的验证失败。

有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE:KD00E

IcebergWriterCompatV<version> 的验证失败。

有关详细信息,请参阅 DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

DELTA_标识列_修改列_不支持

SQLSTATE:429BQ

ALTER TABLE ALTER COLUMN 列不支持 IDENTITY

Delta_Identity_Columns_Alter_Non_Delta_Format

SQLSTATE:0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY 仅受 Delta 支持。

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE:429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY 不能对非 IDENTITY 列调用。

DELTA 不支持对身份列的显式插入

SQLSTATE:42808

不支持为 GENERATED ALWAYS AS IDENTITY<colName> 提供值。

DELTA_标识列_非法步长

SQLSTATE:42611

IDENTITY 列步长不能为 0。

增量标识列非增量格式

SQLSTATE:0AKDD

IDENTITY 列仅受 Delta 支持。

不支持DELTA标识列分区

SQLSTATE:42601

不支持列 PARTITIONED BY IDENTITY<colName>

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE:429BQ

具有 ALTER TABLE REPLACE COLUMNS 列的表不支持 IDENTITY

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE:428H2

<dataType> 列不支持 DataType IDENTITY

不支持对 Delta 标识列进行更新

SQLSTATE:42808

不支持 UPDATEIDENTITY 上的 <colName>

DELTA_标识列_带有_生成的_表达式

SQLSTATE:42613

不能使用生成的列表达式来指定 IDENTITY 列。

DELTA_非法选项

SQLSTATE:42616

选项“<input>”的值“<name>”无效,<explain>

DELTA_非法使用

SQLSTATE:42601

对 Delta 表执行 <option> 时不允许使用 <operation>

增量_不一致_桶规格

SQLSTATE:42000

Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为:<expected>。 实际为:<actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE:F0000

(<setKeys>) 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。

DELTA_数组访问错误

SQLSTATE:KD003

错误访问 ArrayType。 使用 arrayname.element.elementname 位置

添加到数组。

DELTA_使用名称访问数组时出错

SQLSTATE:KD003

已找到 ArrayType。 要访问 ArrayType 的元素,请指定

<rightName>,而不是 <wrongName>

架构:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE:42000

使用 getConf() 而不是 `conf.getConf()

DELTA_错误日志存储实现

SQLSTATE:0AKDC

该错误通常在使用 LogStore 默认实现

(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。

若要获取表更新的事务 ACID 保证,必须使用

适合你的存储系统的正确 LogStore 实现。

有关详细信息,请参阅<docLink>

DELTA_INDEX大于或等于STRUCT

SQLSTATE:42KD8

删除列的索引 <position> 等于或大于结构长度:<length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE:42KD8

添加列 <index> 的索引 <columnName> 大于结构长度:<length>

DELTA 插入列数不匹配

SQLSTATE:42802

无法写入“<tableName>”,<columnName>;目标表具有 <numColumns> 列,但插入的数据具有 <insertColumns>

DELTA_INSERT列不匹配

SQLSTATE:42802

<columnName> 中未指定列 INSERT

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE:22023

自动压缩类型无效:<value>。 允许的值为:<allowed>

DELTA_INVALID_BUCKET_COUNT

SQLSTATE:22023

无效桶计数:<invalidBucketCount>。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>

DELTA_INVALID_BUCKET_INDEX

SQLSTATE:22023

无法在分区列中找到 Bucket 列

DELTA_日历间隔无效_为空

SQLSTATE:2200P

间隔不能为 null 或空白。

DELTA_INVALID_CDC_RANGE

SQLSTATE:22003

从起始值 <start> 到结束值 <end> 的 CDC 范围无效。 结束值不能早于起始值。

DELTA_列名中包含无效字符

SQLSTATE:42K05

属性名称“”包含无效字符,其中< c1 />。 请使用别名对其进行重命名。

DELTA_列名中无效字符

SQLSTATE:42K05

在架构的列名中,发现了' ,;{}()\n\t='包含无效字符。

无效的列名:<invalidColumnNames>

请使用其他字符,然后重试。

或者,启用列映射以继续使用这些字符。

DELTA_无效克隆路径

SQLSTATE:22KD1

CLONE 的目标位置需要是绝对路径或表名。 使用

绝对路径而不是 <path>

DELTA_移除列映射时无效的列名称

SQLSTATE:42K05

在架构的列名中,发现了' ,;{}()\n\t='包含无效字符。

无效的列名:<invalidColumnNames>

如果列名中存在无效字符,则无法删除列映射。

请重命名列以删除该无效字符,然后再次执行此命令。

DELTA_格式无效

SQLSTATE:22000

检测到不兼容的格式。

<deltaRootPath>/_delta_log 找到了 Delta 的事务日志

但你正在尝试使用 format("<operation> <path>") 执行 <format>。 读取和写入 Delta 表时

必须使用“format("delta")”。

若要详细了解 Delta,请参阅 <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE:42621

生成的列不能使用不存在的列或其他生成的列

DELTA无效幂等写入选项

SQLSTATE:42616

幂等 Dataframe 写入的选项无效:<reason>

DELTA_INVALID_INTERVAL

SQLSTATE:22006

<interval> 不是有效的 INTERVAL

DELTA_库存架构无效

SQLSTATE:42000

指定的 INVENTORY 的架构未包含所有必填字段。 必填字段为:<expectedSchema>

DELTA_无效隔离级别

SQLSTATE:25000

无效隔离级别“<isolationLevel>

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE:F0000

无法同时设置 <classConfig><schemeConfig>。 请仅设置其中一组。

DELTA_无效的托管表语法_无模式

SQLSTATE:42000

你正在尝试使用 Delta 创建托管表 <tableName>

但未指定架构。

若要详细了解 Delta,请参阅 <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE:42996

<columnName> 不是表 <tableName> 中的有效分区列。

DELTA_无效分区列名称

SQLSTATE:42996

" ,;{}()\n\t=" 的分区列中找到无效字符。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。

DELTA_无效的分区列类型

SQLSTATE:42996

不支持使用 <name> 类型的 <dataType> 列作为分区列。

DELTA_无效分区路径

SQLSTATE:22KD1

分区路径片段的形式应为 part1=foo/part2=bar。 分区路径:<path>

协议降级无效错误

SQLSTATE:KD004

协议版本无法从 <oldProtocol> 降级到 <newProtocol>

DELTA_协议版本无效

SQLSTATE:KD004

不支持的 Delta 协议版本:表“<tableNameOrPath>”需要读取器版本 <readerRequired> 和写入器版本 <writerRequired>,但此版本的 Databricks 支持读取器版本 <supportedReaders> 和写入器版本 <supportedWriters>。 请升级到较新版本。

DELTA_无效的表值函数

SQLSTATE:22000

函数 <function> 是不支持用于 CDC 读取的表值函数。

DELTA_时间戳格式无效

SQLSTATE:22007

提供的时间戳 <timestamp> 与预期的语法 <format> 不匹配。

增量日志已存在

SQLSTATE:42K04

Delta 日志已存在于 <path>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE:42K03

如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE:22000

<rowTrackingColumn> 缺少具体化行 <tableName> 列名称。

超过最大数组大小限制

SQLSTATE:42000

请使用小于 Int.MaxValue - 8 的限制。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED (超过最大提交重试次数)

SQLSTATE:40000

此提交失败,因为它已尝试 <numAttempts> 次,但均未成功。

这可能是由多个并发提交连续提交 Delta 表

造成的。

提交开始于版本:<startVersion>

提交失败的版本:<failVersion>

尝试提交的操作数:<numActions>

尝试此提交所花费的总时间:<timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE:42000

文件列表必须最多有 <maxFileListSize> 个条目,实际有 <numFiles> 个。

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE:42K09

无法添加类型为 VOID 的列 <newColumn>。 请显式指定非 void 类型。

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE:42K09

未能合并不兼容的数据类型 <currentDataType><updateDataType>

不兼容的十进制类型合并在DELTA中

SQLSTATE:42806

无法将十进制类型与不兼容的 <decimalRanges> 合并

DELTA合并物化源反复失败

SQLSTATE:25000

使 MERGE 语句的源保持具体化状态反复失败。

DELTA_MERGE_MISSING_WHEN

SQLSTATE:42601

WHEN 语句中必须至少包含一个 MERGE 子句。

DELTA_合并_已解决_属性_缺失_自输入

SQLSTATE:42601

运算符 <missingAttributes> 中的 <input> 缺失已解析属性 <merge>

增量合并的意外分配键

SQLSTATE:22005

意外分配密钥:<unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_未解析表达式

SQLSTATE:42601

无法解析给定 <sqlExpr><clause><cols>

元数据变更

SQLSTATE:2D521

MetadataChangedException:Delta 表的元数据已由并发更新更改。 请重试该操作。<conflictingCommit>

有关更多详细信息,请参阅 <docLink>

增量缺失变更数据

SQLSTATE:KD002

获取 [<startVersion>, <endVersion>] 范围的更改数据时出错,因为未记录

版本 [<version>] 的更改数据。 如果在此表上启用了更改数据馈送,

请使用 DESCRIBE HISTORY 查看它首次启用的时间。

否则,若要开始记录更改数据,请使用 ALTER TABLEtable_nameSET TBLPROPERTIES'

(<key>=true)`。

DELTA_MISSING_COLUMN

SQLSTATE:42703

无法在表列中找到 <columnName><columnList>

DELTA_缺少提交信息

SQLSTATE:KD004

此表启用了特征 <featureName>,这要求每次提交中都存在 CommitInfo 操作。 但是,提交版本 <version> 中缺少 CommitInfo 操作。

增量缺失提交时间戳

SQLSTATE:KD004

此表启用了特征 <featureName>,这要求 CommitInfo 操作中存在 commitTimestamp。 但是,提交版本 <version> 中尚未设置此字段。

DELTA_MISSING_DELTA_TABLE

SQLSTATE:42P01

<tableName> 不是 Delta 表。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE:42P01

表不存在。 首先使用 CREATE TABLE <tableName> 创建空的 Delta 表。

DELTA_缺失_冰山_类

SQLSTATE:56038

找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。

有关更多详细信息,请参阅 <docLink>

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE:23502

写入表中的数据中缺失具有 <columnName> 约束的 NOT NULL 列。

DELTA_缺失的分区列

SQLSTATE:42KD6

在架构 <columnName> 中找不到分区列 <columnList>

DELTA_MISSING_PART_FILES (缺少部分文件)

SQLSTATE:42KD6

找不到检查点版本的所有组成部分文件:<version>

DELTA_MISSING_PROVIDER_FOR_CONVERT (缺少转换提供者)

SQLSTATE:0AKDC

CONVERT TO DELTA 仅支持 parquet 表。 请将目标重写为 Parquet。如果它是 Parquet 目录,则为 <path>

DELTA_缺失设置列

SQLSTATE:42703

SET<columnName> 没有找到给定列:<columnList>

DELTA_缺失交易日志

SQLSTATE:42000

检测到不兼容的格式。

你正在尝试使用 Delta 执行 <operation> <path>,但没有

事务日志。 检查上游作业,确保它正在使用

format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。

若要详细了解 Delta,请参阅 <docLink>

不支持增量模式

SQLSTATE:0AKDC

不支持指定模式“<mode>”。 支持的模式包括:<supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE:42614

为 CDC 读取提供的多个 <startingOrEnding> 参数。 请提供一个 <startingOrEnding> 时间戳或 <startingOrEnding> 版本。

布隆过滤器中的单列多重配置差异

SQLSTATE:42614

传递给列命令的多个 bloom 筛选器索引配置:<columnName>

多个源行在合并中匹配目标行

SQLSTATE:21506

无法执行合并,因为多个源行匹配并尝试

以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,

当多个源行在同一目标行上匹配时,结果可能是不明确的,

因为不清楚应该使用哪一个源行来更新或删除匹配的

目标行。 你可以预处理源表来消除

出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE:42616

<command> 期间,两个协调提交配置(“delta.coordinatedCommits.commitCoordinator-preview”、“delta.coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>”。 请在 TBLPROPERTIES 子句中指定此配置或移除其他配置,然后再次重试该命令。

所有协调提交确认必须在会话中设置DELTA

SQLSTATE:42616

<command> 期间,两个协调提交配置(“coordinatedCommits.commitCoordinator-preview”、“coordinatedCommits.commitCoordinatorConf-preview”)均在命令中设置或两者均未设置。 缺失值:“<configuration>”。 请在 SparkSession 中设置此配置或取消设置其他配置,然后再次重试该命令。

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE:42000

以下列名仅限 Delta Bucket 表内部使用:<names>

DELTA_嵌套字段需要重命名

SQLSTATE:42K05

输入架构包含大小写与目标表不同的嵌套字段。

需要重命名它们,以避免在写入 Delta 时丢失这些字段中的数据。

字段:

<fields>

原始架构:

<schema>

增量嵌套非空约束

SQLSTATE:0AKDC

字段 <nestType><parent> 类型包含 NOT NULL 约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL 约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 <configKey> = true。

分析的 <nestType> 类型:

<nestedPrettyJson>

增量嵌套子查询不支持

SQLSTATE:0A000

<operation> 条件不支持嵌套子查询。

增量_新检查约束违规

SQLSTATE:23512

<numRows> 中有 <tableName> 行违反新的 CHECK 约束 (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION (新的Delta不允许为空的违规)

SQLSTATE:23512

<numRows> 中有 <tableName> 行违反 NOT NULL 上的新 <colName> 约束

Delta非布尔检查约束

SQLSTATE:42621

CHECK 约束“<name>”(<expr>) 应是一个布尔表达式。

生成列中的非确定性表达式

SQLSTATE:42621

已找到 <expr>。 生成的列不能使用非确定性表达式。

DELTA_不支持非确定性函数

SQLSTATE:0AKDC

<operation> <expression> 中不支持非确定性函数

非最后匹配子句的增量忽略条件

SQLSTATE:42601

MATCHED 语句中有多个 MERGE 子句时,只有最后一个 MATCHED 子句可以省略该条件。

DELTA_非最后组_不通过源子句匹配_排除条件

SQLSTATE:42601

NOT MATCHED BY SOURCE 语句中有多个 MERGE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。

DELTA非最后不匹配子句省略条件

SQLSTATE:42601

NOT MATCHED 语句中有多个 MERGE 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件

DELTA_NON_PARSABLE_TAG

SQLSTATE:42601

无法分析标记 <tag>

文件标记为:<tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE:KD005

写入 Delta 的数据需要包含至少一个非分区列。<details>

DELTA_非分区列引用

SQLSTATE:42P10

谓词引用非分区列“<columnName>”。 只能引用分区列:[<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED (指定了非分区列)

SQLSTATE:42P10

指定了非分区列 <columnList>,但只能指定分区列:<fragment>

DELTA_非单独部分命名空间_用于目录

SQLSTATE:42K05

Delta 目录需要一个单部分命名空间,但 <identifier> 是多部分命名空间。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE:42616

不支持通过命令将提交协调器设置为“<nonUcCoordinatorName>”,因为 UC 管理的表只能将“unity-catalog”设置为提交协调器。 请将其更改为“unity-catalog”,或者从 TBLPROPERTIES 子句中删除所有协调提交表属性,然后再次重试该命令。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE:42616

不支持从 SparkSession 配置中将提交协调器设置为<nonUcCoordinatorName>,因为 UC 管理的表格只能使用“unity-catalog”作为提交协调器。 请通过运行 spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog") 将其更改为“unity-catalog”,或者通过运行 spark.conf.unset("<coordinatorNameDefaultKey>")spark.conf.unset("<coordinatorConfDefaultKey>")spark.conf.unset("<tableConfDefaultKey>") 从 SparkSession 配置中删除所有协调提交表属性,然后再次重试该命令。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE:42000

<table> 不是 Delta 表。 如果要使用 Databricks Delta 创建表,请先删除此表。

DELTA_NOT_A_DELTA_TABLE(不是一个 Delta 表)

SQLSTATE:0AKDD

<tableName> 不是 Delta 表。 如果要使用 Delta Lake 重新创建表,请先删除此表。

找不到非空列在结构中

SQLSTATE:42K09

未在结构中找到不可为 null 的列:<struct>

DELTA_非空约束_违反

SQLSTATE:23502

列违反了 NOT NULL 约束:<columnName>

DELTA_不可为空的嵌套字段

SQLSTATE:0A000

不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 null 性。

未找到提交记录

SQLSTATE:KD006

未在 <logPath> 处找到提交

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE:KD006

<logPath> 处找不到可重新创建的提交

DELTA_无重定向规则违规

SQLSTATE:42P01

不允许的操作:不能对具有重定向功能的表执行 <operation>

没有一项重定向规则未得到满足 <noRedirectRules>

Δ_无关系表

SQLSTATE:42P01

找不到表 <tableIdent>

DELTA_无法启动_CDC读取

SQLSTATE:42601

没有为 CDC 读取提供 startingVersion 或 startingTimestamp。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE:42P18

Delta 不接受在架构中使用 NullTypes 进行流写入。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE:42601

请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。

DELTA_ONLY_OPERATION

SQLSTATE:0AKDD

<operation> 仅支持用于 Delta 表。

增量操作缺少路径

SQLSTATE:42601

请为 <operation> 提供路径或表标识符。

DELTA_OPERATION_NOT_ALLOWED(不允许的增量操作)

SQLSTATE:0AKDC

不允许操作:Delta 表不支持 <operation>

DELTA_OPERATION_NOT_ALLOWED_DETAIL (三角洲操作不允许 - 详细信息)

SQLSTATE:0AKDC

不允许的操作:不支持对 Delta 表执行 <operation><tableName>

不支持对具有排序规则的列进行DELTA操作

SQLSTATE:0AKDC

具有非默认排序规则 <operation> 的列 <colName> 不支持 <collation>

不支持数据类型的DELTA操作

SQLSTATE:0AKDC

<operation>数据类型不支持: <dataTypeList>

不支持具有排序规则的表达式的DELTA操作

SQLSTATE:0AKDC

表达式 <operation> 不支持 <exprText>,因为它使用非默认排序规则。

不支持在含有生成列的临时视图上执行 Delta 操作

SQLSTATE:0A000

不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation> 命令。 请直接对 Delta 表运行 <operation> 命令

在视图上不允许执行增量操作

SQLSTATE:0AKDC

不允许执行操作:不能对视图执行 <operation>

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED(不支持完整优化)

SQLSTATE:42601

只有具有非空聚类分析列的聚类分析表才支持 OPTIMIZE FULL

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE:42000

如果不设 OVERWRITE = 'true',则无法指定复制选项 overwriteSchema。

DELTA覆盖模式与动态分区覆盖

SQLSTATE:42613

“overwriteSchema”不能在动态分区覆盖模式下使用。

DELTA_分区_列_转换_失败

SQLSTATE:22525

未能将分区列 <value> 的值 <dataType> 强制转换为 <columnName>

找不到 DELTA 分区列

SQLSTATE:42703

在架构 [<columnName>] 中找不到分区列 <schemaMap>

增量分区模式在Iceberg表中

SQLSTATE:42613

转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。

DELTA路径不存在

SQLSTATE:42K03

<path> 不存在或不是 Delta 表。

DELTA_PATH_EXISTS

SQLSTATE:42K04

如果不设置 <path> = 'true',则无法写入已存在的路径 OVERWRITE

增量提交后挂钩失败

SQLSTATE:2DKD0

可成功提交 Delta 表版本 <version>,但在执行提交后挂钩 <name> <message> 时出错

DELTA 协议已更改

SQLSTATE:2D521

ProtocolChangedException:Delta 表的协议版本已由并发更新更改。 <additionalInfo> <conflictingCommit>

有关更多详细信息,请参阅 <docLink>

DELTA_PROTOCOL_PROPERTY_NOT_INT (增量协议属性不是整数)

SQLSTATE:42K06

协议属性 <key> 需是整数。 已找到 <value>

增量读取功能协议需要写入

SQLSTATE:KD004

无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion> 才能继续。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE:428GU

尝试读取没有任何列的 Delta 表 <tableName>

使用 mergeSchema = true 选项写入一些新数据,以便能够读取表。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE:2201B

请重新检查“<regExpOption>”的语法

三角关系路径不匹配

SQLSTATE:2201B

关系路径“<relation>”与 <targetType>“路径”<targetPath>不匹配。

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE:42613

不能将 replaceWhere 与“按筛选器覆盖”结合使用

DELTA替换条件不匹配

SQLSTATE:44000

写入的数据不符合部分表覆盖条件或约束“<replaceWhere>”。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42613

“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE:42613

当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:<dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS(增量行ID分配缺少统计信息)

SQLSTATE:22000

无法分配缺少行计数统计信息的行 ID。

Collect statistics for the table by running the following code in a Scala notebook and retry:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_模式_已更改

SQLSTATE:KD007

检测到架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。

增量模式已更改,包含启动选项

SQLSTATE:KD007

在版本 <version> 中检测到架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。 如果该问题在更改为

新的检查点目录后仍然出现,你可能需要更改现有的

“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录

从高于 <version> 的版本重新开始。

DELTA_架构随着版本而改变

SQLSTATE:KD007

在版本 <version> 中检测到架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。

增量模式分析后的模式更改

SQLSTATE:KD007

自创建 DataFrame 或 DeltaTable 对象以来,

Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。

更改:

<schemaDiff> <legacyFlagMessage>

未提供增量模式

SQLSTATE:42908

未提供表架构。 使用 REPLACE 表且未提供 AS SELECT 查询时,请提供表的架构(列定义)。

增量模式未设置

SQLSTATE:KD008

表架构未设置。 将数据写入其中或使用 CREATE TABLE 设置架构。

DELTA_设置位置模式不匹配

SQLSTATE:42KD7

新 Delta 位置的架构不同于当前表架构。

原始架构:

<original>

目标架构:

<destination>

如果这是预期更改,可以通过运行以下内容来关闭此检查:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 如果已从文件系统中手动删除数据,而不是使用表 DELETE 语句进行删除,则可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE:42939

无法修改以 <prefix> 开头的预定义属性。

SQLSTATE:42704

数据受收件人属性 <property> 的限制,此属性不适用于会话中的当前收件人。

有关更多详细信息,请参阅 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE:42887

不能在跨帐户共享的增量共享视图中使用 <operation>

DELTA共享无效提供程序认证

SQLSTATE:28000

提供程序 <authenticationType> 的身份验证类型 <provider> 非法。

DELTA共享无效收件人认证

SQLSTATE:28000

收件人 <authenticationType> 的身份验证类型 <recipient> 非法。

DELTA共享无效的共享数据对象名称

SQLSTATE:42K05

引用共享内 <type> 的名称无效。 可以按照 [schema].[<type>] 格式在共享中使用 <type> 的名称,也可以按照 [catalog].[schema].[>type>] 格式使用表的原始全名。

如果不确定要使用的名称,则可以运行“SHOW ALL IN SHARE [share]”,并找到要移除的 <type> 名称:列“name”是共享中 <type> 的名称,列“shared_object”是 <type> 的原始全名。

超出DELTA共享的最大接收者令牌数量

SQLSTATE:54000

收件人 <recipient> 有多个令牌。

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE:42704

收件人属性 <property> 不存在。

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND(找不到 Delta 分享接收者令牌)

SQLSTATE:42704

收件人 <recipient> 中缺少收件人令牌。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE:42P10

<badCols> 指定了非分区列 SHOW PARTITIONS

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE:42809

在未分区的表上不允许 SHOW PARTITIONS<tableName>

DELTA源忽略删除

SQLSTATE:0A000

在版本 <removedFile> 的流源中检测到已删除的数据(例如 <version>)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在路径 <dataPath> 中找到。

DELTA_SOURCE_TABLE_IGNORE_CHANGES(忽略更改的Delta源表)

SQLSTATE:0A000

在版本 <file> 的源表中检测到数据更新(例如 <version>)。 目前不支持。 如果这种情况经常发生,并且可以跳过更改,请将选项“skipChangeCommits”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询,或者如果你使用的是 DLT,请进行完全刷新。 如果需要处理这些更改,请切换到 MV。 源表可以在路径 <dataPath> 中找到。

增量起始版本和时间戳均已设置

SQLSTATE:42613

请提供“<version>”或“<timestamp>

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE:42000

在 Parquet 元数据中找不到列的 <statsType> 统计信息:<columnPath>

增量流无法在模式演变后继续处理

SQLSTATE:KD002

我们检测到 Delta 流式处理源中 Delta 版本 <opType><previousSchemaChangeVersion> 之间的一个或多个非累加架构更改 (<currentSchemaChangeVersion>)。

请在我们使用最终定稿架构版本<currentSchemaChangeVersion>进行流处理之前,查看是否需要手动传播架构更改到汇聚表。

一旦您修复了目标表的架构或决定无需修复,您可以设置以下配置以解除非累加架构更改的阻碍并继续流处理。

使用数据框架读取器的选项:

要取消对这特定数据流的阻止,仅针对这一系列架构更改:

<unblockChangeOptions>

若要解除屏蔽此特定流:

<unblockStreamOptions>

使用 SQL 配置:

要取消对这特定数据流的阻止,仅针对这一系列架构更改:

<unblockChangeConfs>

若要解除屏蔽此特定流:

<unblockStreamConfs>

要解除所有流的阻止:

<unblockAllConfs>

无法继续处理类型扩展

SQLSTATE:KD002

我们检测到一些数据类型在 Delta 版本<previousSchemaChangeVersion><currentSchemaChangeVersion>之间被扩大了。

<wideningTypeChanges>

流式处理查询包含可能在类型更改后失败或产生不同结果的操作。

请在我们继续使用版本 <currentSchemaChangeVersion>最终的架构进行流处理之前,请检查是否要更新流查询。

更新流查询或决定无需更新流查询后,可以设置以下配置以取消阻止类型更改并继续流处理。

使用数据框读取选项:

要取消对这特定数据流的阻止,仅针对这一系列架构更改:

<unblockChangeOptions>

若要解除屏蔽此特定流:

<unblockStreamOptions>

使用 SQL 配置:

要取消对这特定数据流的阻止,仅针对这一系列架构更改:

<unblockChangeConfs>

若要解除屏蔽此特定流:

<unblockStreamConfs>

要解除所有流的阻止:

<unblockAllConfs>

增量流检查列映射无快照

SQLSTATE:KD002

检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>”设置为“true”来强制启用流式读取,但需自负风险。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:42KD4

流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。

有关解决此问题的更多信息和可能的后续步骤,请查看 <docLink> 上的文档

读取的架构:<readSchema>。 不兼容的数据架构:<incompatibleSchema>

流式处理中的不兼容架构更改,请使用架构日志

SQLSTATE:42KD4

流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。

请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。

有关详细信息,请参阅 <docLink>

读取的架构:<readSchema>。 不兼容的数据架构:<incompatibleSchema>

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE:22000

Delta 表的架构、表配置或协议在流式处理期间已更改。

架构或元数据跟踪日志已更新。

请重启流以使用更新的元数据继续处理。

更新的架构:<schema>

更新的表配置:<config>

更新的表协议:<protocol>

不支持的行过滤列屏蔽在 DELTA 流式模式演变中

SQLSTATE:22000

使用架构跟踪从源表 <tableId> 进行流式处理不支持行筛选器或列掩码。

请删除行筛选器或列掩码,或禁用架构跟踪。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE:22000

从位于“<loc>”的表流式传输时检测到有冲突的架构位置“<table>”。

另一个流可能正在重用相同的架构位置,这是不允许的。

请为此表中的某个流提供新的唯一 schemaTrackingLocation 路径或 streamingSourceTrackingId 作为读取器选项。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE:22000

架构位置“<schemaTrackingLocation>”必须放在检查点位置“<checkpointLocation>”下。

DELTA流式Schema日志反序列化失败

SQLSTATE:22000

<location>”处的 Delta 流式处理源架构日志中的日志文件不完整。

架构日志可能已损坏。 请选择新的架构位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID (不兼容的 Delta 表 ID)

SQLSTATE:22000

尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。

持久化表 ID:<persistedId>,表 ID:<tableId>

架构日志可能已重复使用。 请选择新的架构位置。

DELTA 流式架构日志与分区架构不兼容

SQLSTATE:22000

尝试读取 Delta 流时检测到不兼容的分区架构。

持久化架构:<persistedSchema>,Delta 分区架构:<partitionSchema>

如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA(Delta流数据模式日志初始化失败:元数据不兼容)

SQLSTATE:22000

无法初始化 Delta 流式处理源架构日志,因为

在提供从表版本 <a><b> 的流式处理批时,我们检测到不兼容的架构或协议更改。

DELTA_流式_架构日志_解析架构失败

SQLSTATE:22000

无法从 Delta 流式处理源架构日志分析架构。

架构日志可能已损坏。 请选择新的架构位置。

DELTA 表已经包含变更数据捕获列

SQLSTATE:42711

无法对表启用变更数据捕获。 表已包含

保留的列 <columnList>

这些列将在内部用作表的更改数据馈送的元数据。 若要为

表上的更改数据馈送将重命名/删除这些列。

DELTA表已存在

SQLSTATE:42P07

<tableName> 已存在。

路径不支持的Hadoop配置的DELTA_TABLE

SQLSTATE:0AKDC

DeltaTable.forPath 目前仅支持以 <allowedPrefixes> 开头的 hadoop 配置键,但获取的键为 <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE:KD007

<tableLocation> 处的 Delta 表已替换,但此命令使用的是该表。

表 ID 之前为 <oldId>,但现在为 <newId>

请重试当前命令,确保它读取的是一致的表视图。

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE:22023

无法更新表重定向状态:尝试状态转换无效。

Delta 表<table>无法从<oldState>更改为<newState>

DELTA表无效的设置或取消重定向

SQLSTATE:22023

无法对SET上的属性 UNSET<table> 重定向:当前属性 '<currentProperty>' 与新属性 '<newProperty>' 不匹配。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE:42613

现有表 <tableName> 的位置为 <existingTableLocation>。 它与指定的位置 <tableLocation> 不匹配。

DELTA_TABLE_NOT_FOUND(未找到Delta表)

SQLSTATE:42P01

Delta 表 <tableName> 不存在。

DELTA表格在操作中不受支持

SQLSTATE:42809

表在 <operation> 中不受支持。 请改用路径。

DELTA_TABLE_ONLY_OPERATION(仅限于Delta表的操作)

SQLSTATE:0AKDD

<tableName> 不是 Delta 表。 <operation> 仅支持用于 Delta 表。

DELTA_TABLE_未识别的重定向规范

SQLSTATE:42704

Delta 日志包含无法识别的表重定向规范“<spec>”。

最终目标表 Delta 架构为空

SQLSTATE:428GU

目标表最终架构为空。

增量时间戳大于提交时间

SQLSTATE:42816

提供的时间戳 (<providedTimestamp>) 晚于此

表 (<tableName>) 可用的最新版本。 请使用早于或等于 <maximumTimestamp> 的时间戳。

DELTA_TIMESTAMP_INVALID

SQLSTATE:42816

提供的时间戳 (<expr>) 无法转换为有效时间戳。

增量时间旅行无效起始值

SQLSTATE:42604

<timeTravelKey> 需是有效的开始值。

截断的增量事务日志

SQLSTATE:42K03

<path>:由于手动删除或日志保留策略 (<version>) 和检查点保留策略 (<logRetentionKey>=<logRetention>) 导致事务日志被截断,无法在版本 <checkpointRetentionKey>=<checkpointRetention> 中重构状态

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED(不支持的表分区截断)

SQLSTATE:0AKDC

不允许操作:Delta 表上的 TRUNCATE TABLE 不支持分区谓词;使用 DELETE 删除特定的分区或行。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE:42621

已找到 <udfExpr>。 生成的列不能使用用户定义的函数

意外行动表达式_delta

SQLSTATE:42601

意外的操作表达式 <expression>

意外的Delta分区列数来自文件名

SQLSTATE:KD009

需要 <expectedColsSize> 分区列 <expectedCols>,但通过分析文件名 <parsedColsSize> 找到了 <parsedCols> 分区列 <path>

无预期的部分扫描异常

SQLSTATE:KD00A

应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE:KD009

需要分区列 <expectedCol>,但通过分析文件名 <parsedCol> 找到了分区列 <path>

DELTA用户意外分区架构

SQLSTATE:KD009

用于调用CONVERT TO DELTA 的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。

目录分区架构:

<catalogPartitionSchema>

提供的分区架构:

<userPartitionSchema>

DELTA_统一性_兼容性位置不能更改

SQLSTATE:0AKDC

无法更改 delta.universalFormat.compatibility.location。

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE:42K0I

delta.universalFormat.compatibility.location 未在目录中注册。

SQLSTATE:42601

统一兼容性格式的位置缺失或无效。 请为 delta.universalFormat.compatibility.location 设置空目录。

失败的原因:

有关更多详细信息,请参阅 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE:KD00E

具有 Delta Uniform 的 Read Iceberg 的失败。

有关更多详细信息,请参阅 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

待命_均匀_入口_不明确_格式

SQLSTATE:KD00E

发现多个 Delta Uniform 入口格式(<formats>),最多只能设置一个。

不支持 DELTA_UNIFORM_INGRESS

SQLSTATE:0A000

不支持创建或刷新统一入口表。

DELTA_UNIFORM_入口不支持的格式

SQLSTATE:0AKDC

不支持格式 <fileFormat>。 仅支持冰山和 hudi 作为原始文件格式。

SQLSTATE:KD00E

读取 Delta Uniform 失败:

有关详细信息,请参阅DELTA_UNIFORM_INGRESS_VIOLATION

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE:0AKDC

仅 Unity Catalog 表支持通用格式。

SQLSTATE:42616

REFRESH TABLE 参数无效:

有关详细信息 ,请参阅DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

SQLSTATE:0AKDC

REFRESH 标识符 SYNC UNIFORM 不受支持,原因如下:

有关更多详细信息,请参阅 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

不支持具有元数据路径的托管冰山表进行DELTA统一刷新

SQLSTATE:0AKDC

托管的 Iceberg 表不支持具有 REFRESH TABLEMETADATA_PATH

DELTA_通用格式转换失败

SQLSTATE:KD00E

未能将表版本 <version> 转换为通用格式 <format><message>

增量通用格式违规

SQLSTATE:KD00E

通用格式 (<format>) 验证失败:<violation>

DELTA_未知配置

SQLSTATE:F0000

指定了未知配置:<config>

未知权限DELTA

SQLSTATE:42601

未知特权:<privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE:42601

未知 ReadLimit:<limit>

DELTA_未识别列变更

SQLSTATE:42601

无法识别的列更改 <otherClass>。 运行的 Delta Lake 版本可能已过时。

Δ_无法识别的不变量

SQLSTATE:56038

无法识别的不变量。 请升级 Spark 版本。

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE:KD00B

无法识别的日志文件 <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE:42616

尝试取消设置表 <property> 中不存在的属性“<tableName>

DELTA_不支持的绝对路径添加文件

SQLSTATE:0AKDC

<path> 不支持使用绝对路径添加文件

不支持 DELTA_ALTER_TABLE_CHANGE_COL_OP 操作

SQLSTATE:0AKDC

ALTER TABLE CHANGE COLUMN 不支持将列 <fieldPath><oldField> 更改为 <newField>

不支持DELTA修改表替换列的操作

SQLSTATE:0AKDC

不支持的 ALTER TABLE REPLACE COLUMNS 操作。 原因:<details>

无法将架构从 更改为

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE:0AKDC

你尝试将现有表 (REPLACE) <tableName>CLONE。 此操作

不受支持。 尝试使用其他 CLONE 目标位置或删除当前目标位置中的表。

DELTA_不支持的列映射模式更改

SQLSTATE:0AKDC

不支持将列映射模式从“<oldMode>”更改为“<newMode>”。

布隆过滤器索引列的不支持的列映射操作

SQLSTATE:0AKDC

无法对列 <opName> 执行列映射操作 <columnNames>

因为这些列包含布隆筛选索引。

如果你要对包含布隆筛选索引的列执行

列映射操作,

请先删除布隆筛选器索引:

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>

如果要删除表上的所有 Bloom 筛选器索引,请使用:

DROP BLOOMFILTER INDEX ON TABLE 表名

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL (DELTA不支持的列映射协议)

SQLSTATE:KD004

当前表协议版本不支持使用 更改

使用 <config>

列映射所需的 Delta 协议版本:

<requiredVersion>

表的当前 Delta 协议版本:

<currentVersion>

<advice>

DELTA 不支持的列映射模式更改

SQLSTATE:0AKDC

检测到架构更改:

旧架构:

<oldTableSchema>

新架构:

<newTableSchema>

在更改列映射模式期间不允许更改架构。

不支持的列映射写入

SQLSTATE:0AKDC

不支持使用列映射模式写入数据。

DELTA_布隆过滤器中不支持的列类型

SQLSTATE:0AKDC

不支持在类型为 <dataType> 的列上创建 bloom 筛选器索引:<columnName>

DELTA_不支持的评论映射数组

SQLSTATE:0AKDC

无法向 <fieldPath> 添加注释。 不支持向映射键/值或数组元素添加注释。

DELTA_不支持的数据类型

SQLSTATE:0AKDC

发现有列使用不受支持的数据类型:<dataTypeList>。 可以将“<config>”设置为“false”以禁用类型检查。 禁用此类型检查后,用户可以创建不受支持的 Delta 表,并且仅应在尝试读取/写入旧表时使用此选项。

DELTA_在生成列中不支持的数据类型

SQLSTATE:42621

<dataType> 不能是生成的列的结果

不支持DELTA深度克隆

SQLSTATE:0A000

此 Delta 版本不支持深度克隆。

DELTA_不支持的_详细视图描述

SQLSTATE:42809

<view> 是视图。 DESCRIBE DETAIL 仅支持用于表。

不支持删除聚类列的DELTA

SQLSTATE:0AKDC

不允许删除群集列 (<columnList>)。

DELTA_不支持的删除列

SQLSTATE:0AKDC

Delta 表不支持 DROP COLUMN<advice>

DELTA_不支持从非结构类型删除嵌套列

SQLSTATE:0AKDC

只能从 StructType 中删除嵌套列。 已找到 <struct>

DELTA_不支持_删除分区列

SQLSTATE:0AKDC

不允许删除分区列 (<columnList>)。

DELTA_UNSUPPORTED_EXPRESSION(不支持的表达式)

SQLSTATE:0A000

<expType> 不支持的表达式类型 (<causedBy>)。 支持的类型为 [<supportedTypes>]。

DELTA_不支持的表达式_生成列

SQLSTATE:42621

无法在生成的列中使用 <expression>

不支持读取功能的DELTA

SQLSTATE:56038

不支持的 Databricks 读取功能:表“<tableNameOrPath>”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>

不支持写入操作的DELTA功能

SQLSTATE:56038

不支持的 Databricks 写入功能:表“<tableNameOrPath>”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>。 有关 Delta Lake 功能兼容性的详细信息,请参阅 <link>

配置中的不支持功能

SQLSTATE:56038

此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>

DELTA_不支持功能状态

SQLSTATE:0AKDE

预期表功能 <feature> 的状态是“supported”,但却是“<status>”。

DELTA_不支持字段更新_非结构型

SQLSTATE:0AKDC

仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <columnName><dataType> 的字段。

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS(不支持删除向量的文件系统一致性检查)

SQLSTATE:0A000

缺少删除向量文件的表版本不支持“FSCK REPAIR TABLE”命令。

请联系客户支持。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE:0A000

包含删除向量的表版本不支持“GENERATE symlink_format_manifest”命令。

若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE table APPLY (PURGE)”。 然后,重新运行“GENERATE”命令。

请确保没有并发事务再次在 REORGGENERATE 之间添加删除向量。

如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLESET TBLPROPERTIES (delta.enableDeletionVectors = false)”禁用此表中的删除向量。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE:0AKDC

不支持 StructType 以外的嵌套字段上的不变量。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE:0AKDC

<operation> 条件中不支持 In 子查询。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE:0A000

listKeywithPrefix 不可用

不支持的清单生成与列映射

SQLSTATE:0AKDC

利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。

DELTA_不支持带CDC的合并模式演变

SQLSTATE:0A000

带有架构演变的 MERGE INTO 操作目前不支持写入 CDC 输出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE:0AKDC

<operation> 条件中不支持多列 In 谓词。

DELTA_在布隆过滤器中不支持的嵌套列

SQLSTATE:0AKDC

目前不支持在嵌套列 <columnName> 上创建 bloom 筛选器索引

不支持的嵌套字段操作DELTA

SQLSTATE:0AKDC

<operation> 中不支持嵌套字段(字段 = <fieldName>)。

不支持的非空克隆

SQLSTATE:0AKDC

克隆目标表不为空。 请在运行 TRUNCATEDELETE FROMCLONE 表。

不支持的输出模式

SQLSTATE:0AKDC

数据源 <dataSource> 不支持 <mode> 输出模式

DELTA_不支持的分区列在布隆过滤器中

SQLSTATE:0AKDC

不支持在分区列 <columnName> 上创建 bloom 筛选器索引

DELTA_UNSUPPORTED_RENAME_COLUMN(不支持重命名列)

SQLSTATE:0AKDC

Delta 表不支持列重命名。 <advice>

DELTA_读取过程中不支持的架构

SQLSTATE:0AKDC

Delta 不支持在读取时指定架构。

DELTA不支持在分桶表上排序

SQLSTATE:0A000

Delta Bucket 表不支持 SORTED BY

不支持的来源_DELTA

SQLSTATE:0AKDD

<operation> 目标仅支持 Delta 源。

<plan>

不支持的静态分区

SQLSTATE:0AKDD

目前在插入期间不支持在分区规格中指定静态分区

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE:22023

不支持的策略名称:<strategy>

不支持的子查询_DELTA

SQLSTATE:0AKDC

<operation>(条件 = <cond>)中不支持子查询。

DELTA_分区条件中不支持的子查询

SQLSTATE:0AKDC

分区谓词中不支持子查询。

DELTA_不支持的时间旅行多格式

SQLSTATE:42613

无法以多种格式指定“按时间顺序查看”。

不支持时间旅行视图的DELTA

SQLSTATE:0AKDC

无法按时间顺序查看视图、子查询、流或更改数据馈送查询。

不支持截断示例表的DELTA操作

SQLSTATE:0A000

不支持截断示例表

不支持的模式类型更改_DELTA

SQLSTATE:0AKDC

由于应用了不支持的类型更改,无法对此表执行操作。 字段 <fieldName> 已从 <fromType> 更改为 <toType>

Delta_不支持Bloom过滤器索引列上的类型更改

SQLSTATE:0AKDC

无法更改列 <columnNames> 的数据类型

因为这些列包含布隆筛选索引。

如果要使用 Bloom Filter Index(es) 更改列的数据类型,

请先删除布隆筛选器索引:

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>

如果要删除表上的所有 Bloom 筛选器索引,请使用:

DROP BLOOMFILTER INDEX ON TABLE 表名

DELTA_不支持清理特定分区

SQLSTATE:0AKDC

清空 Delta 表时,请提供基本路径 (<baseDeltaPath>)。 目前不支持清空特定分区。

DELTA不支持写入暂存表

SQLSTATE:42807

表实现不支持写入操作:<tableName>

不支持协调器的写入操作

SQLSTATE:0AKDC

您正尝试对已向提交协调器 <coordinatorName> 注册的表执行写入操作。 但是,当前环境中不提供此协调器实现,而且不允许在没有协调器的情况下进行写入。

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE:0A000

不支持写入示例表

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE:42846

无法将 <fromCatalog> 强制转换为 <toCatalog>。 所有嵌套列必须匹配。

DELTA_VACUUM_COPY_INTO_STATE_FAILED(状态复制失败)

SQLSTATE:22000

数据文件上的 VACUUM 成功,但 COPY INTO 状态垃圾回收失败。

SQLSTATE:KD00C

版本 (<versionList>) 不是连续的。

有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_违反约束条件_包含值

SQLSTATE:23001

具有值的行违反了CHECK 约束 <constraintName> <expression>

<values>

SQLSTATE:0A000

违反了表 <table> 的属性验证:

有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

不支持将增量写入视图

SQLSTATE:0A000

<viewIdentifier> 是视图。 不能将数据写入视图。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

数据架构中不存在 Z 排序列 <columnName>

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE:KD00D

<cols> 上的 Z 排序将

无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的

<link>

有关数据跳过和 Z 排序的详细信息。 可以通过

设置“%%sql set = false”

'%%sql 设置 <zorderColStatKey> = 假'

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE:42P10

<colName> 是分区列。 只能对数据列执行 Z 排序

增量共享

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST(Delta共享激活随机值不存在)

SQLSTATE:未分配

找不到激活 nonce。 使用的激活链接无效或已过期。 重新生成激活链接,然后重试。

增量共享_跨区域共享_不支持

SQLSTATE:未分配

不支持在 <regionHint> 区域和其外部的区域外部共享。

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT (获取接收者属性无效依赖项错误)

SQLSTATE:未分配

使用 current_recipient 函数定义的视图仅用于共享,只能从数据接收方查询。 提供的具有 ID <securableId> 的安全对象不是增量共享视图。

不支持DELTA共享可变安全类型

SQLSTATE:未分配

提供的安全对象类型 <securableKind> 在增量共享中不支持可变性。

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE:未分配

提供的安全对象类型 <securableKind> 不支持轮换商城服务发起的令牌操作。

DS_认证类型不可用

SQLSTATE:未分配

<dsError>:在提供程序实体 <providerEntity> 中不可用的身份验证类型。

DS_CDF_未启用

SQLSTATE:未分配

<dsError>:无法访问 <tableName> 的更改数据馈送。 在版本 <version> 中,CDF 未在原始 Delta 表上启用。 请联系你的数据提供程序。

DS_CDF_NOT_SHARED

SQLSTATE:未分配

<dsError>:无法访问 <tableName> 的更改数据馈送。 CDF 不在表上共享。 请联系你的数据提供程序。

DS_CDF_RPC_INVALID_PARAMETER (参数无效)

SQLSTATE:未分配

<dsError><message>

数据库 DS 服务器的客户端授权错误 (DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER)

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE:未分配

<dsError><message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE:未分配

<dsError><message>

DS_云服务提供商不可用

SQLSTATE:未分配

<dsError>:云供应商暂时不可用于 <rpcName>,请重试。<traceId>

DS_DATA_物化命令失败

SQLSTATE:未分配

<dsError>:从组织 <runId> 运行 <orgId> 的数据具体化任务在命令 <command> 中失败

DS数据物化命令不支持

SQLSTATE:未分配

<dsError>:从组织 <runId> 运行 <orgId> 的数据具体化任务不支持命令 <command>

DS_数据物化不支持没有无服务器功能。

SQLSTATE:未分配

<dsError><featureName>不支持,因为在提供程序工作区中不支持或未启用无服务器功能。 请联系您的数据供应商以启用无服务器架构。

DS_DATA_MATERIALIZATION_无效命名空间

SQLSTATE:未分配

<dsError>:找不到用于创建 <tableName> 具体化的有效命名空间。 请联系数据提供程序修复此问题。

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE:未分配

<dsError>:从组织 <runId> 运行 <orgId> 的数据具体化任务不存在

DS_DELTA_ILLEGAL_STATE

SQLSTATE:未分配

<dsError><message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE:未分配

<dsError>:找不到检查点版本的所有组成部分文件:<version><suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE:未分配

<dsError><message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE:未分配

<dsError><message>

令牌过期,未经授权访问市场

SQLSTATE:未分配

<dsError>:提供的安全对象类型 <securableKind> 不支持使商城服务发起的令牌操作过期。

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER(请求打开DS服务器失败)

SQLSTATE:未分配

<dsError><message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE:未分配

<dsError>:仅为 Databricks 到 Databricks Delta Sharing 启用了 <feature>

DS_文件列表异常

SQLSTATE:未分配

<dsError><storage><message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE:未分配

<dsError><message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE:未分配

<dsError><message>

DS_HADOOP_CONFIG_NOT_SET(Hadoop配置未设置)

SQLSTATE:未分配

<dsError><key> 不是调用方设置的。

DS_ILLEGAL_STATE

SQLSTATE:未分配

<dsError><message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE:未分配

<dsError><message>

DS_无效的_AZURE_路径

SQLSTATE:未分配

<dsError>:无效的 Azure 路径:<path>

DS_INVALID_DELTA_ACTION_OPERATION (无效的delta操作动作)

SQLSTATE:未分配

<dsError><message>

DS_无效字段

SQLSTATE:未分配

<dsError><message>

DS_无效迭代器操作

SQLSTATE:未分配

<dsError><message>

DS_INVALID_PARTITION_SPEC

SQLSTATE:未分配

<dsError><message>

从DS服务器收到无效响应

SQLSTATE:未分配

<dsError><message>

DS_物化查询失败

SQLSTATE:未分配

<dsError><schema> 的查询失败。共享 <table> 中的 <share>

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE:未分配

<dsError><schema> 的查询超时。共享中的 <table><share> 秒后 <timeoutInSec>

DS_MISSING_IDEMPOTENCY_KEY (缺少幂等性密钥)

SQLSTATE:未分配

<dsError>:查询 <schema> 时需要幂等密钥。共享中的 <table> 异步 <share>

DS_多个RPC参数集

SQLSTATE:未分配

<dsError>:请仅提供以下项之一:<parameters>

DS_NETWORK_CONNECTION_CLOSED

SQLSTATE:未分配

<dsError>:由于<rpcName>,网络连接已关闭<errorCause>,请重试。<traceId>

网络连接超时 (DS_NETWORK_CONNECTION_TIMEOUT)

SQLSTATE:未分配

<dsError>:由于<rpcName><errorCause>的网络连接超时,请重试。<traceId>

DS_网络错误

SQLSTATE:未分配

<dsError>:由于<rpcName><errorCause>发生网络错误,请重试。<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE:未分配

<dsError>:未为当前工作区分配元存储(workspaceId:<workspaceId>)。

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED(工作负载标识令牌生成失败)

SQLSTATE:未分配

<dsError>:为 O2D OIDC 提供程序生成工作负载标识令牌失败:<message>

分页与查询参数不匹配

SQLSTATE:未分配

<dsError>:分页或查询参数不匹配。

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE:未分配

<dsError>:共享表上重命名的分区列 [<renamedColumns>]。 请联系数据提供程序修复此问题。

查询开始版本之前

SQLSTATE:未分配

<dsError>:只能查询自版本 <startVersion> 以来的表数据。

最新版本后版本的DS查询结束

SQLSTATE:未分配

<dsError>:提供的用于读取数据的终止版本(<endVersion>)无效。 结束版本不能大于表的最新版本(<latestVersion>)。

查询开始版本在最新版本之后

SQLSTATE:未分配

<dsError>:提供的读取数据的起始版本(<startVersion>)无效。 起始版本不能大于表的最新版本(<latestVersion>)。

DS_查询超时_服务器上

SQLSTATE:未分配

<dsError>:在 <queryType> 次迭代中进行 <tableName> 此更新后,在处理 <numActions> 上的 <numIter> 时发生超时。<progressUpdate> <suggestion> <traceId>

DS服务器上的速率限制

SQLSTATE:未分配

<dsError><message>

DS_RECIPIENT_RPC_INVALID_PARAMETER(无效参数)

SQLSTATE:未分配

<dsError><message>

DS资源已存在于DS服务器上 (DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER)

SQLSTATE:未分配

<dsError><message>

DS_RESOURCE_EXHAUSTED (资源耗尽)

SQLSTATE:未分配

<dsError><resource> 超出限制:[<limitSize>]<suggestion><traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER (DS服务器上未找到资源)

SQLSTATE:未分配

<dsError><message>

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE:未分配

<dsError>:目录 <catalogName> 已包含在共享 <shareName>中找到的架构名称。 <description> 的冲突架构名称:<schemaNamesInCommon>

DS_SERVER_TIMEOUT

SQLSTATE:未分配

<dsError>:由于<rpcName><errorCause>的服务器超时,请重试。<traceId>

DS共享已挂载到目录

SQLSTATE:未分配

<dsError>:来自提供程序<shareName>的共享<providerName>已装载到目录<catalogName>

DS_系统_工作区_组_权限_不支持

SQLSTATE:未分配

无法向系统生成的组 <securableType> 授予对 <principal> 的权限。

时光旅行不被允许

SQLSTATE:未分配

<dsError>:除非在 <tableName> 上共享历史记录,否则不允许进行时间旅行查询。 请联系你的数据提供程序。

未授权

SQLSTATE:未分配

<dsError>:未授权。

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE:未分配

<dsError>:未授权的 D2O OIDC 收件人:<message>

DS_未知异常

SQLSTATE:未分配

<dsError><traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE:未分配

<dsError><queryID> 的未知查询 ID <schema>。共享 <table> 中的 <share>

数据源未知查询状态

SQLSTATE:未分配

<dsError><queryID> 的查询 ID <schema> 的未知查询状态。共享 <table> 中的 <share>

DS_UNKNOWN_RPC

SQLSTATE:未分配

<dsError>:未知 rpc <rpcName>

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE:未分配

<dsError>:增量协议读取器版本 <tableReaderVersion> 高于 <supportedReaderVersion>,在增量共享服务器中不能受到支持。

DS_UNSUPPORTED_DELTA_TABLE_FEATURES (不支持的 Delta 表功能)

SQLSTATE:未分配

<dsError>:在表 <tableFeatures> 中找到表功能 <versionStr> <historySharingStatusStr> <optionStr>

不支持的操作

SQLSTATE:未分配

<dsError><message>

不支持的存储方案

SQLSTATE:未分配

<dsError>:不支持的存储架构:<scheme>

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE:未分配

<dsError>:无法检索 <schema>。共享 <table> 中的 <share>,因为具有类型 [<tableType>] 的表目前在增量共享协议中不受支持。

DS_UNSUPPORTED_TABLE_TYPE_FOR_VERSION_QUERY

SQLSTATE:未分配

<dsError><schema><table> from Share <share> 是一种不支持版本查询的 <tableType>

DS_USER_CONTEXT_ERROR

SQLSTATE:未分配

<dsError><message>

不允许共享视图功能

SQLSTATE:未分配

<dsError>:视图共享查询中不允许使用以下函数:<functions>

DS 工作空间域未设置

SQLSTATE:未分配

<dsError>:未设置工作区 <workspaceId> 域。

DS_工作空间_未找到

SQLSTATE:未分配

<dsError>:未找到工作区 <workspaceId>

自动换带机

不支持添加新项

SQLSTATE:0A000

指定了架构时不支持架构演变模式 <addNewColumnsMode>。 若要使用此模式,可以通过 cloudFiles.schemaHints 提供架构。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE:42000

找到了(默认)目录列表模式的通知设置

身份验证选项:

<options>

如果要使用文件通知模式,请显式设置:

.option(“cloudFiles.<useNotificationsKey>”, “true”)

如果要跳过选项验证步骤并忽略这些

身份验证选项,也可以设置:

.option(“cloudFiles.ValidateOptionsKey>”, “false”)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE:42000

增量列表模式 (cloudFiles.<useIncrementalListingKey>)

和文件通知 (cloudFiles.<useNotificationsKey>)

已同时启用。

请确保仅选择一个。

CF_AZURE_认证缺少选项

SQLSTATE:42000

请提供 Databricks 服务凭据,或者同时提供 clientId 和 clientSecret,以便通过 Azure 进行身份验证。

CF_AZURE_认证多选项

SQLSTATE:42000

提供 Databricks 服务凭据时,不应提供其他凭据选项(例如 clientId、clientSecret 或 connectionString)。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE:42000

Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix

CF_BUCKET_MISMATCH(CF桶不匹配)

SQLSTATE:22000

文件事件 <storeType> 中的 <fileEvent> 与源 <source> 所预期的不同。

CF_无法演变_架构_日志_为空

SQLSTATE:22000

架构日志为空时无法演变架构。 架构日志位置:<logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE:22000

无法分析以下队列消息:<message>

无法解析容器名称 (CF_CANNOT_RESOLVE_CONTAINER_NAME)

SQLSTATE:22000

无法从路径 <path> 解析容器名称,解析的 URI 为 <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING(无法运行目录列表)

SQLSTATE:22000

当有异步回填线程在运行时,无法运行目录列表

CF_CLEAN_SOURCE_允许_覆盖_两者_启用

SQLSTATE:42000

无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。

源未授权写入权限 (CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION)

SQLSTATE:42501

自动加载程序无法删除已处理的文件,因为它对源目录没有写入权限。

<reason>

若要修复,可以执行以下操作之一:

  1. 授予对源目录的写入权限,或

  2. 将 cleanSource 设置为“OFF”

还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。

CF_重复数据中的列

SQLSTATE:22000

尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请显式地通过 .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}") 提供分区列。

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE:42000

输入路径 <path> 为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE:22000

无法创建事件网格订阅。 请确保服务

主体具有 <permissionType> 事件网格订阅。 有关详细信息,请参阅:

<docLink>

CF_EVENT_GRID_CREATION_FAILED (事件网格创建失败)

SQLSTATE:22000

无法创建事件网格订阅。 请确保 Microsoft.EventGrid

在订阅中注册为资源提供程序。 有关详细信息,请参阅:

<docLink>

CF_EVENT_GRID_未找到错误

SQLSTATE:22000

无法创建事件网格订阅。 请确保存储

帐户 (<storageAccount>) 位于资源组 (<resourceGroup>) 的下面,并且

存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:

<docLink>

不支持 CF_EVENT_NOTIFICATION 事件通知

SQLSTATE:0A000

<cloudStore> 不支持自动加载程序事件通知模式。

CF_无法检查新流

SQLSTATE:22000

无法检查流是否为新流

CF_创建_PUBSUB_订阅_失败

SQLSTATE:22000

无法创建订阅 <subscriptionName>。 已存在同名订阅,并与另一个主题 <otherTopicName> 相关联。 所需主题为 <proposedTopicName>。 要么删除现有订阅,要么创建采用新资源后缀的订阅。

CF_创建PubSub主题失败

SQLSTATE:22000

无法创建主题 <topicName>。 已存在同名的主题。 <reason> 请删除现有主题或使用其他资源后缀重试

CF_无法删除_GCP_通知

SQLSTATE:22000

未能删除主题 <notificationId> 的存储桶 <bucketName> 上 ID 为 <topicName> 的通知。 请重试或通过 GCP Console 手动删除通知。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE:22000

无法从字符串反序列化持久化架构:“<jsonSchema>

无法演变架构

SQLSTATE:22000

无法在没有架构日志的情况下演变架构。

CF_FAILED_TO_FIND_PROVIDER(无法找到提供程序)

SQLSTATE:42000

找不到 <fileFormatInput> 的提供程序

SQLSTATE:22000

无法从输入路径 <fileFormatInput> 中的现有文件推断 <path> 格式的架构。

有关更多详细信息,请参阅 CF_FAILED_TO_INFER_SCHEMA

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE:22000

无法写入位于 <path> 的架构日志。

CF_FILE_FORMAT_REQUIRED (文件格式要求)

SQLSTATE:42000

无法找到所需选项:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE:22000

发现主题 <num> 有多个(<topicName> 个)订阅使用自动加载程序前缀:

<subscriptionList>

每个主题只能有一个订阅。 请手动确保主题没有多个订阅。

CF_GCP_认证

SQLSTATE:42000

请提供以下所有凭据:<clientEmail><client>

<privateKey><privateKeyId>,或提供使用 Databricks 服务凭据的 <serviceCredential>

或者,请提供它们中的一个,以便使用默认的 GCP 凭据提供程序链对 GCP 资源进行身份验证。

CF_GCP_标签数量超出限制

SQLSTATE:22000

收到太多 GCP 资源的标签(<num> 个)。 每项资源的最大标签计数为 <maxNum>

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED(已超出GCP资源标签数量限制)

SQLSTATE:22000

收到太多 GCP 资源的资源标记(<num> 个)。 每项资源的最大资源标记计数为 <maxNum>,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE:22000

路径 <path> 上的架构日志中的日志文件不完整

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE:22000

自动加载程序检查点中的元数据文件不完整

批处理使用错误

SQLSTATE:42887

CloudFiles 是流式处理源。 请使用 spark.readStream,而不是 spark.read。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled> 设置为 false。

SQL参数错误

SQLSTATE:42000

cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE:42887

若要使用“cloudFiles”作为流式处理源,请使用“cloudFiles.format”选项提供文件格式,并使用 .load() 创建 DataFrame。 若要禁用此检查,请将 <cloudFilesFormatValidationEnabled> 设置为 false。

SQLSTATE:42000

内部错误。

有关更多详细信息,请参阅 CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE:42000

无效 ARN:<arn>

CF_无效的Azure证书

SQLSTATE:42000

无法分析随选项 cloudFiles.certificate 提供的私钥。 请提供 PEM 格式的有效公钥。

CF_INVALID_AZURE_CERT_PRIVATE_KEY(无效的 Azure 证书私钥)

SQLSTATE:42000

无法分析随选项 cloudFiles.certificatePrivateKey 提供的私钥。 请提供 PEM 格式的有效私钥。

CF_无效检查点

SQLSTATE:42000

此检查点不是有效的 CloudFiles 源

CF_INVALID_CLEAN_SOURCE_MODE(无效的清理源模式)

SQLSTATE:42000

清理源选项 <value> 的模式无效。

CF_INVALID_GCP_RESOURCE_TAG_KEY (无效的GCP资源标签键)

SQLSTATE:42000

GCP 资源的资源标记密钥 <key> 无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。

CF_INVALID_GCP资源标签值不正确

SQLSTATE:42000

GCP 资源的资源标记值 <value> 无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE:42000

自动加载程序与托管文件事件一起使用时,不支持以下选项:

<optionList>

建议删除这些选项,然后重启流。

SQLSTATE:22000

来自托管文件事件服务的响应无效。 请联系 Databricks 支持人员获取帮助。

有关更多详情,请参阅 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_无效的模式演化模式

SQLSTATE:42000

cloudFiles。 <schemaEvolutionModeKey> 必须是以下项之一

<addNewColumns>

<failOnNewColumns>

<rescue>

<noEvolution>

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE:42000

架构提示只能指定特定列一次。

在这种情况下,请在架构提示中多次重新定义列:<columnName>

多次重新定义列

<schemaHints>

CF_无效的架构提示列

SQLSTATE:42000

架构提示无法用于覆盖映射和数组的嵌套类型。

有冲突的列:<columnName>

CF_最新的偏移读取限制需要

SQLSTATE:22000

应在此源上使用 ReadLimit 调用 latestOffset。

CF 日志文件格式错误

SQLSTATE:22000

日志文件格式不正确:无法从 <fileName> 中读取正确的日志版本。

CF_托管文件事件正在填充中

SQLSTATE:22000

已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在托管文件事件服务发现外部位置的所有文件后重试。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE:42000

你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。

CF 管理文件事件终端权限被拒绝

SQLSTATE:42000

你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE:56038

只能在 Databricks 无服务器版本上使用托管文件事件的自动加载程序。 若要继续,请将此工作负载移动到 Databricks 无服务器版本或关闭 cloudFiles.useManagedFileEvents 选项。

CF_MAX必须为正数

SQLSTATE:42000

最大值必须为正数

CF_METADATA_FILE_同时使用

SQLSTATE:22000

多个流式处理查询在同时使用 <metadataFile>

CF_丢失元数据文件错误

SQLSTATE:42000

流式处理源检查点目录中的元数据文件丢失。 此元数据

文件包含流的重要默认选项,因此流无法立即

重启。 请联系 Databricks 支持人员获取帮助。

CF_缺少分区列错误

SQLSTATE:42000

提供的架构中不存在分区列 <columnName>

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE:42000

如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE:22000

在存储桶 <topicName> 上发现主题 <bucketName> 的现有通知:

通知,身份标识

<notificationList>

若要避免意外事件污染订阅服务器,请删除上述通知并重试。

CF_新分区错误

SQLSTATE:22000

从文件中推断出新的分区列:[<filesList>]。 请提供架构中的所有分区列,或者提供想要使用 :.option(“cloudFiles.partitionColumns”) 提取值的分区列列表。 "{comma-separated-list|empty-string}"

CF_PARTITON_INFERENCE_ERROR

SQLSTATE:22000

尝试推断当前文件批次的分区架构时出错。 请通过使用 .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}") 来明确提供分区列。

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES (读取文件的路径不存在)

SQLSTATE:42000

当输入路径 <path> 不存在时无法读取文件。 请确保该输入路径存在,然后重试。

CF_周期性回填不支持

SQLSTATE:0A000

如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing 设置为 true 来启用异步回填/目录列表

CF_PREFIX_MISMATCH

SQLSTATE:22000

找到不匹配的事件:密钥 <key> 没有前缀:<prefix>

协议不匹配错误

SQLSTATE:22000

<message>

如果无需对代码进行任何其他更改,请设置 SQL

配置:“<sourceProtocolVersionKey> = <value>

以恢复流。 请参阅:

<docLink>

以获取更多详细信息。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE:42000

无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE:42000

无法创建通知服务:资源后缀不能为空。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP (谷歌云平台资源后缀无效字符)

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>)。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE:42000

无法创建通知服务:资源后缀不能超过 <limit> 个字符。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE:42000

无法创建通知服务:资源后缀的字符数介于 <lowerLimit><upperLimit> 之间。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY(受限的GCP资源标签键)

SQLSTATE:22000

找到受限的 GCP 资源标记密钥 (<key>)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE:42000

cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE:22000

无法为前缀为 <topic> 的主题 <prefix> 创建通知。 已经有一个具有相同名称且前缀为 <oldPrefix> 的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE:42000

无法从源架构日志克隆和迁移任何架构日志条目。

CF_SFTP_缺少密码或密钥文件

SQLSTATE:42000

必须为 SFTP 指定密码或密钥文件。

请在源 URI 中或通过 <passwordOption>指定密码,或通过 <keyFileOption>指定密钥文件内容。

CF_SFTP_NOT_ENABLED (SFTP功能未启用)

SQLSTATE:0A000

未启用访问 SFTP 文件。 请联系 Databricks 支持人员获取帮助。

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE:0A000

访问 SFTP 文件需要启用 UC 的群集。 请联系 Databricks 支持人员获取帮助。

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE:42000

必须为 SFTP 指定用户名。

请在源 URI 中或通过 <option>提供用户名。

需要CF源目录路径

SQLSTATE:42000

请提供带有选项 path 的源目录路径

CF来源不被支持

SQLSTATE:0A000

云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>”,解析的 URI:“<uri>”。

CF_STATE_INCORRECT_SQL_PARAMS(SQL参数不正确状态)

SQLSTATE:42000

cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及表示要为其加载状态的检查点版本的可选第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>

CF_STATE_INVALID_CHECKPOINT_PATH(无效的检查点路径)

SQLSTATE:42000

输入检查点路径 <path> 无效。 路径不存在,或者找不到 cloud_files 源。

CF_STATE_版本无效

SQLSTATE:42000

指定的版本 <version> 不存在,或在分析期间已删除。

CF_THREAD_IS_DEAD

SQLSTATE:22000

<threadName> 线程终止。

The error message itself is likely better kept in English due to its technical specificity, but if necessary to provide a more accessible presentation for the audience, a possible translation or explanation could be: "无法导出流检查点位置的错误代码" (Unable to derive stream checkpoint location error code).

SQLSTATE:42000

无法从源检查点位置派生流检查点位置:<checkPointLocation>

CF_无法检测文件格式

SQLSTATE:42000

无法在 <fileSize> 采样文件中检测源文件格式,找到了 <formats>。 请指定格式。

CF_无法提取存储桶信息

SQLSTATE:42000

无法提取存储桶信息。 路径:“<path>”,解析的 URI:“<uri>”。

CF_UNABLE_TO_EXTRACT_KEY_INFO(无法提取关键信息)

SQLSTATE:42000

无法提取密钥信息。 路径:“<path>”,解析的 URI:“<uri>”。

无法提取存储账户信息

SQLSTATE:42000

无法提取存储帐户信息。路径:“<path>”,解析的 URI:“<uri>

CF_无法有效列出

SQLSTATE:22000

已收到路径 <path> 的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE:22000

意外的 ReadLimit:<readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE:42000

找到未知选项密钥:

<optionList>

请确保所有提供的选项密钥都正确。 如果要跳过

选项验证步骤并忽略这些未知选项,你可以设置:

.option(“cloudFiles.<validateOptions>”, “false”)

CF_UNKNOWN_READ_LIMIT(未知读取限制)

SQLSTATE:22000

未知 ReadLimit:<readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION (不支持的云文件SQL函数)

SQLSTATE:0A000

SQL 函数“cloud_files”仅在 DLT 管道中支持创建自动加载器的流式处理源。 有关详细信息,请参阅:

<docLink>

不支持格式以进行模式推断

SQLSTATE:0A000

格式 <format> 不支持架构推理。 请指定架构。

CF_不支持的日志版本

SQLSTATE:0A000

UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>,但遇到的是 v<version>。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE不支持的模式进化方案

SQLSTATE:0A000

格式 <mode> 不支持架构演变模式 <format>。 请将架构演变模式设置为“none”。

CF_USE_DELTA_FORMAT

SQLSTATE:42000

此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (<deltaDocLink>),或读取 Delta 表作为流源 (<streamDeltaDocLink>)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。

地理空间

EWKB_PARSE_ERROR

SQLSTATE:22023

分析 EWKB 时出错:<parseError> 位置处的 <pos>

SQLSTATE:22023

分析 GeoJSON 时出错:<parseError> 位置处的 <pos>

有关更多详细信息,请参阅 GEOJSON_PARSE_ERROR

SQLSTATE:22023

<h3Cell> 不是有效的 H3 单元格 ID

有关更多详细信息,请参阅 H3_INVALID_CELL_ID

SQLSTATE:22023

H3 网格距离 <k> 必须为非负数

有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE:22023

H3 分辨率 <r> 必须介于 <minR><maxR>(含)之间

有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE

SQLSTATE:0A000

<h3Expression> 被禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层

有关更多详细信息,请参阅 H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE:22023

计算网格距离为 <h3Cell><k> 的六边形环时出现五边形

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE:22023

<h3Cell1><h3Cell2> 之间的 H3 网格距离未定义

ST_DIFFERENT_SRID_VALUES

SQLSTATE:22023

<sqlFunction>”的参数必须具有相同的 SRID 值。 找到 SRID 值:<srid1><srid2>

ST_无效参数

SQLSTATE:22023

"<sqlFunction>":<reason>

ST_参数类型无效

SQLSTATE:22023

<sqlFunction>”的参数必须为 <validTypes> 类型

ST_INVALID_CRS_TRANSFORMATION_ERROR (坐标参考系统转换错误无效)

SQLSTATE:22023

<sqlFunction>:从 SRID <srcSrid> 到 SRID <trgSrid> 的 CRS 转换无效或不受支持

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE:22023

Endianness“<e>”必须是“NDR”(little-endian) 或“XDR”(big-endian)

ST_INVALID_GEOHASH_VALUE (地理哈希值无效)

SQLSTATE:22023

<sqlFunction>:无效的 geohash 值:“<geohash>”。 Geohash 值必须是有效的小写 base32 字符串。

ST_INVALID_INDEX_VALUE

SQLSTATE:22023

<sqlFunction>:提供的地理空间值的索引 <index> 无效。

ST_INVALID_PRECISION_VALUE(无效的精度值)

SQLSTATE:22023

精度 <p> 必须介于 <minP><maxP>(含)之间

ST_INVALID_SRID_VALUE (无效的SRID值)

SQLSTATE:22023

SRID <srid> 无效或不受支持

ST_未启用

SQLSTATE:0A000

<stExpression> 被禁用或不受支持。 请考虑启用 Photon 或切换到支持 ST 表达式的层

ST_不支持的返回类型

SQLSTATE:0A000

无法在查询中返回 GEOGRAPHYGEOMETRY 数据类型。 使用以下 SQL 表达式之一将其转换为标准交换格式:<projectionExprs>

SQLSTATE:22023

分析 WKB 时出错:<parseError> 位置处的 <pos>

有关更多详细信息,请参阅 WKB_PARSE_ERROR

SQLSTATE:22023

分析 WKT 时出错:<parseError> 位置处的 <pos>

有关更多详细信息,请参阅 WKT_PARSE_ERROR

统一目录

列名冲突错误

SQLSTATE:42711

<columnName> 与同名但不包含尾随空格的另一列冲突(例如,名为 <columnName>现有列)。 请使用其他名称重命名列。

不支持在线表连接的连接凭据

SQLSTATE:未分配

获取类型 <connectionType> 的连接的连接级别凭证的请求无效。 此类凭证仅适用于托管 PostgreSQL 连接。

连接类型未启用

SQLSTATE:未分配

连接类型“<connectionType>”未启用。 请启用连接以使用它。

DELTA_SHARING_READ_ONLY_接收者存在

SQLSTATE:未分配

已存在具有相同共享标识符“<existingRecipientName>”的收件人对象“<existingMetastoreId>”。

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE:未分配

增量共享安全对象类型的 <securableKindName> 数据是只读的,不能创建、修改或删除。

元存储上的外部访问已禁用

SQLSTATE:未分配

由于为元存储 <metastoreName> 禁用了外部数据访问,非 Databricks 计算环境拒绝凭证销售。 请联系元存储管理员,以在元存储上启用“外部数据访问”配置。

不允许外部访问该表

SQLSTATE:未分配

由于表的类型为 <tableId>,无法从 Databricks 计算环境外部访问具有 ID <securableKind> 的表。 只能从外部访问“TABLE_EXTERNAL”、“TABLE_DELTA_EXTERNAL”和“TABLE_DELTA”表类型。

外部使用模式分配给错误的可保护类型

SQLSTATE:未分配

特权 EXTERNAL USE SCHEMA 不适用于此实体 <assignedSecurableType>,只能分配给架构或目录。 请从 <assignedSecurableType> 对象中删除该权限,并改为将其分配给架构或目录。

不允许对表进行外部写入

SQLSTATE:未分配

由于表的类型为 <tableId>,无法从 Databricks 计算环境外部写入具有 ID <securableKind> 的表。 只能从外部写入“TABLE_EXTERNAL”和“TABLE_DELTA_EXTERNAL”表类型。

外部目录存储根必须支持写入

SQLSTATE:未分配

类型为 <catalogType> 的外部目录的存储位置将用于卸载数据,不能是只读的。

HMS_可保护的重叠限制已超出

SQLSTATE:未分配

输入路径 <resourceType><url> 的数量超过了重叠 HMS <overlapLimit> 的允许限制 (<resourceType>)。

无效的资源名称_DELTA_共享

SQLSTATE:未分配

不支持使用资源名进行增量共享请求

无效资源名称实体类型

SQLSTATE:未分配

提供的资源名称引用实体类型 <provided>,但预期的是 <expected>

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE:未分配

提供的资源名称引用不在当前请求范围内的元存储

位置重叠

SQLSTATE:未分配

输入路径 URL“<path>”与“<overlappingLocation>”调用内的 <caller> 重叠。 <conflictingSummary><permissionErrorSuggestion>

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE:未分配

不允许创建或更新 MongoDB 连接,因为 MongoDB SRV 连接字符串不需要端口。

请删除端口,因为 SRV 连接字符串不需要端口。

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE:未分配

Redshift 外部目录的存储根必须是 AWS S3。

安全类型不支持湖仓联合

SQLSTATE:未分配

类型为 <securableKind> 的安全对象不支持 Lakehouse 联合身份验证。

可保护类型未启用

SQLSTATE:未分配

未启用安全对象类型“<securableKind>”。 如果这是与预览功能关联的安全对象类型,请在工作区设置中启用它。

不支持湖仓联邦的安全类型

SQLSTATE:未分配

类型为 <securableType> 的安全对象不支持 Lakehouse 联合身份验证。

源表列数超过限制

SQLSTATE:未分配

源表包含的列数多于 <columnCount>。 请将列数减少到 <columnLimitation> 或以下。

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE:未分配

交换的 AAD 令牌生存期为 <lifetime>,配置的太短。 请检查 Azure AD 设置,确保临时访问令牌至少具有一小时生存期。 https://docs.azure.cn/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_评估错误

SQLSTATE:未分配

评估 <resource> 上的 ABAC 策略时出错。

UC_AUTHZ_操作不支持

SQLSTATE:未分配

不支持授权 <actionName>;请检查是否已为此资源类型实现了 RPC 调用

UC_内建_HMS_连接创建权限被拒绝

SQLSTATE:未分配

无法为内置 hive 元存储创建连接,因为用户 <userId> 不是工作区的管理员:<workspaceId>

UC_内置_HMS_连接_修改_受限_字段

SQLSTATE:未分配

尝试修改内置的 HMS 连接“<connectionName>”中的受限字段。 只能更新“warehouse_directory”。

无法重命名分区过滤列

SQLSTATE:未分配

无法重命名表列 <originalLogicalColumn>,因为它用于 <sharedTableName> 中的分区筛选。 若要继续操作,可以从共享中删除表,重命名列,然后再次与所需的分区筛选列共享它。 不过,这可能会中断收件人的流式处理查询。

UC 子创建禁止非 UC 集群

SQLSTATE:未分配

无法在 <securableType><securable>”下创建 <parentSecurableType><parentSecurable>”,因为请求不是来自 UC 群集。

UC_云存储访问失败

SQLSTATE:未分配

无法访问云存储:<errMsg> exceptionTraceId=<exceptionTraceId>

连接选项冲突 (UC_CONFLICTING_CONNECTION_OPTIONS)

SQLSTATE:未分配

无法同时使用用户名/密码和 oauth 身份验证选项创建连接。 请选择一个。

凭证已存在 UC 连接

SQLSTATE:未分配

凭证“<credentialName>”具有一个或多个依赖连接。 可以使用强制选项继续更新或删除凭证,但使用此凭证的连接可能不再有效。

连接过期访问令牌

SQLSTATE:未分配

与连接关联的访问令牌已过期。 请更新连接以重启 OAuth 流以检索令牌。

UC_连接已过期_刷新令牌

SQLSTATE:未分配

与连接关联的刷新令牌已过期。 请更新连接以重启 OAuth 流,检索新的令牌。

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE:未分配

连接处于 FAILED 状态。 请使用有效的凭证更新连接以重新激活连接。

UC连接缺少刷新令牌

SQLSTATE:未分配

没有与连接关联的刷新令牌。 请更新标识提供者中的 OAuth 客户端集成以返回刷新令牌,并更新或重新创建连接以重启 OAuth 流并检索所需的令牌。

UC_连接_OAUTH_交换_失败

SQLSTATE:未分配

OAuth 令牌交换失败,并显示 HTTP 状态代码 <httpStatus>。 返回的服务器响应或异常消息为:<response>

UC_联合提交_未启用

SQLSTATE:未分配

未启用对协调提交的支持。 请联系 Databricks 支持人员。

不活动安全对象下禁止创建

SQLSTATE:未分配

无法创建 <securableType><securableName>”,因为它位于不活动的 <parentSecurableType><parentSecurableName>”。 请删除父级安全对象并重新创建父级。

UC_凭据_访问_连接器_解析失败

SQLSTATE:未分配

未能分析提供的访问连接器 ID:<accessConnectorId>。 请验证其格式设置并重试。

凭证无法获取验证令牌失败

SQLSTATE:未分配

未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。

UC_凭证_无效_云权限

SQLSTATE:未分配

注册凭证需要具有 ID <accessConnectorId> 的相应访问连接器上的参与者角色。 请联系帐户管理员。

证书无效,类型与用途不符

SQLSTATE:未分配

出于目的“<credentialType>”,不支持凭证类型“<credentialPurpose>

UC_凭证权限被拒绝

SQLSTATE:未分配

只有帐户管理员可以创建或更新类型为 <storageCredentialType> 的凭证。

UC凭证信任策略是开放的

SQLSTATE:未分配

用于允许 Databricks 帐户承担角色的 IAM 角色的信任策略应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范混淆代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。

UC_CREDENTIAL_不支持无特权的服务主体

SQLSTATE:未分配

服务主体不能使用 CREATE_STORAGE_CREDENTIAL 特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE:未分配

帐户级 API 不支持以非帐户管理员身份创建或更新凭证。 请改用工作区级 API。

UC_DBR_信任版本过旧

SQLSTATE:未分配

正在使用的 Databricks Runtime 不再支持此操作。 请使用最新版本(可能需要重启群集)。

UC_DELTA_通用格式无法解析_ICEBERG_VERSION

SQLSTATE:未分配

无法从元数据位置 <metadataLocation> 分析 Iceberg 表版本。

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE:未分配

检测到对同一 iceberg 元数据版本的并发更新。

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION - 通用格式的元数据位置无效

SQLSTATE:未分配

提交的元数据位置 <metadataLocation> 无效。 它不是表根目录 <tableRoot> 的子目录。

UC_增量_通用格式_字段缺失约束

SQLSTATE:未分配

提供的增量 iceberg 格式转换信息缺少必填字段。

UC_增量_通用_格式_不可创建_约束

SQLSTATE:未分配

不支持在创建时设置增量 iceberg 格式信息。

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT(通用格式过大限制)

SQLSTATE:未分配

提供的增量 iceberg 格式转换信息太大。

UC_DELTA_通用格式更新无效

SQLSTATE:未分配

只能在启用了统一的增量表上更新统一元数据。

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE:未分配

<resourceType><ref>”深度超过限制(或具有循环引用)。

UC_依赖不存在

SQLSTATE:未分配

<resourceType><ref>”无效,因为其中一个基础资源不存在。 <cause>

UC_DEPENDENCY_PERMISSION_DENIED (依赖项权限被拒绝)

SQLSTATE:未分配

<resourceType><ref>”没有足够的权限执行,因为其中一个基础资源的所有者未能通过授权检查。 <cause>

重复连接 (UC_DUPLICATE_CONNECTION)

SQLSTATE:未分配

已存在具有相同 URL 的名为“'”<connectionName>的连接。 请要求所有者使用该连接的权限,而不是创建重复连接。

面料目录重复创建

SQLSTATE:未分配

尝试创建 URL 为“<storageLocation>”的 Fabric 目录,该目录与现有目录匹配,这是不允许的。

标签分配创建重复

SQLSTATE:未分配

标记键为 <tagKey> 的标记分配已存在

UC实体不存在对应的在线集群

SQLSTATE:未分配

实体 <securableType> <entityId> 不具有相应的联机群集。

UC_ERROR_CODE_XWYEY

SQLSTATE:未分配

如果此问题仍然存在,请联系带有错误代码为 UC-XWYEY 的 Databricks 支持部门。

超过最大文件限制

SQLSTATE:未分配

文件多于 <maxFileResults> 个。 请指定 [max_results] 以限制返回的文件数。

UC_外部位置操作不允许

SQLSTATE:未分配

无法 <opName> <extLoc> <reason><suggestion>

UC_功能已禁用

SQLSTATE:未分配

<featureName> 当前在 UC 中处于禁用状态。

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE:未分配

不支持为连接类型“<connectionType>”创建外部目录。 此连接类型只能用于创建托管引入管道。 有关详细信息,请参阅 Databricks 文档。

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE:未分配

只能检索外表的 READ 凭证。

UC_外国_HMS_浅层克隆不匹配

SQLSTATE:未分配

基表和克隆表必须在同一个目录中,这样才能在外部 Hive 元存储目录中创建浅克隆表。 基表“”位于目录“<baseTableName><baseCatalogName>中,克隆表”<cloneTableName>“位于目录”“<cloneCatalogName>中。

外键子列长度不匹配

SQLSTATE:未分配

外键 <constraintName> 子列和父列的大小不同。

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE:未分配

外键父列与引用的主键子列不匹配。 外键父列为 (<parentColumns>),主键子列为 (<primaryKeyChildColumns>)。

UC_外键列类型不匹配

SQLSTATE:未分配

外键子列类型与父列类型不匹配。 外键子列 <childColumnName> 具有类型 <childColumnType>,父列 <parentColumnName> 具有类型 <parentColumnType>

UC_GCP_INVALID_PRIVATE_KEY(无效的私钥)

SQLSTATE:未分配

访问被拒绝。 原因:服务帐户私钥无效。

UC_GCP_无效的私钥JSON格式

SQLSTATE:未分配

Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。

UC_GCP_私钥JSON格式无效_缺少字段

SQLSTATE:未分配

Google Server 帐户 OAuth 私钥必须是具有必填字段的有效 JSON 对象,请确保提供从服务帐户详细信息页的“KEYS”部分生成的完整 JSON 文件。 缺少的字段为 <missingFields>

UC_IAM角色_不可自我承担

SQLSTATE:未分配

发现此存储凭证的 IAM 角色是非自假设的。 请检查角色的信任和 IAM 策略,以确保 IAM 角色可以根据 Unity Catalog 存储凭证文档自行承担。

UC_ICEBERG_提交_冲突

SQLSTATE:未分配

无法提交 <tableName>:元数据位置 <baseMetadataLocation> 已从 <catalogMetadataLocation> 变更。

UC_ICEBERG_COMMIT_INVALID_TABLE (提交无效表)

SQLSTATE:未分配

无法对非托管 Iceberg 表执行托管 Iceberg 提交:<tableName>

提交缺少字段约束

SQLSTATE:未分配

提供的托管 Iceberg 提交信息缺少必填字段。

UC_ID_MISMATCH

SQLSTATE:未分配

<type> <name> 不具有 ID <wrongId>。 请重试该操作。

UC_无效访问_BRICKSTORE_PG_连接

SQLSTATE:未分配

对砖店 PG 连接的访问权限无效。 <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE:未分配

联合目录 <securableType> <securableName> 中的 <catalogName> 访问无效。 <reason>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID (无效的Cloudflare账户ID)

SQLSTATE:未分配

Cloudflare 帐户 ID 无效。

UC_凭证无效_云

SQLSTATE:未分配

凭证云提供商“<cloud>”无效。 允许的云提供商“<allowedCloud>”。

UC_INVALID_CREDENTIAL_PURPOSE_VALUE (无效的凭证用途值)

SQLSTATE:未分配

凭据“purpose”的值“<value>”无效。 允许的值“<allowedValues>”。

凭证转换无效

SQLSTATE:未分配

无法将连接从 <startingCredentialType> 更新为 <endingCredentialType>。 唯一有效的转换是从基于用户名/密码的连接转换到基于 OAuth 令牌的连接。

UC_INVALID_CRON_STRING_FABRIC(无效的 CRON 字符串设置错误)

SQLSTATE:未分配

无效的 cron 字符串。 找到了:“<cronString>”并出现分析异常:“<message>

UC_无效直接访问管理表格

SQLSTATE:未分配

直接访问托管表 <tableName> 无效。 确保未定义源表和管道定义。

无效的空存储位置

SQLSTATE:未分配

目录“<securableType>”中的 <securableName><catalogName>”出现意外空存储位置。 若要修复此错误,请运行 DESCRIBE SCHEMA <catalogName><securableName> 并刷新此页面。

UC_INVALID_OPTIONS_UPDATE

SQLSTATE:未分配

提供的更新选项无效。 无效选项:<invalidOptions>。 允许的选项:<allowedOptions>

无效的选项值

SQLSTATE:未分配

<value>”的“<option>”值无效。 允许的值“<allowedValues>”。

选项值为空

SQLSTATE:未分配

<option>”不能为空。 请输入非空值。

UC_INVALID_R2_ACCESS_KEY_ID (无效的R2访问密钥ID)

SQLSTATE:未分配

R2 访问密钥 ID 无效。

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE:未分配

R2 机密访问密钥无效。

UC_无效的规则条件

SQLSTATE:未分配

规则“<ruleName>”中的条件无效。 包含消息“<message>”的编译错误。

在系统工作区管理员组拥有的可保护对象上进行无效更新

SQLSTATE:未分配

无法更新 <securableType><securableName>”,因为它由内部组拥有。 有关其他详细信息,请联系 Databricks 支持人员。

UC_无效_WASBS_外部位置存储凭据

SQLSTATE:未分配

如果存储凭证 <storageCredentialName> 不与 DBFS 根关联,则禁止创建 wasbs 外部位置。

UC_LOCATION_INVALID_SCHEME

SQLSTATE:未分配

存储位置的 URI 架构无效:<scheme>

UC_格式错误_OAUTH_服务器响应

SQLSTATE:未分配

令牌服务器的响应缺少字段 <missingField>。 返回的服务器响应为:<response>

UC_METASTORE_ASSIGNMENT_STATUS_INVALID (元数据存储分配状态无效)

SQLSTATE:未分配

无法分配“<metastoreAssignmentStatus>'。 仅支持 MANUALLY_ASSIGNABLEAUTO_ASSIGNMENT_ENABLED

UC_元数据存储_认证_未启用

SQLSTATE:未分配

未启用元存储认证。

UC_METASTORE_DB分片映射未找到

SQLSTATE:未分配

由于内部错误,无法为 Metastore ID <metastoreId> 检索元存储到数据库分片的映射。 请联系 Databricks 支持人员。

UC_元数据存储_有_活动_托管_在线_目录

SQLSTATE:未分配

元存储 <metastoreId> 具有 <numberManagedOnlineCatalogs> 个托管联机目录。 请显式删除它们,然后重试元存储删除。

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE:未分配

更新元存储根位置时,无法定义元存储根凭证。 将从元存储父级外部位置提取凭证。

UC_METASTORE_存储根目录删除无效

SQLSTATE:未分配

删除元存储根位置失败。 <reason>

UC_元数据存储_存储根_只读_无效

SQLSTATE:未分配

元存储的根 <securableType> 不能为只读。

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID (元数据存储根更新无效)

SQLSTATE:未分配

设置元存储根后,无法对其进行更新。

UC_MODEL_状态无效

SQLSTATE:未分配

无法为状态为 <opName> 的模型版本 <modelVersion> 生成临时“<modelVersionStatus>”凭证。 “<opName>”凭证只能为状态为 <validStatus> 的模型版本生成

在上下文中没有组织ID

SQLSTATE:未分配

已尝试访问组织 ID(或工作区 ID),但上下文中没有。

UC_在线目录不可变更

SQLSTATE:未分配

<rpcName> 请求更新 <fieldName>。 使用在线存储计算选项卡修改联机目录的注释、所有者和隔离模式以外的任何内容。

在线目录配额超出限额

SQLSTATE:未分配

不能在元存储中创建 <quota> 个以上在线存储,已存在 <currentCount>。 你可能无法访问任何现有的存储在线存储。 请联系元存储管理员,以获取访问权限或进一步说明。

UC_ONLINE_INDEX_目录_无效_CRUD

SQLSTATE:未分配

联机索引目录必须为通过 /vector-search API 的 <action>

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE:未分配

<rpcName> 请求更新 <fieldName>。 使用 /vector-search API 修改联机索引目录的注释、所有者和隔离模式以外的任何内容。

在线索引目录配额超限

SQLSTATE:未分配

不能在元存储中创建 <quota> 个以上联机索引目录,已存在 <currentCount>。 你可能无权访问任何现有的联机索引目录。 请联系元存储管理员,以获取访问权限或进一步说明。

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE:未分配

联机索引必须为通过 /vector-search API 的 <action>

UC_ONLINE_STORE无效创建读取更新删除

SQLSTATE:未分配

在线存储必须为通过在线存储计算选项卡的 <action>

UC_在线_表格_列名_过长

SQLSTATE:未分配

源表列名称 <columnName> 太长。 最大长度为 <maxLength> 个字符。

UC_ONLINE_TABLE_主键列不在源表主键约束中

SQLSTATE:未分配

<columnName> 不能用作联机表的主键列,因为它不属于源表的现有 PRIMARY KEY 约束的一部分。 有关详细信息,请参阅 <docLink>

UC在线表时间序列键不在源表主键约束中

SQLSTATE:未分配

<columnName> 不能用作联机表的时序键,因为它不属于源表的现有 PRIMARY KEY 约束的时序列。 有关详细信息,请参阅 <docLink>

UC_在线视图_每来源表_配额超出

SQLSTATE:未分配

无法为每个源表创建 <quota> 个以上联机表。

UC_在线查看访问被拒绝

SQLSTATE:未分配

访问资源 <resourceName> 需要使用无服务器 SQL 仓库。 请确保用于在 UI 中执行查询或查看数据库目录的仓库是无服务器的。 有关详细信息,请参阅 <docLink>

UC_在线查看连续配额超限

SQLSTATE:未分配

无法在在线存储中创建 <quota> 个以上连续联机视图,并且已存在 <currentCount>。 你可能无法访问任何现有的存储在线视图。 请联系在线存储管理员,以获取访问权限或进一步说明。

UC_ONLINE_VIEW 不支持 DMK

SQLSTATE:未分配

<tableKind> 不能使用 Databricks 托管密钥在存储位置下创建。 请在存储位置中选择一个不同的架构/目录,而不使用 Databricks 托管密钥加密。

无效目录视图

SQLSTATE:未分配

类型为 <catalogName> 的要在其中创建 <catalogKind> 的目录 <tableKind> 无效。 <tableKind> 只能在类型目录下创建:<validCatalogKinds>

UC_在线视图_无效_模式

SQLSTATE:未分配

类型为 <schemaName> 的要在其中创建 <schemaKind> 的架构 <tableKind> 无效。 <tableKind> 只能在类型架构下创建:<validSchemaKinds>

UC_在线查看_无效TTL时间列类型

SQLSTATE:未分配

类型为 <columnName> 的列 <columnType> 不能用作 TTL 时间列。 允许的类型是 <supportedTypes>

授权路径范围之外

SQLSTATE:未分配

授权路径错误。 未在目录的授权路径中定义 <securableType> 位置 <location><catalogName>。 请要求目录所有者将路径添加到目录上定义的授权路径列表中。

UC_重复授权路径

SQLSTATE:未分配

“authorized_paths”选项包含重叠的路径:<overlappingPaths>。 确保每个路径都是唯一的,并且不会与列表中的其他路径相交。

UC_分页和查询参数不匹配

SQLSTATE:未分配

查询参数“<arg>”设置为“<received>”,它与第一个分页调用(“<expected>”)中使用的值不同

路径过长_uc

SQLSTATE:未分配

输入路径太长。 允许的长度:<maxLength>。 输入长度:<inputLength>。 输入: <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE:未分配

从元存储 <metastoreId> 向数据库发出的请求过多。 请稍后再试。

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE:未分配

无法为每个源表创建多个 <quota> PostgreSQL 联机表。

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE:未分配

无法创建主键 <constraintName>,因为它的子列可为 <childColumnNames> Null。 请更改列的可为 Null 性,然后重试。

请求超时 (UC_REQUEST_TIMEOUT)

SQLSTATE:未分配

此操作耗时过长。

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE:未分配

Unity Catalog 不支持包含点的根存储 S3 存储桶名称:<uri>

UC_架构_空存储位置

SQLSTATE:未分配

目录“<schemaName>”中的架构“<catalogName>”出现意外空存储位置。 请确保架构使用路径方案 <validPathSchemesListStr>

存储凭证访问连接器解析失败

SQLSTATE:未分配

未能分析提供的访问连接器 ID:<accessConnectorId>。 请验证其格式设置并重试。

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE:未分配

无法为 DBFS 根创建存储凭证,因为用户 <userId> 不是工作区的管理员:<workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION

SQLSTATE:未分配

位置 <location> 不在 DBFS 根 <dbfsRootLocation>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE:未分配

包含启用了防火墙的 DBFS 的工作区尚不支持 DBFS 根存储凭证

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE:未分配

当前工作区尚不支持 DBFS 根存储凭证

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE:未分配

未为工作区 <workspaceId> 启用 DBFS 根

无法获取验证令牌的存储凭据错误

SQLSTATE:未分配

未能获取 AAD 令牌以对访问连接器执行云权限验证。 请重试该操作。

存储凭证无效云权限

SQLSTATE:未分配

注册存储凭证需要具有 ID <accessConnectorId> 的相应访问连接器上的参与者角色。 请联系帐户管理员。

UC_存储凭证权限被拒绝

SQLSTATE:未分配

只有帐户管理员可以创建或更新类型为 <storageCredentialType> 的存储凭证。

UC_存储_凭证_服务_主体_缺少_验证_令牌

SQLSTATE:未分配

缺少服务主体的验证令牌。 请在“X-Databricks-Azure-SP-Management-Token”请求标头中提供有效的 ARM 范围内的 Entra ID 令牌,然后重试。 有关详细信息,请查看 https://docs.databricks.com/api/workspace/storagecredentials

存储凭证信任策略设置为开放

SQLSTATE:未分配

用于允许 Databricks 帐户承担角色的 IAM 角色的信任策略应需要外部 ID。请联系帐户管理员以添加外部 ID 条件。 此行为是为了防范混淆代理问题 (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)。

存储凭证不支持无权限的服务主体

SQLSTATE:未分配

服务主体不能使用 CREATE_STORAGE_CREDENTIAL 特权来注册托管标识。 若要注册托管标识,请为服务主体分配帐户管理员角色。

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE:未分配

位置 <location> 不在 DBFS 根内,因此,我们无法创建存储凭证 <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE:未分配

帐户级 API 不支持以非帐户管理员身份创建或更新存储凭证。 请改用工作区级 API。

UC系统工作区组权限不支持

SQLSTATE:未分配

无法向系统生成的组 <securableType> 授予对 <principal> 的权限。

标签分配不存在

SQLSTATE:未分配

具有标记键 <tagKey> 的标记分配不存在

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE:未分配

提供的基路径无效,基路径应类似于 /api/resources/v1。 不支持的路径:<path>

UC_不支持的_HTTP连接主机

SQLSTATE:未分配

提供的主机名无效,主机名应类似于 https://www.databricks.com,且不应包含路径后缀。 不支持的主机:<host>

路径中不支持的拉丁字符

SQLSTATE:未分配

外部位置/卷/表路径仅支持基本 Latin/Latin-1 ASCII 字符。 不支持的路径:<path>

更新禁止用于安全配置

SQLSTATE:未分配

无法更新 <securableType><securableName>”,因为它正在预配。

UC_写入冲突

SQLSTATE:未分配

<type> <name> 已由另一个请求修改。 请重试该操作。

UNITY_CATALOG_外部协调提交请求被拒绝

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>”执行 commit/getCommits 的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

统一目录外部创建临时表请求被拒绝

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建临时表“<tableFullName>”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY目录外部创建表请求被非外部表拒绝

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部创建非外部表“<tableFullName>”的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为路径“<path>”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED (外部生成表凭证被拒绝)

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为表“<tableId>”生成访问凭证的请求。 请联系 Databricks 支持部门以与 Unity Catalog 集成。

UNITY_CATALOG_EXTERNAL_获取外部凭证_拒绝

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部为安全对象获取外部凭证的请求。

UNITY目录外部元数据快照更新被拒绝

SQLSTATE:未分配

出于安全性,拒绝从启用了 Databricks Unity Catalog 的计算环境外部更新元数据快照的请求。

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE(不支持遗留托管在线表的写入凭证)

SQLSTATE:未分配

获取联机目录中托管联机表的写入凭证的请求无效。

文件 API

API 文件接口未启用

SQLSTATE:未分配

<api_name> 未启用 API

云路径未启用FILES_API_API

SQLSTATE:未分配

云路径不支持文件 API 请求的方法

文件_API_AWS_访问被拒绝

SQLSTATE:未分配

AWS 拒绝对存储桶的访问。

文件接口亚马逊网络服务所有访问已禁用

SQLSTATE:未分配

对存储桶的所有访问已在 AWS 中禁用。

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE:未分配

AWS 中不存在存储桶。

文件_API_AWS_禁止访问

SQLSTATE:未分配

AWS 禁止对存储桶的访问。

文件_API_AWS_无效的授权头

SQLSTATE:未分配

工作区配置错误:它必须与 AWS 工作区根存储桶位于同一区域。

FILES_API_AWS_INVALID_BUCKET_NAME (提示:存储桶名称无效)

SQLSTATE:未分配

存储桶名称无效。

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE:未分配

配置的用于访问存储桶的 KMS 密钥在 AWS 中被禁用。

文件_API_AWS_未经授权

SQLSTATE:未分配

对 AWS 资源的访问未获授权。

文件_API_AZURE账户已禁用

SQLSTATE:未分配

在 Azure 中禁用存储帐户。

文件_API_AZURE_容器_不存在

SQLSTATE:未分配

Azure 容器不存在。

文件_API_AZURE_禁止

SQLSTATE:未分配

Azure 禁止对存储容器的访问。

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE:未分配

Azure 响应称,资源当前存在租赁情况。 请稍后重试。

文件_API_AZURE_账户权限不足

SQLSTATE:未分配

要访问的帐户没有足够的权限来执行此操作。

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE:未分配

无法访问 Azure 中的存储帐户:存储帐户名称无效。

基于密钥的Azure身份验证不被允许

SQLSTATE:未分配

未在 Azure 中找到密钥保管库。 检查客户管理的密钥设置。

FILES_API_AZURE_密钥库_密钥未找到

SQLSTATE:未分配

未在 Azure 中找到 Azure Key Vault 密钥。 检查客户管理的密钥设置。

文件_API_AZURE_密钥保管库_保管库未找到

SQLSTATE:未分配

未在 Azure 中找到密钥保管库。 检查客户管理的密钥设置。

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND(文件接口Azure MI访问连接器未找到)

SQLSTATE:未分配

找不到具有访问连接器的 Azure 托管标识凭证。 这可能是因为 IP 访问控制拒绝了你的请求。

文件_API_AZURE_操作_超时

SQLSTATE:未分配

操作无法在允许的时间内完成。

文件_API_AZURE_路径无效

SQLSTATE:未分配

请求的路径对 Azure 无效。

文件_API_AZURE_路径不可变

SQLSTATE:未分配

请求的路径是不可变的。

FILES_API_AZURE不支持的标头

SQLSTATE:未分配

在操作中指定的某个标头不受支持。

文件_API_目录_未找到

SQLSTATE:未分配

<unity_catalog_error_message>

文件_API_云资源耗尽

SQLSTATE:未分配

<message>

文件_API_云存储提供商连接问题

SQLSTATE:未分配

存在连接问题,无法连接到<cloud_storage_provider>。 请稍后再试。

文件API路径中不支持使用冒号

SQLSTATE:未分配

路径不支持字符“:”

文件_API_消费者_网络_区域_不允许

SQLSTATE:未分配

使用者网络区域“<consumer_network_zone>”不允许来自请求方网络区域“<requester_network_zone>”。

文件_API_控制平面网络区域_不允许

SQLSTATE:未分配

不允许 Databricks 控制平面网络区域。

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE:未分配

提供了正文,但目录中不能有文件正文

文件_API_目录_不为空

SQLSTATE:未分配

目录不为空。 非空目录不支持此操作。

文件接口目录未找到 (FILES_API_DIRECTORY_IS_NOT_FOUND)

SQLSTATE:未分配

找不到要访问的目录。

文件_API_DMK_加密根密钥已禁用

SQLSTATE:未分配

禁用客户管理的加密的根密钥。

文件_API_重复_标题

SQLSTATE:未分配

请求包含只允许一次的标头的多个副本。

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE:未分配

查询参数“<parameter_name>”必须只出现一次,但却被多次提供。

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE:未分配

DBFS 存储桶名称为空。

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE:未分配

用户无权访问加密密钥。

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE:未分配

检索加密密钥的作无法在允许的时间内完成。

文件_API_实体过大

SQLSTATE:未分配

对象超过允许的最大对象大小。

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE:未分配

到期时间必须存在

FILES_API_EXPIRED_TOKEN

SQLSTATE:未分配

提供的令牌已过期。

文件_API_过期时间必须是未来的

SQLSTATE:未分配

到期时间必须是将来的时间

文件_API_过期时间过于未来

SQLSTATE:未分配

请求的 TTL 比支持时间长(1 小时)

FILE_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC存储实体

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE:未分配

正在创建的文件已存在。

文件_API_文件_未找到

SQLSTATE:未分配

找不到要访问的文件。

文件_API_文件或目录以点结尾

SQLSTATE:未分配

不支持以“.”字符结尾的文件或目录。

文件接口文件大小超出限制

SQLSTATE:未分配

文件大小不应超过 <max_download_size_in_bytes> 字节,但发现了 <size_in_bytes> 字节。

文件_API_GCP_帐户已被禁用

SQLSTATE:未分配

对存储桶的访问已在 GCP 中禁用。

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE:未分配

GCP 中不存在存储桶。

文件_API_GCP_禁止访问

SQLSTATE:未分配

GCP 禁止对存储桶的访问。

文件_API_GCP_KEY_已禁用或已销毁

SQLSTATE:未分配

为该位置配置的客户管理的加密密钥被禁用或销毁。

FILES_API_GCP请求被政策禁止

SQLSTATE:未分配

策略禁止向存储桶发出的 GCP 请求,检查 VPC 服务控制措施。

文件_API主机暂时不可用

SQLSTATE:未分配

云提供商主机暂时不可用;请稍后重试。

文件_API_无效_继续_标记

SQLSTATE:未分配

提供的页面令牌无效。

文件_API_无效_主机名

SQLSTATE:未分配

主机名无效。

文件接口无效HTTP方法

SQLSTATE:未分配

http 方法无效。 应是“<expected>”,但收到的是“<actual>”。

文件_API_无效页面令牌

SQLSTATE:未分配

页面令牌无效

FILES_API_INVALID_PATH

SQLSTATE:未分配

路径无效: <validation_error>

FILES_API_范围无效

SQLSTATE:未分配

范围标头无效。

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE:未分配

<unity_catalog_error_message>

文件_API_无效的_会话_令牌

SQLSTATE:未分配

会话令牌无效

文件_API_无效_会话_令牌_类型

SQLSTATE:未分配

会话令牌类型无效。 应是“<expected>”,但收到的是“<actual>”。

文件_API_时间戳无效

SQLSTATE:未分配

时间戳无效。

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE:未分配

上传类型无效。 应是“<expected>”,但收到的是“<actual>”。

FILES_API_INVALID_URL_PARAMETER

SQLSTATE:未分配

作为参数传递的 URL 无效

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER (文件API覆盖查询参数的无效值)

SQLSTATE:未分配

查询参数“overwrite”必须是其中之一:true 或 false,但为:<got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE:未分配

查询参数“<parameter_name>”必须是以下项之一:<expected>,但为:<actual>

文件_API_请求体格式错误

SQLSTATE:未分配

格式不正确的请求正文

文件_API_管理目录功能已禁用

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

文件 API 方法未启用于任务背景计算的工件存储

SQLSTATE:未分配

作业后台计算项目存储不支持文件 API 的请求方法。

文件接口缺少内容长度

SQLSTATE:未分配

请求中需要 content-length 标头。

FILES_API_缺少查询参数

SQLSTATE:未分配

查询参数“<parameter_name>”是必需的,但请求中缺少该参数。

文件 API 请求中缺少必需参数

SQLSTATE:未分配

请求缺少必要的参数。

文件API模型版本尚未准备好

SQLSTATE:未分配

模型版本尚未就绪

文件_API_多部分上传中止_预签名_URL_不支持

SQLSTATE:未分配

对存储在 <cloud_storage_provider>上的文件,预签名的 URL 不支持中止多部分上传。

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE:未分配

部件列表必须至少有一个元素,但为空。

多部分上传无效的分块号

SQLSTATE:未分配

部件号必须大于或等于 <min> 且小于或等于 <max>

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE:未分配

必须为存储在<cloud_storage_provider>上的文件提供ETag。 没有提供至少一个 ETag,或者提供的 ETag 为空。

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE:未分配

自上传启动以来,存储实体的内部状态已被修改,例如文件路径不指向同一基础云存储位置。 通过启动新的上传会话继续。

多部分上传中的非结尾部分具有不同大小的文件API

SQLSTATE:未分配

作为多部分上传会话的一部分上传的部件对于存储 <cloud_storage_provider>的文件的大小必须相同,但最后一部分可能更小。

FILES_API_多部分上传_部分尺寸超出范围

SQLSTATE:未分配

作为多部分上传会话的一部分上传的部分的大小必须大于或等于 <min> 且小于或等于 <max>

文件_API_分段上传会话未找到

SQLSTATE:未分配

找不到上传会话。 它可能已中止或已完成。

FILES_API_Multipart_Upload_Unordered_Parts_List (文件_API_多部分上传_无序部分列表)

SQLSTATE:未分配

部件列表必须由部件编号排序,但未排序。

文件API未为地点启用

SQLSTATE:未分配

未为此工作区/帐户启用 <place> 的文件 API

内部工作区存储不支持FILES_API

SQLSTATE:未分配

内部工作区存储不支持文件 API 的请求方法

文件操作API必须存在

SQLSTATE:未分配

操作必须存在

文件_API_页面大小必须大于或等于零

SQLSTATE:未分配

page_size必须大于或等于 0

文件的API路径以斜杠结尾

SQLSTATE:未分配

以“/”字符结尾的路径表示目录。 此 API 不支持对目录执行的操作。

文件_API路径是一个目录

SQLSTATE:未分配

给定路径指向现有目录。 此 API 不支持对目录执行的操作。

文件_API_路径_是_文件

SQLSTATE:未分配

给定路径指向现有文件。 此 API 不支持对文件执行的操作。

文件_API_路径不是有效的UTF8编码网址

SQLSTATE:未分配

给定路径不是有效的 UTF-8 编码 URL

文件API路径未启用用于数据平面代理

SQLSTATE:未分配

未为数据平面代理启用给定路径

文件_API_路径_必须_存在

SQLSTATE:未分配

路径必须存在

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE:未分配

<rejection_message>

文件_API_路径_过长

SQLSTATE:未分配

提供的文件路径太长。

FILES_API_前提条件失败

SQLSTATE:未分配

请求由于前置条件而失败。

文件_API_不支持模型的预签名网址

SQLSTATE:未分配

目前不支持用于模型的预签名 URL 的文件 API

FILES_API_R2_CREDENTIALS_DISABLED(文件API R2 凭证已禁用)

SQLSTATE:未分配

目前不支持 R2。

文件接口范围无法满足 (FILES_API_RANGE_NOT_SATISFIABLE)

SQLSTATE:未分配

无法满足请求的范围。

文件API不支持递归列表操作

SQLSTATE:未分配

不支持以递归方式列出文件。

FILES_API请求者网络区域未知

SQLSTATE:未分配

无法推断请求者网络区域。

文件API请求被错误路由

SQLSTATE:未分配

请求路由不正确

文件_API请求必须包含账户信息

SQLSTATE:未分配

请求必须包含帐户信息

文件_API_请求_必须_包括_用户_信息

SQLSTATE:未分配

请求必须包含用户信息

文件API请求必须包含工作区信息

SQLSTATE:未分配

请求必须包含工作区信息

FILES_API_RESOURCE_IS_READONLY(文件接口资源为只读)

SQLSTATE:未分配

资源是只读的。

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE:未分配

<unity_catalog_error_message>

文件_API_安全_URL_无法访问

SQLSTATE:未分配

无法访问 URL。

文件_API_签名_验证_失败

SQLSTATE:未分配

签名验证失败。

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE:未分配

无法访问此工作区的存储配置。

文件_API_存储_凭证_未找到

SQLSTATE:未分配

<unity_catalog_error_message>

文件_API_表类型_不支持

SQLSTATE:未分配

文件 API 不支持<table_type>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE:未分配

<unity_catalog_error_message>

文件_API_UC_模型_无效_状态

SQLSTATE:未分配

<unity_catalog_error_message>

文件_API_用户权限被拒绝

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE:未分配

<message>

文件_API_UC_路径中不支持的拉丁字符

SQLSTATE:未分配

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE:未分配

<unity_catalog_error_message>

文件API解析URI时发生意外错误

SQLSTATE:未分配

分析 URI 时出现意外错误

FILES_API_意外的查询参数

SQLSTATE:未分配

意外的查询参数: <unexpected_query_parameters>

文件_API_未知方法

SQLSTATE:未分配

未知方法 <method>

文件_API_未知服务器错误

SQLSTATE:未分配

未知的服务器错误。

文件_API_未知_URL_主机

SQLSTATE:未分配

URL 主机未知。

文件_API_不支持的认证方法

SQLSTATE:未分配

请求未正确进行身份验证。

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE:未分配

不支持 httpMethod。

文件_API_不支持的参数组合

SQLSTATE:未分配

不支持参数组合。

FILES_API_UNSUPPORTED_PATH(文件API不支持的路径)

SQLSTATE:未分配

文件 API 不支持提供的路径。 确保提供的路径不包含“../”或“./”序列的实例。 确保提供的路径不使用多个连续斜线(例如“///”)。

文件_API_上传_部分_URLS_数量_必须_大于_零

SQLSTATE:未分配

输入参数“count”必须大于 0。

FILES_API_URL_GENERATION_DISABLED

SQLSTATE:未分配

未为 <cloud> 启用预签名的 URL 生成。

不支持的文件 API 卷类型

SQLSTATE:未分配

<volume_type> 不支持文件 API。

文件_API_工作区_已取消

SQLSTATE:未分配

工作区已取消。

文件_API_工作区_未找到

SQLSTATE:未分配

无法访问此工作区的存储配置。

分布式账本技术 (DLT)

SQLSTATE:0A000

不允许对由 a 管理的表使用

有关详细信息 ,请参阅ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

修改的计划不存在

SQLSTATE:42704

在没有现有计划或触发器的情况下无法更改表上的 <type>。 在尝试更改计划或触发器之前,请向表添加计划或触发器。

SQLSTATE:KD000

已超出数据源 <sourceName>的 API 配额。

有关更多详细信息,请参阅 API_QUOTA_EXCEEDED

SQLSTATE:42000

APPLY CHANGES操作期间发生错误。

有关详细信息,请参阅APPLY_CHANGES_ERROR

SQLSTATE:22000

APPLY CHANGES FROM SNAPSHOT操作期间发生错误。

有关详细信息 ,请参阅APPLY_CHANGES_FROM_SNAPSHOT_ERROR

不支持从快照应用变更的预期

SQLSTATE:0A000

数据集 <datasetName> 定义了预期,但目前不支持使用 APPLY CHANGES FROM SNAPSHOT数据集的预期。

消除对解决此错误的期望。 作为替代方法,请考虑使用以下结构通过组合 APPLY CHANGESAPPLY CHANGES FROM SNAPSHOT应用预期:

  1. 使用 SCD 类型 1 将快照的更改应用到中间表中,无需任何期望。

  2. 使用spark.readStream.option("readChangeFeed", "true").table从中间表中读取更改。

  3. 将中间表的更改应用到最终目标表 dlt.apply_changes,使用以下参数以及当前已与 dlt.apply_changes_from_snapshot 使用的参数:

  • 处理更改: apply_as_deletes = "_change_type == 'delete'"

  • 删除 CDF 添加的列: except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. 包括用于 dlt.apply_changes的最终目标表的当前预期集。

应用更改部分更新未启用

SQLSTATE:0A000

功能 COLUMNSUPDATE 处于预览状态,并未在您的工作区中启用。 请联系 Databricks 代表,详细了解此功能并访问个人预览版。

SQLSTATE:55000

有关更多详细信息,请参阅 ARCHITECTURE_MIGRATION_FAILURE

无法将列添加到包含的列中

SQLSTATE:42000

新列 (<columnNames>) 已添加到表 <qualifiedTableName> 的管道定义中的 include_columns 字段。 请完全刷新表以避免潜在的数据丢失或从include_columns中删除这些列。

无法构建装饰器

SQLSTATE:未分配

@<decoratorName>修饰器无法与<otherDecorators>组合。

无法排除不存在的列

SQLSTATE:42703

管道定义排除源 <columnNames><qualifiedTableName> 中不存在的列(<sourceType>)。 请从exclude_columns字段中删除这些列。

无法筛选出必需列

SQLSTATE:42000

管道定义不包括源 <columnNames> 的引入表 <qualifiedTableName> 所需的列 (<sourceType>)。 请将其添加到include_columns,或将其从exclude_columns中删除。

无法包含不存在的列

SQLSTATE:42703

管道定义包括源 <columnNames><qualifiedTableName> 中不存在的列(<sourceType>)。 请从include_columns字段中删除这些列。

无法导入没有主键的表

SQLSTATE:42000

源中的<qualifiedTableName><sourceType>没有主键。

请在连接器配置中指定主键以引入表(如果存在)。

无法从排除列中移除列

SQLSTATE:42000

在表 <columnNames>的管道定义中,列(<qualifiedTableName>)被从 exclude_columns 字段中删除。 请对表格进行完全刷新以避免潜在的数据丢失,或者将这些列重新添加到 exclude_columns 中。

无法为HMS_PIPELINE设置目录

SQLSTATE:42613

如果要使用 UC 创建新管道并设置目录,则无法将目录添加到具有已定义存储位置的现有管道。

现有存储位置:“<storageLocation>

请求的目录:“<catalog>

SQLSTATE:0AKD0

管道“<pipelineName>”的设置中指定的'schema'字段是不合法的。 原因:

有关详细信息 ,请参阅CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

不能同时指定包含列和排除列

SQLSTATE:42000

管道定义为 <identifier> 指定了 include_columns 和 exclude_columns。 请删除其中一个。

无法更新聚类列

SQLSTATE:42000

无法更新表 <tableName> 的聚簇列,因为它使用的是分区列。 表可以使用分区列或聚簇列,但不能同时使用两者。

若要在液体聚类分析与分区之间切换,请触发此表的完全刷新。

无法更新分区列

SQLSTATE:42000

无法更新流式处理表 <tableName> 的分区列。

当前为:<existingPartitionColumns>

请求了:<requestedPartitionColumns>

若要应用此分区更改,请触发此表和已更新分区列的任何其他流式处理表的完全刷新。

或者还原此更改以继续使用现有分区列。

无法更新表结构

SQLSTATE:42KD9

无法合并表 <tableName>的当前架构和新架构。

若要继续执行此架构更改,可以触发此表的完全刷新。

根据用例和架构更改,你也许能够删除架构更改 -- 可以更新查询,以便输出架构与现有架构兼容(例如,通过显式将列强制转换为正确的数据类型)。

不能写入非活动列

SQLSTATE:55000

目标中的下表具有与当前源表冲突的非活动列:

<details>

这些列在目标表中保持非活动状态,因为它们以前已从源表中删除。

若要继续更新,请对表执行 FULL REFRESH,或者通过 ALTER TABLE DROP COLUMN 命令从目标表中删除这些非活动列,然后重试更新。

无法写入非活动表

SQLSTATE:55000

目标中的下表处于非活动状态,并且与当前源表冲突:<tables>

这些表保持非活动状态,因为它们以前已从源中删除或未从连接器中选择。

若要继续更新,请对表执行 FULL REFRESH,或者从目录资源管理器中的目标中删除这些非活动表,或通过 DROP TABLE 命令删除这些非活动表,然后重试更新。

无法写入待重置的表格

SQLSTATE:55000

在上一次完整刷新中,目标中的下列表格未正确重置:<tables>

请对其触发完全刷新以恢复。

目录映射在UC中不可用

SQLSTATE:3D000

UC 目录没有针对目录 <sourceCatalog> 的映射。

请检查目录是否已在 UC 目录中注册。

目录模式与目标管道不匹配

SQLSTATE:55000

ID 为 <destPipelineCatalog> 的目标管道的目录 <destPipelineSchema> 和架构 <destPipelineId> 与表 <tableName> 的目录和架构不匹配。 目标管道应具有与表相同的目录和架构,或者目标管道必须使用直接发布模式。

目录规范不支持

SQLSTATE:0A000

数据库连接器当前不支持 CatalogSpecs。 请删除目录规范。

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE:0A000

CDC 托管引入管道不支持表 <columnNames> 中具有 UOID <tableName> 的列。

请检查引入管道是否支持列 UOID,或请求完全刷新。

从网关来的CDC应用程序致命故障

SQLSTATE:42000

网关管道遇到严重错误:

<errorMessage>

请在这里查看管道更新失败:<link>

CDC_应用程序要求对所有目标表进行完全刷新

SQLSTATE:42000

不支持完全刷新一个目标表,不支持从同一源对另一个目标表进行正常更新。

请完全刷新这两个表,以便尽可能继续。

完全刷新表:<fullRefreshTables>

<sourceTable> 的目标表:<destinationTables>

CDC应用程序在流式传输期间架构发生更改

SQLSTATE:42KD4

架构版本 <dataSchemaVersion> 与读取的架构版本 <readSchemaVersion>不同。

DLT 将重试更新。

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE:42KD4

我们从架构版本 <cause><previousSchemaVersion>遇到不兼容的架构更改(<currentSchemaVersion>)。

因此,我们不能继续对 <tableName>应用更改。 请请求完全刷新表。

以前的架构:<previousSchema>

当前架构:<currentSchema>

CDC_潜在数据差距

SQLSTATE:55000

下表 [<needFullRefreshTableList>] 在 <retention> 天内没有成功的更新。

请对这些表或整个数据管道进行全面刷新。

从多个来源获取相同表的CDC

SQLSTATE:42000

从多个源找到同一个表名 <table><sources>

请将它们拆分为不同的管道,以避免冲突。

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE:42P01

在源数据库的所有表快照中找不到表 <table>

表规范详细信息:

<tableSpec>

更改HMS管道为UC不允许

SQLSTATE:0AKD0

不允许将 HMS 管道更改为 UC 管道。

不允许更改统一通信管道为华为移动服务

SQLSTATE:0AKD0

不允许将 UC 管道更改为 HMS 管道。

更改表的流水线ID不受支持

SQLSTATE:0AKLT

不支持更改<commandTableType>的管道。

不可更改目录

SQLSTATE:0AKD0

无法修改现有管道的目录。 现有目录:“<existingCatalog>”。 请求的目录:“<requestedCatalog>”。

不允许更改目标架构

SQLSTATE:0AKD0

不允许更改目标架构。 原因:<reason>

集群创建预算政策限制已超出

SQLSTATE:57000

由于管道的预算策略超出了限制,无法创建群集。 请使用其他策略或联系计费管理员。

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE:KDL01

未能创建管道群集: <errorMessage>

此错误可能是由于管道中的配置错误。

检查管道群集配置和关联的群集策略。

集群创建额度已耗尽

SQLSTATE:57000

无法创建群集,因为已耗尽可用额度。 请添加付款方式以升级帐户。

群集创建资源耗尽

SQLSTATE:57000

无法创建群集,因为已超出资源限制: <errorMessage>

集群启动客户端错误

SQLSTATE:KDL01

未能启动管道群集 <clusterId><clusterStateMessage>

此错误可能是由于管道中的配置错误。

检查管道群集配置和关联的群集策略。

集群启动云端失败

SQLSTATE:58000

未能启动管道群集 <clusterId><clusterStateMessage>

此错误可能是暂时性的 - 重启管道,如果仍然看到相同的问题,请报告。

SQLSTATE:KDL01

有关更多详细信息,请参阅 CLUSTER_SETUP_CLIENT_ERROR

集群无法访问

SQLSTATE:08000

与驱动程序通信丢失。 群集 <clusterId><timeoutSeconds> 秒无法访问。

未找到要更新的列

SQLSTATE:42703

在源数据帧中找不到 <column> TO COLUMNS 中指定的列 UPDATE

无法停止以前的更新导致并行升级失败

SQLSTATE:2D521

启动了升级的更新“<upgradedUpdateId>”,但未能停止之前的更新“<oldUpdateId>”。

此错误可能是暂时性的。 管道将自动重试,问题应自行解决。

如果仍然看到相同的问题,请将此错误报告给 Databricks。

数据集装饰器应用两次

SQLSTATE:未分配

数据集 <datasetName> 已存在。 确保查询函数仅标记为视图或表一次。

数据集_未定义

SQLSTATE:42P01

未能读取数据集“”。<datasetName> 管道中未定义此数据集。

如果此表由其他管道管理,则不要使用 dlt.read / dlt.readStream 读取该表,也不要将名称加上 LIVE 关键字。

找不到目标管道

SQLSTATE:42K03

找不到 ID 为“”<pipelineId>的目标管道。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。

目标管道不处于直接发布模式

SQLSTATE:0AKLT

ID 为“”<pipelineId>的目标管道未使用直接发布模式。

目的地管道权限被拒绝

SQLSTATE:42501

不允许执行此操作,因为您不是ID为“<pipelineId>”的目标管道的所有者。 只有所有者才能更改表的管道。

目标管道类型不是工作空间管道类型

SQLSTATE:0AKLT

ID 为“”<pipelineId>的目标管道不是 ETL 管道。

删除计划_计划不存在

SQLSTATE:42000

在没有现有计划或触发器的情况下无法删除表上的 SCHEDULE

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE:42616

重复的“from_json”模式位置键:<schemaLocationKey>

请在管道中为每个from_json查询选择唯一的架构位置键

重复的摄取配置表规格

SQLSTATE:42710

引入管道配置包含重复表。 请确保每个表都是唯一的。

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE:42000

引入配置对象为空。

事件日志选择器功能不支持

SQLSTATE:0A000

此管道不支持将事件日志发布到 Unity 目录。 如果这是意外的,请联系 Databricks 支持部门。

SQLSTATE:22000

流“<flowName>”未能满足预期。

有关详细信息 ,请参阅EXPECTATION_VIOLATION

无法创建事件日志

SQLSTATE:58030

未能使用标识符 <pipelineId>创建管道(id=<eventLogIdentifier>)事件日志。 有关更多详细信息,请参阅下面的异常。

无法更新事件日志

SQLSTATE:58030

未能将管道 (id=<pipelineId>) 事件日志标识符更新为 <newEventLogIdentifier>。 有关更多详细信息,请参阅下面的异常。

流程架构已更改

SQLSTATE:KD007

<flowName> 已终止,因为它在执行期间遇到架构更改。

架构更改与现有目标架构兼容,下一次流程运行可以使用新架构恢复。

FORACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL仅在预览频道中支持

SQLSTATE:0A000

目前不支持 DLT ForeachBatch 接收器。

DLT ForeachBatch 接收器的专用预览版需要 PREVIEW 通道。

DLT 接收器:<sinkNames>

网关管道初始化脚本不允许

SQLSTATE:0A000

网关管道不允许群集初始化脚本。 请将其从 <from>中删除。

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE:0A000

网关管道不允许 spark 配置 [<configs>]。 请将其从 <from>中删除。

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE (非法列更新数据类型)

SQLSTATE:42000

COLUMNS TO UPDATE 中指定的列的数据类型必须是字符串数组,但找到了 <illegalDataType>

管道规范中的非法模式字段

SQLSTATE:42000

管道设置中的指定“schema”字段是非法的。 原因:<reason>

根路径类型不正确

SQLSTATE:42000

根路径“<rootPath>”必须是目录,但发现 <objectType>

摄取配置重复的架构

SQLSTATE:42710

引入管道配置包含重复的架构。 请确保每个架构都是唯一的。

SQLSTATE:42501

身份验证失败

有关更多详细信息,请参阅 INGESTION_GATEWAY_AUTHENTICATION_FAILURE

摄入网关关键结构变更失败

SQLSTATE:42KD4

源表和目标表之间检测到架构不匹配。 若要解决此问题,需要对表“”<entityName>进行完全刷新。

数据摄取网关CDC未启用

SQLSTATE:42000

CDC 未在<entityType>上启用<entityName>。 错误消息:“<errorMessage>”。

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE:42000

<entityType> 上的<entityName>缺少 DDL 对象。 错误消息:“<errorMessage>”。

数据入口网关缺少连接引用

SQLSTATE:42000

引入网关配置缺少连接。

请添加对包含凭据的 Unity Catalog 连接的引用。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG (保持不变,因为它似乎是一个不需要翻译的技术术语或标识符)

SQLSTATE:42000

引入网关配置缺少内部存储位置目录。

请添加内部存储位置目录。

引入网关管道定义详细信息:

<definition>

数据入口网关_缺少_内部存储名称

SQLSTATE:42000

引入网关配置缺少内部存储位置名称。

请添加内部存储位置名称。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_缺失的内部存储模式

SQLSTATE:42000

引入网关配置缺少内部存储位置架构。

请添加内部存储位置架构。

引入网关管道定义详细信息:

<definition>

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE:42501

用户没有访问此对象或执行存储过程所需的权限。 请确保授予所有必要的特权。 请参阅以下文档: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements

SQLSTATE:08000

由于源数据库的主机名 <host> 和/或端口 <port> 不正确,连接失败。

有关更多详细信息,请参阅 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

无效的应用更改命令

SQLSTATE:42000

APPLY CHANGES 命令无效。 <reason>

无效的参数类型

SQLSTATE:未分配

传递给参数<paramName> 的值类型无效。 应为 <expectedType><additionalMsg>

SQLSTATE:42616

为表 <table> 指定的表选项无效,因为

有关详细信息 ,请参阅INVALID_COMPATIBILITY_OPTIONS

装饰器使用无效

SQLSTATE:未分配

传递给 @<decoratorName> 的第一个位置参数必须可调用。 在函数中添加没有参数的 @<decoratorName>,或者使用关键字参数(例如)<decoratorName>将选项传递给 @<exampleUsage>

无效的事件日志配置

SQLSTATE:F0000

在管道规格中找到的事件日志配置无效: <message>

名称无效或已在使用命令

SQLSTATE:42000

<name>命令中的名称“<command>”无效。 原因:<reason>

SQLSTATE:42000

为此更新指定的刷新选择参数无效,因为

有关更多详细信息,请参阅 INVALID_REFRESH_SELECTION

无效的根路径

SQLSTATE:42000

无效的根路径 '<rootPath>':目前仅支持绝对目录路径。 目录路径必须以“/”开头,而不是以“/”结尾。

无效的模式名称

SQLSTATE:3F000

管道设置中指定的架构“”<schemaName>无效。 原因:<reason>

无效的快照和版本类型

SQLSTATE:未分配

snapshot_and_version带有目标“<target>”的流返回不受支持的类型。 <additionalMsg>

触发间隔格式无效

SQLSTATE:42000

<configurationType> 中指定的触发器间隔配置无效

实时引用超出查询定义经典

SQLSTATE:42000

不支持在数据集查询定义之外使用 LIVE 虚拟架构(即 @dlt.table 注释)引用数据集。

查询定义之外的实时引用_DPM

SQLSTATE:42000

不支持在数据集查询定义之外使用 LIVE 虚拟架构 <identifier> 引用数据集(即 @dlt.table 注释)。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE:0A000

在 spark.sql(...)中使用 LIVE 虚拟架构来引用数据集的 API,不得在数据集查询定义(即 @dlt.table 批注)外部调用。 只能在数据集查询定义中调用它。

最大重试次数已达到,等待酶重新计算

SQLSTATE:42000

重试次数已达上限。 重试计数:<flowRetryCount>。 maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts><message>

元数据存储操作超时 (METASTORE_OPERATION_TIMED_OUT)

SQLSTATE:58000

更新 <tableName> 元存储信息所涉及的操作所需的时间比 <timeout>长。

此问题可能是暂时性的,也可能指示配置的元存储客户端中的 bug。 如果问题仍然存在,请尝试重启管道并报告此问题。

缺少创建模式的权限

SQLSTATE:42501

用户“<userName>”无权在目录中创建架构 <catalogName>

缺少创建表权限

SQLSTATE:42501

用户“<userName>”无权在架构中创建表 <schemaName>

缺少“作为用户运行”配置

SQLSTATE:28000

未为更新指定运行方式用户。

互斥选项

SQLSTATE:42000

互斥选项 <options>。 请删除其中一个选项。

负值

SQLSTATE:未分配

<arg_name> 必须大于或等于 0,得到“<arg_value>”。

非UC表已由其他管道管理

SQLSTATE:42P07

表 '<tableName>' 已由管道 <otherPipelineId>管理。

如果希望表<tableName>由此管道管理,

  1. 从管道“”<otherPipelineId>中删除表。

  2. 启动此管道的完整刷新更新。

如果要继续从多个管道管理表,请在管道设置中将配置 pipelines.tableManagedByMultiplePipelinesCheck.enabled 更改为 false,以禁用此检查。

不建议这样做,因为对表的并发操作可能会相互冲突,从而导致意外结果。

笔记本未找到

SQLSTATE:42000

无法加载笔记本“<notebookPath>”。

未提供来源、快照和版本参数

SQLSTATE:未分配

source或者snapshot_version必须为目标为“”<target>的apply_changes_from_snapshot设置。

管道中无表格

SQLSTATE:42617

管道预计应至少定义一个表,但在您的管道中未找到任何表。

请检查是否已包含预期的源文件,以及您的源代码是否包含表定义(例如,SQL代码中的CREATE MATERIALIZED VIEW,Python代码中的@dlt.table)。

请注意,只有表计入此检查。 如果仅在管道中包含视图或流,则也可能遇到此错误。

表格所需刷新管道

SQLSTATE:55000

该表 <tableName> 未处于所需状态,该表最近尚未更新。 必须再次运行 ID 为“”<pipelineId>的管道,然后重试该作。

未找到表的管道

SQLSTATE:42K03

找不到 ID 为“”<pipelineId>的管道,用于管理表 <tableName>。 请确保您所在的工作区与管道所在的工作区一致,您是该管道的所有者,并且该管道至少运行过一次。

管道全局包含冲突

SQLSTATE:F0000

应在管道设置中的库下设置 glob 或笔记本/文件字段。 请更改管道设置。

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE:0A000

使用 glob 字段包含源文件是一项预览功能,目前处于禁用状态。

重新选择要包含的每个源文件,以便管道修复此错误。

联系 Databricks 支持人员,详细了解此功能并注册预览版。

管道_通配符_不支持_特殊字符

SQLSTATE:42000

特殊字符 <specialChar> 是保留的,不应在管道设置中的包含路径“”<path>中使用。 删除这些字符以修复错误

不可重试的分析流水线

SQLSTATE:42000

由于在部分执行后出现不可重试的错误,管道无法分析源表(<tables>)。

不会创建新的管道更新。 请检查事件日志并相应地修复问题。

管道未处于直接发布模式

SQLSTATE:0AKLT

ID 为“”<pipelineId>的管道(管理表 <tableName>)不使用直接发布模式。

SQLSTATE:55000

表格尚未准备好刷新

有关更多详细信息,请参阅 PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

管道权限拒绝:非所有者

SQLSTATE:42501

您不允许执行此操作。 你不是 ID 为“<pipelineId>”的管道的所有者,因此无法管理表 <tableName>

流水线源文件数量超出限制

SQLSTATE:54000

源文件数超过限制 <limit>。 删除其他源文件或联系 Databricks 支持部门以请求增加限制。

管道源文件夹深度超限

SQLSTATE:54000

文件夹“”<folder_path>超出了允许的最大目录嵌套级别 <limit>。 减少文件夹嵌套级别或联系 Databricks 支持部门以请求增加限制。

PIPELINE_TYPE_NOT_WORKSPACE管道类型代理类型

SQLSTATE:0AKLT

ID为<pipelineId>的管道,管理表<tableName>,不是一个ETL管道。

超过管道类型配额

SQLSTATE:54000

无法启动更新<updateId>,因为已达到<pipelineType>类型的活动管道数量限制。

表格的管道更新正在运行

SQLSTATE:55000

ID 为“”<pipelineId>的管道正在运行,用于管理表 <tableName>。 请在运行操作之前停止管道。

PIP_INSTALL_ERROR(PIP安装错误)

SQLSTATE:42000

调用 %pip 安装时出错。

在笔记本顶部位置不安装PIP

SQLSTATE:42000

找到包含 %pip 安装的单元格,这些单元格不在“”<notebookPath>笔记本顶部

将所有 %pip install 单元格移动到该笔记本的开头。

PY4J_BLOCKED_API

SQLSTATE:未分配

你使用的是当前环境中不支持的 Python API。

请查看 Databricks 文档了解替代项。

<additionalInfo>

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE:0A000

不支持引用数据集查询定义外部的 DLT 数据集 <identifier>(即 @dlt.table 批注)。 请改为在数据集查询定义中读取它。

刷新模式已存在

SQLSTATE:42710

无法添加 <type> 到已具有 <existingType> 的表。 请删除现有计划或使用 ALTER TABLE ... ALTER <type> 更改它。

在使用中的保留关键字目录

SQLSTATE:42000

USE CATALOG “”<reservedKeyword>是非法的,因为“”<reservedKeyword>是 DLT 中的保留关键字。

保留关键字使用模式

SQLSTATE:42000

USE SCHEMA “”<reservedKeyword>是非法的,因为“”<reservedKeyword>是 DLT 中的保留关键字。

根路径未找到

SQLSTATE:42000

无法访问根路径“”。<rootPath> 请确保拥有所需的访问权限。

RUN_AS_USER_NOT_FOUND

SQLSTATE:28000

在工作区中,不存在被指定为用户“<runAsUserId>”的任务。

SQLSTATE:KD000

未能连接到 <sourceName> 源。 错误代码:<saasConnectionErrorCode>

有关详细信息,请参阅 SAAS_CONNECTION_ERROR

SAAS连接器架构更改错误

SQLSTATE:42KD4

架构更改发生在 <tableName> 源的表 <sourceName> 中。

有关更多详细信息,请参阅 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE:KD000

<sourceName> API 调用中发生错误。 源 API 类型:<saasSourceApiType>。 错误代码:<saasSourceApiErrorCode>

尝试刷新目标表。 如果问题仍然存在,请提交票证。

SQLSTATE:0A000

数据源 <sourceName> 中出现“不受支持”错误。

有关更多详细信息,请参阅 SAAS_CONNECTOR_UNSUPPORTED_ERROR

SAAS_初始化期间的不兼容架构变更

SQLSTATE:42KD4

初始化管道时检测到不兼容的架构更改:

<details>

请对受影响的表执行完全刷新。

软件即服务_模式在分析过程中出现分歧

SQLSTATE:42KD4

源表 (<table>) 的分析架构与预期架构存在分歧。

请重试管道更新,看看问题是否已解决。

如果此问题仍然存在,请对上述表执行完全刷新

预期架构:

<expectedSchema>

实际架构:

<actualSchema>

SQLSTATE:08000

提供的连接 <connectionName> 不可访问。 请检查连接,然后重试。

有关更多详细信息,请参阅 SAAS_UC_CONNECTION_INACCESSIBLE

架构规范_空目录

SQLSTATE:3D000

SchemaSpec 在目录字段中有一个空字符串。

请删除空字符串或添加目录名称。 (如果此架构不属于源中的目录,请不要设置字段。

架构规格详细信息:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE:3F000

SchemaSpec 在架构字段中有一个空字符串。

请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。

架构规格详细信息:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE:42000

必须存在至少一个源目录和源架构。 但两者都是空的。

架构规格详细信息:

<schemaSpec>

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

有关详细信息 ,请参阅SERVICENOW_CONNECTION_ERROR

ServiceNow连接器实例休眠错误 (SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR)

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

未能连接到 ServiceNow 实例。 该实例似乎处于休眠状态或处于非活动状态。

登录到 ServiceNow 管理门户,等待一段时间,直到实例完全唤醒。

如果错误仍然存在,请提交票证。

服务现在连接器_无效表错误

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

未能查询表“”<tableName>的架构。 此用户的 ServiceNow 帐户中不存在该表。

检查表名称是否有拼写错误,并确保用户具备访问该表所需的权限。

如果错误仍然存在,请提交票证。

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

检测到 ServiceNow API 端点 URL 无效。 URL 结构与预期的 ServiceNow 格式不匹配。

检查 UC 连接凭据中的 ServiceNow 实例配置。

有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE:KD000

ServiceNow 中发生错误。 源 API 类型:<saasSourceApiType>

有关更多详细信息,请参阅 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

不允许为管道表设置表属性

SQLSTATE:0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES 不支持。 若要修改表属性,请更改原始定义并运行更新。

SQLSTATE:KD000

对象 <objName> 的引入不完整,因为 Salesforce API 查询作业花费的时间过长、失败或已手动取消。

有关更多详细信息,请参阅 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND(未找到SFDC连接器批量查询)

SQLSTATE:KD000

对象 <objName> 引入失败,因为找不到 Salesforce 批量 API 查询作业。

请对特定目标表执行 FULL REFRESH

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED (请注意:Salesforce 连接器创建批量查询作业失败)

SQLSTATE:KD000

由于创建 Salesforce 批量 API 查询作业失败,对象 <objName> 引入不完整。 错误代码:<saasSourceApiErrorCode>

<actionText>

水槽不支持在SEG中

SQLSTATE:0A000

启用了无服务器出口控件的工作区不支持管道中的 DLT 接收器。 支持的 DLT 数据流接收端包括 Kafka 和 Delta。

找到以下不支持的接收器:<sinkNames>,其相应的格式为:<sinkFormats>

独立私有MVST不支持

SQLSTATE:0A000

不支持创建独立的 PRIVATE MV/ST。 请删除 PRIVATE 修饰符

未定义的流目标

SQLSTATE:42P01

找不到用于 <target> 命令的目标表 <command>。 管道中未定义目标表 <target>

在操作期间表已更改

SQLSTATE:55019

<tableName> 已在此事务之外进行了修改,并且此事务已回滚。 重试操作。

表物化循环外键依赖关系

SQLSTATE:42887

管道更新:<pipelineId> 检测到外键约束的循环链:<tables>

表规范需要同时目录和模式

SQLSTATE:42000

TableSpec 缺少源目录和/或源架构之一。

表规范详细信息:

<tableSpec>

表格规范为空目录

SQLSTATE:3D000

TableSpec 在目录字段中有一个空字符串。

请删除空字符串或添加目录名称。 (如果此表不属于源中的目录,请不要设置字段。

表规范详细信息:

<tableSpec>

表格规范为空的架构

SQLSTATE:3F000

TableSpec 在架构字段中有一个空字符串。

请删除空字符串或添加架构名称。 (如果此表不属于源中的架构,请不要设置字段。

表规范详细信息:

<tableSpec>

表格规格_空表

SQLSTATE:42601

表名为空。 请提供表名。

表规范详细信息:

<tableSpec>

表令牌不存在于架构演变遗留表中

SQLSTATE:42KD4

由于缺少元数据,无法启用架构演变。 请触发完全刷新。

原因:启用架构演变时必须定义快照表令牌。

目标数据库已满

SQLSTATE:53100

目标数据库 <databaseName> 空间已满。 无法继续摄取。

触发间隔值无效

SQLSTATE:22003

触发器间隔必须是正持续时间,最大可接受的值为 2,147,483,647 秒。 接收时间:<actual> 秒。

触发源类型不被支持

SQLSTATE:0A000

触发器当前不支持类型为 <source> 的源 <type>

UC清算目标架构不允许

SQLSTATE:0AKD0

不允许在 UC 管道中清除目标架构字段。 原因:<reason>

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE:0AKD0

UC 管道需要目标架构字段。 原因:<reason>

无法推断表架构

SQLSTATE:42KD9

无法从其上游流推断表 <tableName> 的架构。

请修改写入此表的流,使其架构兼容。

到目前为止,推断的架构:

<inferredDataSchema>

不兼容的架构:

<incompatibleDataSchema>

意外的管道方案权限错误

SQLSTATE:42501

检查管道 <pipelineId>的架构权限时出现意外错误。 请联系 Databricks 支持人员。

统一兼容性无法与行过滤器或列掩码设置

SQLSTATE:42000

不能对应用行筛选器或列掩码的物化视图或流式表设置统一的兼容性。

未解决的下游路径

SQLSTATE:22KD1

无法解析接收器 <identifier> 的存储路径。 请联系 Databricks 支持人员。

未解决的维护表格

SQLSTATE:55000

下表是在管道定义中找到的,但在维护期间无法解析。 如果问题仍然存在,请使用最新的管道定义运行管道更新任务,以生成管道定义中的所有表,解除维护阻塞,或者联系 Databricks 支持部门。

<unresolvedTableIdentifiersSet>

未解决的表路径

SQLSTATE:22KD1

无法解析表 <identifier> 的存储路径。 请联系 Databricks 支持人员。

不支持的修改命令

SQLSTATE:0A000

ALTER <commandTableType> ... <command> 不支持。

不支持的 DPM 通道

SQLSTATE:0A000

直接发布模式不支持的通道。 期望得到“CURRENT”或“PREVIEW”通道,但得到“PREVIOUS”通道。

在非DPM管道中不支持的命令

SQLSTATE:0A000

仅支持直接发布模式的 DLT 管道支持 <command>

查询定义中的不支持命令

SQLSTATE:0A000

查询定义不支持“<command>” 。 请将命令移到查询定义之外。 如果它是 Python 中的 DLT 管道,请将“”<command>移出 @dlt.table()/@dlt.view() 修饰器之外。 如果它是 Scala 中的 DLT 管道,请将“<command>”移动到“query”方法的外部。

不支持的工作区功能

SQLSTATE:0A000

工作区不支持 <featureName>。 请联系 Databricks 支持部门,为工作区启用此功能。

不支持的语言

SQLSTATE:0A000

无法加载<language>笔记本“<notebookPath>”。 目前仅支持 <supportedLanguages> 笔记本。

不支持的库文件类型

SQLSTATE:0A000

该文件 <path> 没有.py或.sql后缀。 管道中仅支持 Python 和 SQL 文件。

不支持的库或笔记本语言

SQLSTATE:0A000

笔记本<language>不支持的语言<path>。 管道中仅支持 Python 和 SQL

不支持的库对象类型

SQLSTATE:0A000

包含在路径中的<path>类型为<objectType>,该类型不受支持。 目前,只能将笔记本和文件用作库。 若要解决此问题,请删除不受支持的对象或更新为此管道配置的库,以便仅包含受支持的对象类型。

不支持的托管导入源类型

SQLSTATE:0A000

托管引入管道定义无效,源类型不受支持:<sourceType>

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE:0A000

不支持提供的引入类型 <ingestionType>

如果此问题仍然存在,请联系 Databricks 支持部门。

不支持的SPARK SQL命令

SQLSTATE:0A000

DLT Python 中的 spark.sql(“...”) API 不支持'<command>' 。 支持的命令:<supportedCommands>

USE_CATALOG_IN_HMS

SQLSTATE:0A000

USE CATALOG 仅在启用了 UC 的 DLT 管道中受支持

查看未在UC中保存的文本

SQLSTATE:42000

无法刷新表 <tableName>,因为它没有保存在 Unity 目录中的查询。 请联系 Databricks 支持人员。

SQLSTATE:KD000

Workday 报表中发生错误。 源 API 类型:<saasSourceApiType>

有关详细信息 ,请参阅WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

工作日报告网址为空

SQLSTATE:42000

Workday 报表 URL 为空。 必须至少提供一个报表。

工作区配额已超限

SQLSTATE:54000

无法启动更新<updateId>,因为此工作区中已有<maxActiveUpdates>个活动管道在运行。

杂项

ABAC 行和列策略不支持在指定的集群上

SQLSTATE:未分配

不支持在分配的群集上使用通过策略规则分配的行筛选器或列掩码对表 <tableFullName> 进行查询。

AZURE_ENTRA_凭证_缺失

SQLSTATE:未分配

Azure Entra(又称 Azure Active Directory)凭证缺失。

确保已使用 Entra 帐户登录

或在用户设置 > Git 集成中设置 Azure DevOps 个人访问令牌(PAT)。

如果未使用 PAT,并且正在将 Azure DevOps 与 Repos API 配合使用,

则必须使用 Azure Entra 访问令牌。

请参阅 https://docs.azure.cn/databricks/dev-tools/api/latest/aad/app-aad-token 获取 Azure Entra 访问令牌的步骤。

AZURE_ENTRA_凭据解析失败

SQLSTATE:未分配

Azure Entra (Azure Active Directory) 凭证遇到错误。 请尝试注销

Entra(https://portal.azure.cn)并重新登录。

或者,还可以访问用户设置 > Git 集成来设置

Azure DevOps 个人访问令牌。

Azure Entra 登录错误 (AZURE_ENTRA_LOGIN_ERROR)

SQLSTATE:未分配

Azure Active Directory 凭证遇到错误。 请尝试注销

Azure Active Directory (https://portal.azure.cn) 并重新登录。

清洁室_DELTA_共享_实体_未经授权

SQLSTATE:未分配

无法请求为清洁室增量共享安全对象生成凭证。

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE:未分配

具有类型 <securableName> 和类型 <securableType> 的安全对象 <securableKind> 由清洁室系统管理,用户无权访问。

约束已存在

SQLSTATE:未分配

名称为 <constraintName> 的约束已存在,请选择其他名称。

约束不存在

SQLSTATE:未分配

约束 <constraintName> 不存在。

无法读取远程存储库

SQLSTATE:未分配

无法读取远程存储库 (<repoUrl>)。

请转到远程 Git 提供程序,以确保:

  1. 远程 Git 存储库 URL 有效。

  2. 你的个人访问令牌或应用密码具有正确的存储库访问权限。

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE:未分配

无法解析 <repoUrl> 的主机。

CSMS_不支持从时间开始

SQLSTATE:未分配

参数 beginning_of_time 不能为 true。

CSMS_连续令牌已过期

SQLSTATE:未分配

找不到延续令牌的已请求对象。

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE:未分配

延续令牌无效。 原因:<msg>

CSMS_INVALID_MAX_OBJECTS (无效的最大对象)

SQLSTATE:未分配

参数 max_objects 的值 <value> 无效, [<minValue>, <maxValue>] 中的预期值

CSMS_INVALID_SUBSCRIPTION_ID (无效的订阅ID)

SQLSTATE:未分配

订阅 ID 无效。 原因:<msg>

CSMS_INVALID_URI_FORMAT(URI格式无效)

SQLSTATE:未分配

无效的 URI 格式。 需要卷(例如“/Volumes/catalog/schema/volume”)或云存储路径(例如“s3://some-uri”)

CSMS_KAFKA_主题缺失

SQLSTATE:未分配

必须提供 Kafka 主题

位置错误_CSMS

SQLSTATE:未分配

无法列出对象。 需要解决的位置存在问题。 详细信息: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE:未分配

找不到 URI <path> 的位置

CSMS_METASTORE_ID_MISSING

SQLSTATE:未分配

必须提供元数据存储 uuid

元存储解析失败

SQLSTATE:未分配

无法确定请求的元存储。

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE:未分配

CSMS 无法解析本地分片名称

CSMS_服务_已禁用

SQLSTATE:未分配

服务已禁用

CSMS请求中缺少分片名称

SQLSTATE:未分配

RPC 请求中缺少发往 CSMS 的分片名称

CSMS_UNITY_CATALOG_实体未找到

SQLSTATE:未分配

找不到 Unity Catalog 实体。 确保存在目录、架构、卷和/或外部位置。

CSMS_UNITY_CATALOG_外部位置不存在

SQLSTATE:未分配

Unity Catalog 外部位置不存在。

CSMS_UNITY_CATALOG_外部存储重叠

SQLSTATE:未分配

URI 与其他卷重叠

CSMS_UNITY_CATALOG元数据存储不存在

SQLSTATE:未分配

无法确定请求的元存储。 元存储不存在

CSMS_UNITY_CATALOG_权限被拒绝

SQLSTATE:未分配

权限被拒绝

CSMS_UNITY_目录_表_不存在

SQLSTATE:未分配

Unity Catalog 表不存在。

CSMS_统一目录卷不存在

SQLSTATE:未分配

Unity Catalog 卷不存在。

CSMS_URI_MISSING

SQLSTATE:未分配

必须提供 URI

CSMS_URI过长

SQLSTATE:未分配

提供的 URI 太长。 允许的最大长度为 <maxLength>

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE:未分配

无法使用经典计算访问 Databricks 默认存储。 请使用无服务器计算访问默认存储中的数据

GitHub 应用无法刷新凭证

SQLSTATE:未分配

操作失败,因为无法刷新链接的 GitHub 应用凭证。

请重试或转到用户设置 > Git 集成,然后尝试重新链接 Git 提供程序帐户。

如果问题仍然存在,请提交支持票证。

GitHub应用凭据无访问权限

SQLSTATE:未分配

指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:

  1. 存储库的管理员必须转到 https://github.com/apps/databricks/installations/new 存储库中并安装 Databricks GitHub 应用。

或者,GitHub 帐户所有者可以在帐户上安装应用,以授予对帐户存储库的访问权限。

  1. 如果已安装应用,则让管理员确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

GitHub 应用程序凭证已过期

SQLSTATE:未分配

链接的 GitHub 应用凭证在处于非活动状态 6 个月后过期。

转到用户设置 > Git 集成,然后尝试重新链接凭证。

如果问题仍然存在,请提交支持票证。

不同用户帐户上的GITHUB应用安装

SQLSTATE:未分配

指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:

  1. GitHub 用户 <gitCredentialUsername> 应转到 https://github.com/apps/databricks/installations/new 帐户 <gitCredentialUsername> 并安装应用以允许访问。

  2. 如果用户 <gitCredentialUsername> 已安装应用并且使用范围内的访问权限和“仅选择存储库”选项,则他们应确保已通过选择它来包括对此存储库的访问权限。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

GitHub应用程序安装在组织上

SQLSTATE:未分配

指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:

  1. GitHub 组织的 <organizationName> 所有者应转到 https://github.com/apps/databricks/installations/new,并在 <organizationName> 组织中安装应用程序以允许访问。

  2. 如果应用已安装在 GitHub 组织 <organizationName> 上,则让该组织的所有者确保如果他们使用范围内的访问权限和“仅选择存储库”选项,则通过选择它来包括对此存储库的访问权限。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

在您的账户上安装GitHub应用程序

SQLSTATE:未分配

指向 GitHub 帐户的链接没有访问权限。 修复此错误的方法:

  1. 转到 https://github.com/apps/databricks/installations/new 帐户 <gitCredentialUsername> 并安装应用以允许访问。

  2. 如果已安装应用,并且你在使用范围内的访问权限和“仅选择存储库”选项,则确保你已通过选择它来包括对此存储库的访问权限。

有关详细信息,请参阅https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app

如果问题仍然存在,请提交支持票证。

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE:未分配

存储库 URL <repoUrl> 的 Git 提供程序凭证无效。

当前的 Git 凭据提供程序是 <gitCredentialProvider>,用户名是 <gitCredentialUsername>

转到用户设置 > Git 集成以查看凭证。

请转到远程 Git 提供程序,以确保:

  1. 你已使用 Git 提供程序凭证输入正确的 Git 用户电子邮件或用户名。

  2. 你的令牌或应用密码具有正确的存储库访问权限。

  3. 你的令牌未过期。

  4. 如果你在 Git 提供程序中启用了 SSO,请确保授权你的令牌。

GIT 凭证 无效的 PAT

SQLSTATE:未分配

存储库 URL <repoUrl> 的 Git 提供程序个人访问令牌凭证无效。

当前的 Git 凭据提供程序是 <gitCredentialProvider>,用户名是 <gitCredentialUsername>

转到用户设置 > Git 集成以查看凭证。

请转到远程 Git 提供程序,以确保:

  1. 你已使用 Git 提供程序凭证输入正确的 Git 用户电子邮件或用户名。

  2. 你的令牌或应用密码具有正确的存储库访问权限。

  3. 你的令牌未过期。

  4. 如果你在 Git 提供程序中启用了 SSO,请确保授权你的令牌。

Git 凭据缺失

SQLSTATE:未分配

未配置 Git 凭证,但此存储库需要凭证 (<repoUrl>)。

转到用户设置 > Git 集成以设置 Git 凭证。

GIT_CREDENTIAL_NO_WRITE_PERMISSION(无写权限)

SQLSTATE:未分配

未授予对 <gitCredentialProvider> 存储库 (<repoUrl>) 的写入访问权限。

请确保 (<gitCredentialUsername>) 对此远程存储库具有写入访问权限。

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE:未分配

存储库的 Git 凭据提供程序不正确。

当前 Git 凭证的提供程序 (<gitCredentialProvider>) 与存储库的 Git 提供程序 <repoUrl> 的不匹配。

请尝试其他存储库,或转到用户设置 > Git 集成以更新 Git 凭证。

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE:未分配

Git 代理群集尚未准备就绪。

代码中的GIT秘密

SQLSTATE:未分配

在提交中找到的机密。 详细信息:<secretDetail>。 修复此错误的方法:

删除机密,然后重试提交。

如果问题仍然存在,请提交支持票证。

分级命名空间未启用

SQLSTATE:未分配

Azure 存储帐户未启用分层命名空间。

字段长度无效

SQLSTATE:未分配

<rpcName> <fieldName> 过长。 最大长度为 <maxLength> 个字符。

SQLSTATE:未分配

<msg>

有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE

作业任务框架任务运行输出未找到

SQLSTATE:未分配

任务框架:找不到具有 runId <runId> 和 orgId <orgId> 的任务的任务运行输出。

作业任务框架无法找到任务运行状态

SQLSTATE:未分配

任务框架:找不到具有 runId <runId> 和 orgId <orgId> 的任务的任务运行状态。

任务注册表中不存在任务客户端配置

SQLSTATE:未分配

具有 ID <taskId> 的任务的 RPC ClientConfig 不存在。

任务注册表中的任务不存在

SQLSTATE:未分配

具有 ID <taskId> 的任务不存在。

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE:未分配

任务注册表:类为 <taskClassName> 的不支持或未知的 JobTask。

基于路径的访问不支持外部浅克隆

SQLSTATE:未分配

不支持对外部浅表克隆表 <tableFullName> 进行基于路径的访问。 请改用表单名称来访问浅表克隆。

不支持基于路径的Fabric访问

SQLSTATE:未分配

找不到位于 URL“<url>”的 Fabric 表。 请使用 REFRESH FOREIGN CATALOG 命令填充 Fabric 表。

不支持用于具有行列访问策略的表的基于路径的访问

SQLSTATE:未分配

不支持对具有行筛选器或列掩码的表 <tableFullName> 进行基于路径的访问。

权限被拒绝

SQLSTATE:未分配

用户在 <msg><resourceType>”上没有 <resourceName>

REDASH_删除资产_处理程序_无效输入

SQLSTATE:未分配

无法分析删除对象请求:<invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE:未分配

无法删除不在回收站中的对象 <resourceName>

REDASH_权限被拒绝

SQLSTATE:未分配

找不到或没有访问资源 <resourceId> 的权限

REDASH_QUERY_NOT_FOUND (未找到查询)

SQLSTATE:未分配

无法从查询 ID 中查找资源 <queryId>

REDASH查询代码片段创建失败

SQLSTATE:未分配

无法创建新的查询片段

REDASH查询片段配额已超出

SQLSTATE:未分配

已达到查询片段数的配额。 当前配额为 <quota>

Redash 查询代码片段触发器已在使用中

SQLSTATE:未分配

指定的触发器 <trigger> 已被此工作区中的另一个查询片段使用。

红色资源未找到 (REDASH_RESOURCE_NOT_FOUND)

SQLSTATE:未分配

所请求的资源 <resourceName> 不存在

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE:未分配

无法分析删除对象请求:<invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE:未分配

无法还原不在回收站中的对象 <resourceName>

REDASH_垃圾对象已在垃圾桶中

SQLSTATE:未分配

无法将已放入回收站的对象 <resourceName> 放入回收站

瑞达什无法生成资源名称

SQLSTATE:未分配

无法从 ID <id> 中生成资源名称

REDASH 可视化创建失败

SQLSTATE:未分配

无法创建新的可视化效果

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE:未分配

找不到可视化效果 <visualizationId>

REDASH_可视化_配额已超出

SQLSTATE:未分配

查询 <query_id> 的可视化数量配额已达到上限。 当前配额为 <quota>

存储库网址未找到

SQLSTATE:未分配

找不到远程存储库 (<repoUrl>)。

当前的 Git 凭据提供程序是 <gitCredentialProvider>,用户名是 <gitCredentialUsername>

请转到远程 Git 提供程序,以确保:

  1. 远程 Git 存储库 URL 有效。

  2. 你的个人访问令牌或应用密码具有正确的存储库访问权限。

资源已存在

SQLSTATE:未分配

<resourceType><resourceIdentifier> ”已存在

资源不存在

SQLSTATE:未分配

<resourceType><resourceIdentifier>”不存在。

行列访问策略不支持分配的集群

SQLSTATE:未分配

不支持在分配的群集上使用行筛选器或列掩码对表 <tableFullName> 进行查询。

Delta Sharing 中的表不支持行列安全性

SQLSTATE:未分配

<tableFullName> 正与增量共享进行共享,不能使用行/列安全性。

服务暂时不可用

SQLSTATE:未分配

服务 <serviceName> 暂时处于维护状态。 请稍后再试。

在在线模式下,不支持具有行列安全性的表格

SQLSTATE:未分配

<tableFullName> 不能同时具有行/列安全性和联机具体化视图。

更新的行数过多

SQLSTATE:未分配

要更新的行太多,导致更新中止。