Azure Databricks 中的错误类

适用于:勾选“是” Databricks SQL 勾选“是” Databricks Runtime 12.2 及更高版本

错误类是错误条件特有的描述性、可读性字符串。

可以使用错误类以编程方式处理应用程序中的错误,而无需分析错误消息。

这是 Azure Databricks 返回的常见命名错误条件的列表。

Databricks Runtime 和 Databricks SQL

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE:42845

非确定性表达式 <sqlExpr> 不应出现在聚合函数的参数中。

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE:0A000

无法评估 SQL 函数“<functionName>”,因为提供的 <invalidValue> 参数具有“<invalidDataType>”,但仅支持以下类型:<supportedDataTypes>。 请更新函数调用以提供字符串类型的参数,然后再次重试查询。

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE:0A000

AI 函数:“<functionName>”不支持将以下类型作为返回类型:“<typeName>”。 返回类型必须是 Catalyst 理解并受 AI 函数支持的有效 SQL 类型。 当前支持的类型包括:<supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE:22032

参数“<argName>”不支持提供的值“<argValue>”。 支持的值为:<supportedValues>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

使用名称参数化查询时需要命名所有参数。 参数缺少名称 <exprs>

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE:KD005

无法将所有列用于分区列。

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE:42710

ALTER TABLE <type><columnName> 多次指定了描述符“<optionName>”,这是无效的。

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE:42KD0

嵌套 CTE 中的名称 <name> 不明确。

请将 <config> 设置为“CORRECTED”,以便内部 CTE 中定义的名称优先。 如果将其设置为“LEGACY”,则外部 CTE 定义将优先。

请参阅 https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE:42702

列或字段 <name> 不明确且具有 <n> 个匹配项。

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE:42702

<name> 不明确。 这是因为你已将多个数据帧联接在一起,其中一些数据帧是相同的。

此列指向其中一个 DataFrame,但 Spark 无法确定是指向哪一个。

请在联接 DataFrame 之前,通过 DataFrame.alias 将 DataFrame 命名为不同的别名,

然后使用限定名称(例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")))指定该列。

AMBIGUOUS_CONSTRAINT

SQLSTATE:42K0C

对约束 <constraint> 的引用不明确。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE:42702

横向列别名 <name> 不明确且具有 <n> 个匹配项。

AMBIGUOUS_REFERENCE

SQLSTATE:42704

引用 <name> 不明确,可能是:<referenceNames>

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE:42000

对字段 <field> 的引用不明确。 它在架构中出现了 <count> 次。

ARGUMENT_NOT_CONSTANT

SQLSTATE:42K08

函数 <functionName> 在需要常量参数的位置 <pos> 处包含参数 <parameterName>。 请单独计算参数 <sqlExpr>,并以常量形式传递结果。

ARITHMETIC_OVERFLOW

SQLSTATE:22003

<message><alternative> 如有必要,请将 <config> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 ARITHMETIC_OVERFLOW

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE:42802

分配或别名的列数或变量数:<numTarget> 与源表达式的数目:<numExpr> 不匹配。

AS_OF_JOIN

SQLSTATE:42604

截止联接无效。

有关更多详细信息,请参阅 AS_OF_JOIN

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE:0A000

如果启用 rescuedDataColumn,则不支持使用默认值。 可以将 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue 设置为 false 来删除此检查,但仍然不会使用默认值,而是使用 null 值。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE:22KD3

无法将 Avro <avroPath> 转换为 SQL <sqlPath>,因为原始编码的数据类型为 <avroType>,但是你尝试将字段读取为 <sqlType>,这会导致错误的答案。

若要允许读取此字段,请启用 SQL 配置:“spark.sql.legacy.avro.allowIncompatibleSchema”。

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE:0A000

如果启用 rescuedDataColumnfailOnUnknownFields,则不支持使用位置字段匹配。 可以删除这些选项继续操作。

BATCH_METADATA_NOT_FOUND

SQLSTATE:42K03

无法找到批处理 <batchMetadataFile>

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE:42616

必须要么使用“GoogleServiceAccountKeyJson”参数,要么同时使用“projectId”、“OAuthServiceAcctEmail”和“OAuthPvtKey”,来指定 BigQuery 连接凭据

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE:22003

<value1><symbol><value2> 导致溢出。

BUILT_IN_CATALOG

SQLSTATE:42832

<operation> 不支持内置目录。

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE:42KDE

无法对流式处理数据集/数据帧调用 <methodName> 方法。

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE:428FR

不支持对分区列使用 ALTER TABLE (ALTER|CHANGE) COLUMN,但却在表 <tableName> 中发现分区列 <columnName>

CANNOT_CAST_DATATYPE

SQLSTATE:42846

无法将 <sourceType> 强制转换为 <targetType>

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE:42846

无法将 Protobuf <protobufColumn> 转换为 SQL <sqlColumn>,因为架构不兼容(protobufType = <protobufType>,sqlType = <sqlType>)。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE:42846

无法将 Protobuf 的 <protobufType> 转换为 SQL 类型 <toType>

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE:42846

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为架构不兼容(protobufType = <protobufType>,sqlType = <sqlType>)。

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE:42846

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为 <data> 不在枚举 <enumString> 的定义值中。

CANNOT_COPY_STATE

SQLSTATE:0AKD0

无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE:42KDE

未能创建数据源表 <tableName>

有关详细信息,请参阅 CANNOT_CREATE_DATA_SOURCE_TABLE

CANNOT_DECODE_URL

SQLSTATE:22546

无法解码提供的 URL:<url>。 请确保 URL 格式正确,然后重试。

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE:42832

无法删除系统拥有的 <resourceType>

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE:42K0C

无法删除名称 <constraintName> 由 CHECK 约束共享的约束

以及 PRIMARY KEY 或 FOREIGN KEY 约束共享的约束。 可以通过以下查询删除 PRIMARY KEY 或

FOREIGN KEY 约束:

  • ALTER TABLE .. DROP PRIMARY KEY 或
  • ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE:08001

无法与远程 <jdbcDialectName> 数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请检查工作区的网络设置,并确保它对主机不存在出站限制。 此外,请检查主机是否不会阻止来自部署工作区 Spark 群集的网络的入站连接。 ** 详细错误消息:<causeErrorMessage>

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE:08001

无法与远程 <jdbcDialectName> 数据库建立连接。 请检查连接信息和凭据,例如主机、端口、用户、密码和数据库选项。 ** 如果你认为信息正确,请允许从 Internet 到主机的入站流量,因为你使用的是无服务器计算。 如果你的网络策略不允许入站 Internet 流量,请使用非无服务器计算,或者可以联系 Databricks 代表了解无服务器专用网络。 ** 详细错误消息:<causeErrorMessage>

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE:0A000

数据集转换和操作只能由驱动程序调用,而不能在其他数据集转换内部调用;例如,dataset1.map(x => dataset2.values.count() * x) 无效,因为无法在 dataset1.map 转换内部执行值转换和计数操作。 有关详细信息,请参阅 SPARK-28702。

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE:46103

注册函数 <functionName> 时无法加载类 <className>,请确保它位于类路径上。

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE:42K03

无法加载名称为 <protobufClassName> 的 Protobuf 类。 <explanation>

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

加载状态期间出错。

有关详细信息,请参阅 CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE:42825

无法合并不兼容的数据类型 <left><right>。 请检查要合并的列的数据类型,并确保它们兼容。 如有必要,请考虑在尝试合并之前将列强制转换为兼容的数据类型。

CANNOT_MERGE_SCHEMAS

SQLSTATE:42KD9

架构合并失败:

初始架构:

<left>

无法与初始架构合并的架构:

<right>

CANNOT_MODIFY_CONFIG

SQLSTATE:46110

无法修改 Spark 配置值:<key>

另请参阅 https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements

CANNOT_PARSE_DECIMAL

SQLSTATE:22018

无法分析十进制数。 请确保输入是具有可选小数点或逗号分隔符的有效数字。

CANNOT_PARSE_INTERVAL

SQLSTATE:22006

无法分析 <intervalString>。 请确保提供的值采用用于定义间隔的有效格式。 可以参考文档获取正确的格式。 如果问题仍然存在,请仔细检查输入值不为 null 或为空,然后重试。

CANNOT_PARSE_JSON_FIELD

SQLSTATE:2203G

无法将 JSON 标记类型 <jsonType> 的字段名称 <fieldName> 和值 <fieldValue> 分析为目标 Spark 数据类型 <dataType>

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE:22018

将描述符字节解析为 Protobuf FileDescriptorSet 时出错。

CANNOT_PARSE_TIMESTAMP

SQLSTATE:22007

<message>。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

CANNOT_READ_ARCHIVED_FILE

SQLSTATE:KD003

无法读取路径 <path> 处的文件,因为该文件已存档。 请调整查询筛选器以排除已存档的文件。

CANNOT_READ_FILE

SQLSTATE:KD003

无法读取路径 <path> 处的 <format> 文件。

有关详细信息,请参阅 CANNOT_READ_FILE

SQLSTATE:KD001

无法读取文件的页脚:<file>。 请确保文件采用 ORC 或 Parquet 格式。

如果不是,请将其转换为有效的格式。 如果文件采用有效格式,请检查文件是否损坏。

如果是,可以选择忽略或修复损坏。

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE:42501

无法从安全提供程序读取敏感密钥“<key>”。

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE:429BB

无法识别 hive 类型字符串:<fieldType>,列:<fieldName>。 Spark SQL 无法识别字段的指定数据类型。 请检查指定字段的数据类型,并确保它是有效的 Spark SQL 数据类型。 有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。 如果数据类型正确,请确保你使用的是受支持的 Spark SQL 版本。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE:0AKD0

无法在 Hive 元存储对象中引用 Unity Catalog <objType>

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE:0AKD0

不允许跨目录重命名 <type>

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE:0AKD0

不允许跨架构重命名 <type>

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE:42704

无法解析 DataFrame 列 <name>。 这可能是因为非法引用,如 df1.select(df2.col("a"))

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE:42704

无法解析 <targetString>.* 给定的输入列 <columns>。 请检查指定的表或结构是否存在并且可在输入列中访问。

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE:58030

无法将创建的路径 <path> 上的权限设置回 <permission>

CANNOT_SAVE_VARIANT

SQLSTATE:0A000

无法将变体数据类型保存到外部存储中。

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE:0AKD0

无法跨 Unity Catalog 和 Hive 元存储浅度克隆表。

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE:0AKUC

无法对已经是浅度克隆的表 <table> 执行浅度克隆。

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE:0AKUC

只有 MANAGED 表类型支持浅度克隆。 表 <table> 不是托管表。

CANNOT_UPDATE_FIELD

SQLSTATE:0A000

无法更新 <table> 字段 <fieldName> 类型:

有关详细信息,请参阅 CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE:42846

无法将 <expression><sourceType> 强制转换为 <targetType>

<details>

CANNOT_VALIDATE_CONNECTION

SQLSTATE:08000

不支持验证 <jdbcDialectName> 连接。 请联系 Databricks 支持团队获取替代解决方案,或将“spark.databricks.testConnectionBeforeCreation”设置为“false”,以跳过创建连接对象前的连接测试。

CANNOT_WRITE_STATE_STORE

SQLSTATE:58030

为提供程序 <providerClass> 写入状态存储文件时出错。

有关详细信息,请参阅 CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE:22018

类型 <sourceType> 的值 <expression> 无法强制转换为 <targetType>,因为其格式错误。 根据语法更正值,或更改其目标类型。 使用 try_cast 来容许格式错误的输入并改为返回 NULL。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE:22003

由于溢出,类型 <sourceType> 的值 <value> 无法强制转换为 <targetType>。 使用 try_cast 容许溢出,并返回 NULL。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE:22003

由于溢出,无法将 <sourceType> 类型分配到 <targetType> 类型列或变量 <columnName>。 对输入值使用 try_cast 以容许溢出并改为返回 NULL。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE:56000

找不到检查点块 <rddBlockId>!

可能是最初为此分区设置检查点的执行程序不再处于活动状态,或者未保留原始 RDD。

如果此问题仍然存在,可以考虑改用 rdd.checkpoint(),这个检查点比本地检查点慢,但容错能力更高。

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE:0A000

MapObjects 不支持将类 <cls> 作为生成的集合。

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE:42K03

已收到文件 <filePath> 的文件通知,但该文件不再存在。 请确保在处理文件之前该文件未被删除。 若要继续处理流,可以将 Spark SQL 配置 <config> 设置为 true。

CODEC_NOT_AVAILABLE

SQLSTATE:56038

编解码器 <codecName> 不可用。 请考虑将配置 <configKey> 设置为 <configVal>

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE:42704

找不到编解码器 <codecName> 的短名称。

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE:54000

无法使用超过数组大小限制 <maxRoundedArrayLength><numberOfElements> 元素创建数组,

有关详细信息,请参阅 COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_IS_NOT_ALLOWED

SQLSTATE:42601

<op> 中不允许使用列别名。

COLUMN_ALREADY_EXISTS

SQLSTATE:42711

<columnName> 已存在。 请考虑选择其他名称或重命名现有列。

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE:0A000

不支持使用列掩码策略对表 <tableName> 创建 CHECK 约束。

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE:42734

<statementType> 语句尝试将列掩码策略分配到某个列,而该列包含 USING COLUMNS 列表中的其他两个或更多个具有名称 <columnName> 的被引用列,这是无效操作。

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

不支持 <tableName> 的列掩码策略:

有关更多详细信息,请参阅 COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0A000

无法从表 <tableName> 执行 <statementType><columnName>,因为它已在列 <maskedColumn> 的列掩码策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE:0A000

MERGE INTO 操作不支持源表 <tableName> 中的列掩码策略。

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO 操作不支持写入具有列掩码策略的表 <tableName>

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE:42K05

此语句尝试将列掩码策略分配到具有多个名称部分的列 <columnName>,这是无效操作。

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE:42K05

此语句尝试将列掩码策略分配到某个列,而 USING COLUMNS 列表包含的名称 <columnName> 具有多个名称部分,这是无效操作。

COLUMN_MASKS_NOT_ENABLED

SQLSTATE:56038

未启用对定义列掩码的支持

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

列掩码策略仅在 Unity Catalog 中受支持。

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用列掩码策略从表 <tableName> 进行 <mode> 克隆。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用列掩码策略将 <mode> 克隆到表 <tableName>

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE:0A000

无法执行 <statementType> 命令,因为不支持使用表提供程序“<provider>”为目标数据源分配列掩码策略。

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE:0A000

无法对表 <tableName> 执行 <operation>,因为表中包含一个或多个具有子查询表达式的列掩码策略,尚不支持此操作。 请联系表的所有者以更新列掩码策略,以便继续操作。

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE:42734

<columnName> 与目标列同名,这是无效的;请从 USING COLUMNS 列表中删除该列,然后重试命令。

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE:42703

<colType><colName> 未在表 <tableName> 中定义,定义的表列为:<tableCols>

COLUMN_NOT_FOUND

SQLSTATE:42703

找不到列 <colName>。 根据 SQL 配置 <caseSensitiveConfig> 验证列名的拼写和正确性。

COMPARATOR_RETURNS_NULL

SQLSTATE:22004

对于 <firstValue><secondValue> 之间的比较,比较器返回了 NULL。

它应为“大于”运算符返回正整数,为“等于”运算符返回 0,为“小于”运算符返回负整数。

若要恢复已弃用的行为,即,将 NULL 视为 0(使用“等于”运算符),必须将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。

CONCURRENT_QUERY

SQLSTATE:0A000

此查询的另一个实例 [id:<queryId>] 刚刚由并发会话启动 [现有 runId:<existingQueryRunId>,新 runId:<newQueryRunId>]。

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE:40000

并发更新日志。 检测到多个流式处理作业的 <batchId>

请确保一次只有一个流式处理作业在特定检查点位置运行。

CONNECT

SQLSTATE:56K00

泛型 Spark 连接错误。

有关详细信息,请参阅 CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE:42000

连接无法创建连接 <connectionName>,因为它已存在。

选择其他名称、删除或替换现有连接,或者添加 IF NOT EXISTS 子句以容许现有的连接。

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE:42000

无法执行此命令,因为连接名称必须非空。

CONNECTION_NOT_FOUND

SQLSTATE:42000

无法执行此命令,因为找不到连接名称 <connectionName>

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE:42000

<connectionType>”类型的连接不支持以下选项:<optionsNotSupported>。 支持的选项:<allowedOptions>

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE:42000

无法创建“<connectionType>”类型的连接。 支持的连接类型:<allowedTypes>

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

表约束仅在 Unity Catalog 中受支持。

CONVERSION_INVALID_INPUT

SQLSTATE:22018

无法将值 <str> (<fmt>) 转换为 <targetType>,因为它的格式错误。 请根据语法更正值,或更改其格式。 使用 <suggestion> 来容许格式错误的输入并改为返回 NULL。

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE:0A000

方案 <scheme> 无效。 COPY INTO 源凭据目前仅支持 s3/s3n/s3a/wasbs/abfss。

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE:42601

COPY INTO 源凭据必须指定 <keyList>

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE:25000

复制的文件在并发 COPY INTO 操作中提交。 请稍后再试。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE:0A000

方案 <scheme> 无效。 COPY INTO 源加密目前仅支持 s3/s3n/s3a/abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE:0A000

COPY INTO 加密仅支持 ADLS Gen2 或 abfss:// 文件方案

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE:42601

COPY INTO 源加密必须指定“<key>”。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE:42601

无效加密选项 <requiredKey>。 COPY INTO 源加密必须指定 '<requiredKey>' = '<keyValue>'。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE:25000

除了追加数据外,COPY INTO 不能与其他事务同时运行。 请稍后再试。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE:25000

COPY INTO 无法加载其状态,超过最大重试次数。

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE:42KDG

复制到 Delta 表(表:<table>)时检测到架构不匹配。

这可能表示传入数据存在问题,或者 Delta 表架构通过以下设置根据传入数据进行了自动演变:

COPY_OPTIONS ('mergeSchema' = 'true')

架构差异:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE:0A000

源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 中的一种。 不支持在 Delta 表上使用 COPY INTO 作为源,因为在进行 OPTIMIZE 操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false 来关闭此检查。

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE:42KD9

源目录不包含 <format> 类型的任何可分析文件。 请检查“<source>”的内容。

COPY_INTO_SYNTAX_ERROR

SQLSTATE:42601

未能分析 COPY INTO 命令。

有关详细信息,请参阅 COPY_INTO_SYNTAX_ERROR

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE:0A000

不允许在未显式分配表达式 <attr> 的别名的情况下创建永久视图 <name>

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE:42710

CREATE TABLE 列 <columnName> 多次指定了描述符“<optionName>”,这是无效的。

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法创建视图 <viewName>,原因为

有关更多详细信息,请参阅 CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE:42601

创建或更新外部位置时请提供凭据。

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE:0A000

使用 rescuedDataColumnfailOnUnknownFields 时,无法设置 CSV 选项 enforceSchema,因为列是按名称读取的,而不是序号。

CYCLIC_FUNCTION_REFERENCE

SQLSTATE:42887

检测到循环函数引用:<path>

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE:56038

未在帐户中启用 Databricks Delta。<hints>

DATATYPE_MISMATCH

SQLSTATE:42K09

由于数据类型不匹配,无法进行解析 <sqlExpr>

有关更多详细信息,请参阅 DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE:42K01

DataType <type> 需要长度参数,例如 <type>(10)。 请指定长度。

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE:42710

数据源“<provider>”已存在。 请为新数据源选择其他名称。

DATA_SOURCE_NOT_EXIST

SQLSTATE:42704

找不到数据源“<provider>”。 请确保已注册该数据源。

DATA_SOURCE_NOT_FOUND

SQLSTATE:42K02

无法找到数据源:<provider>。 请在 https://spark.apache.org/third-party-projects.html 中查找包。

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE:42602

选项 <option> 不能为空,且不应包含无效字符、查询字符串或参数。

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE:42601

选项 <option> 是必需的。

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE:42K03

数据源表的架构与预期的架构不匹配。 如果使用 DataFrameReader.schema API 或要创建表,请避免指定该架构。

数据源架构:<dsSchema>

预期架构:<expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE:42KDB

数据源选项中不允许使用 JDBC URL,请指定“host”、“port”和“database”选项。

DATETIME_OVERFLOW

SQLSTATE:22008

日期/时间操作溢出:<operation>

DC_CONNECTION_ERROR

SQLSTATE: KD000

未能连接到数据源 <sourceName>。 请确保正确提供凭据选项 <credentialOptions>。 错误代码:<errorCode>

DC_FEATURE_NOT_ENABLED

SQLSTATE:0A000

未启用 <feature>。 请 <action>.

DC_FILE_BACKUP_NOT_FOUND

SQLSTATE: KD000

块管理器丢失了数据,并且没有针对它的文件备份。 请完全刷新管道。

DC_INVALID_OFFSET

SQLSTATE: KD000

无法分析偏移量 <offset> 或找不到偏移量。 请从全新的检查点目录重启查询。

DC_SFDC_API_DAILY_QUOTA_THRESHOLD_EXCEEDED

SQLSTATE: KD000

已超过为 <sourceName> 配置的每日 API 配额 (<type>)。

当前使用量为 <usage>,配置的配额为 <quota>

请增加 Salesforce 中的配额或更新配置的阈值。

DC_SFDC_API_ERROR

SQLSTATE: KD000

Salesforce API 调用中出错,errorCode:<errorCode>

有关详细信息,请参阅 DC_SFDC_API_ERROR

DC_SQLSERVER_ERROR

SQLSTATE: KD000

SQL Server 连接器中发生错误。

有关详细信息,请参阅 DC_SQLSERVER_ERROR

DC_UNSUPPORTED_ERROR

SQLSTATE:0A000

数据源 <sourceName> 中出现“不受支持”错误。

有关更多详细信息,请参阅 DC_UNSUPPORTED_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE:22003

小数精度 <precision> 超过最大精度 <maxPrecision>

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE:42704

默认数据库 <defaultDatabase> 不存在,请先创建该数据库,或将默认数据库更改为 <defaultDatabase>

DEFAULT_FILE_NOT_FOUND

SQLSTATE:42K03

可能已更新基础文件。 可在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建所涉及的数据集/数据帧,显式地使 Spark 中的缓存失效。 如果磁盘缓存已过时,或者基础文件已删除,可以通过重启群集手动使磁盘缓存失效。

DEFAULT_PLACEMENT_INVALID

SQLSTATE:42608

无法将 MERGE、INSERT、UPDATE 或 SET VARIABLE 命令中的 DEFAULT 关键字直接分配给目标列,因为它是表达式的一部分。

例如,允许 UPDATE SET c1 = DEFAULT,但不允许 UPDATE T SET c1 = DEFAULT + 1

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE:55019

流式处理查询从意外的 Delta 表(id =“<newTableId>”)中读取。

它用于根据检查点从另一个 Delta 表(id =“<oldTableId>”)中读取。

当更改代码以从新表读取,或删除并重新创建表时,

可能会发生此错误。 请还原更改或删除流式处理查询检查点

以从头开始。

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE:0A000

不支持不同的窗口函数:<windowExpr>

DIVIDE_BY_ZERO

SQLSTATE:22012

被零除。 使用 try_divide 容许除数为 0,并返回 NULL。 如有必要,请将 <config> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE:56038

预期仅在增量实时表管道中受支持。

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE:56038

具有 CLUSTER BY 子句的具体化视图仅在 Delta Live Tables 管道中受支持。

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE:56038

具体化视图位置仅在增量实时表管道中受支持。

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE:56038

具有指定类型的具体化视图架构仅在增量实时表管道中受支持。

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE:42713

箭头结构中不允许出现重复的字段名称,已得到 <fieldNames>

DUPLICATED_MAP_KEY

SQLSTATE:23505

找到重复的映射键 <key>,请检查输入数据。

如果你要删除重复的键,可以将 <mapKeyDedupPolicy> 设置为“LAST_WIN”,使最后插入的键优先。

DUPLICATED_METRICS_NAME

SQLSTATE:42710

指标名称不唯一:<metricName>。 同一名称不能用于具有不同结果的指标。

但是,允许具有相同结果和名称的多个指标实例(例如自联接)。

DUPLICATE_ASSIGNMENTS

SQLSTATE:42701

列或变量 <nameList> 作为赋值目标出现多次。

DUPLICATE_CLAUSES

SQLSTATE:42614

发现重复子句:<clauseName>。 请删除其中的一个。

DUPLICATE_KEY

SQLSTATE:23505

发现重复键 <keyColumn>

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE:4274K

对函数 <functionName> 的调用无效,因为它包含对同一参数名称 <parameterName> 的多个参数赋值。

有关更多详细信息,请参阅 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE:42734

在用户定义的例程 <routineName> 的参数列表中发现重复的名称:<names>

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE:42711

在用户定义的例程 <routineName> 的 RETURNS 子句列列表中发现重复的列:<columns>

EMPTY_JSON_FIELD_VALUE

SQLSTATE:42604

无法分析数据类型 <dataType> 的空字符串。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE:22023

暂存 <operation> 查询中包含空本地文件

ENCODER_NOT_FOUND

SQLSTATE:42704

找不到 Spark SQL 内部表示形式的 <typeName> 类型编码器。

考虑将输入类型更改为“<docroot>/sql-ref-datatypes.html”支持的其中一个类型。

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区报告的可用偏移量小于结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

最新偏移量:<latestOffset>,结束偏移量:<endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

对于具有 Trigger.AvailableNow 的 Kafka 数据源,每个主题分区的结束偏移量应小于或等于预提取的偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

预提取的偏移量:<prefetchedOffset>,结束偏移量:<endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE:KD00B

读取 avro 数据时出错 - 遇到未知指纹: <fingerprint>,不确定要使用的架构。

如果在启动 Spark 上下文后注册了其他架构,则可能会发生这种情况。

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE:42601

无法从“已分配”或“无隔离共享”群集查询事件日志,请改用共享群集或 Databricks SQL 仓库。

EVENT_LOG_UNAVAILABLE

SQLSTATE:55019

没有任何适用于 <tableOrPipeline> 的事件日志。 请稍后在生成事件后重试

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE:42832

<tableIdentifier> 的表类型为 <tableType>

查询事件日志仅支持具体化视图、流式处理表或增量实时表管道

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE:42K09

事件时间 <eventName><eventType> 类型无效,应为“TIMESTAMP”。

EXCEED_LIMIT_LENGTH

SQLSTATE:54006

超过 char/varchar 类型长度限制:<limit>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE:428H2

EXCEPT 列 <columnName> 已解析,本应该为 StructType,但发现类型为 <dataType>

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE:42702

EXCEPT 列表中的列必须非重复且不重叠,但出现了 (<columns>)。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE:42703

EXCEPT 列 [<exceptColumns>] 已解析,但不与星形扩展中的任何 [<expandedColumns>] 列匹配。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE:42703

无法解析 EXCEPT 子句中的列/字段名称 <objectName>。 你是否指的是下列其中一项:[<objectList>]?

注意:在结构扩展期间,EXCEPT 子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE:53200

内存不足,无法生成广播关系 <relationClassName>。 关系大小 = <relationSize>. 生成段端随机大小 = <shuffleSize>。 此任务使用的内存总量 = <taskMemoryUsage>。 onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>,offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>,onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>,offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>。 [shuffleId: <shuffleId>]

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE:42701

此 EXECUTE IMMEDIATE 命令的 USING 子句包含多个具有相同别名 (<aliases>) 的参数,这是无效的;请更新命令以指定唯一的别名,然后重试。

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE:42809

<operation>”需要永久视图,但 <viewName> 是临时视图。

EXPECT_TABLE_NOT_VIEW

SQLSTATE:42809

应该为“<operation>”提供表,但 <viewName> 是视图。

有关更多详细信息,请参阅 EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE:42809

<tableName> 不支持 <operation>

有关更多详细信息,请参阅 EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE:42846

无法将行解码为表达式的值:<expressions>

EXPRESSION_ENCODING_FAILED

SQLSTATE:42846

无法将表达式的值 <expressions> 解码为行。

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE:42822

列表达式 <expr> 无法排序,因为其类型 <exprType> 不可排序。

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE:0A000

外部表不支持 <scheme> 方案。

FAILED_EXECUTE_UDF

SQLSTATE:39000

由于 <reason>,用户定义函数 (<functionName>: (<signature>) =><result>) 失败。

FAILED_FUNCTION_CALL

SQLSTATE:38000

为调用准备函数 <funcName> 失败。 请仔细检查函数的参数。

FAILED_JDBC

SQLSTATE: HV000

操作上的 JDBC <url> 失败:

有关详细信息,请参阅 FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE:22018

解析结构 <raw> 失败。

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

无法向 Kryo 注册课程。

FAILED_RENAME_PATH

SQLSTATE:42K04

无法将 <sourcePath> 重命名为 <targetPath>,因为目标已存在。

FAILED_RENAME_TEMP_FILE

SQLSTATE:58030

无法将临时文件 <srcPath> 重命名为<dstPath>,因为 FileSystem.rename 返回 false。

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE:56038

<feature> 在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。 若要详细了解仓库类型,请参阅 <docLink>

FEATURE_REQUIRES_UC

SQLSTATE:0AKUD

<feature> 在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。 若要详细了解 Unity Catalog,请参阅 <docLink>

FEATURE_UNAVAILABLE

SQLSTATE:56038

<feature> 在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。

FIELDS_ALREADY_EXISTS

SQLSTATE:42710

无法 <op> 列,因为 <fieldNames> 已在 <struct> 中存在。

FIELD_NOT_FOUND

SQLSTATE:42704

<fields> 中没有此类结构字段 <fieldName>

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE:42K04

暂存路径 <path> 中的文件已存在,但未设置 OVERWRITE

FORBIDDEN_OPERATION

SQLSTATE:42809

不允许对 <objectType> 执行 <statement> 操作:<objectName>

FOREIGN_KEY_MISMATCH

SQLSTATE:42830

外键父列 <parentColumns> 与主键子列 <childColumns> 不匹配。

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE:42000

无法执行此命令,因为外部 <objectType> 名称必须非空。

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE:42710

检测到名称为“<provider>”的多个数据源。 请检查数据源未同时注册并位于 classpath 中。

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE:42601

from_json 推理在以下位置遇到冲突的架构更新:<location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE:42601

from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>)

在 JSON 对象中,无法再继续。 请为 columnNameOfCorruptRecord

选项“columnNameOfCorruptRecord”。

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE:42601

from_json 推理无法读取存储在以下位置的架构:<location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE:42601

from_json 无法推断架构。 请改为提供一个架构。

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE:0A000

仅当定义流式处理表时,才支持 from_json 推理

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE:42601

from_json 配置无效:

有关更多详细信息,请参阅 FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE:22KD3

from_json 无法从 <old> 发展为 <new>

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE:42623

列不能同时具有默认值和生成表达式,但列 <colName> 具有默认值 (<defaultValue>) 和生成表达式 (<genExpr>)。

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE:56038

Hive 2.2 和更低版本不支持 getTablesByType。 请使用 Hive 2.3 或更高版本。

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

无效的 Graphite 协议:<protocol>

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite 接收器需要“<property>”属性。

GROUPING_COLUMN_MISMATCH

SQLSTATE:42803

在分组列 <groupingColumns> 中找不到分组 (<grouping>) 的列。

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE:42803

grouping_id (<groupingIdColumn>) 的列与分组列 (<groupByColumns>) 不匹配。

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE:54000

分组集大小不能大于 <maxSize>

GROUP_BY_AGGREGATE

SQLSTATE:42903

GROUP BY 中不允许使用聚合函数,但找到了 <sqlExpr>

有关更多详细信息,请参阅 GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE:42903

GROUP BY <index> 引用了包含聚合函数的表达式 <aggExpr>。 GROUP BY 中不允许使用聚合函数。

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE:42805

GROUP BY 位置 <index> 不在选择列表中(有效范围为 [1, <size>])。

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE:42822

表达式 <sqlExpr> 无法用作分组表达式,因为其数据类型 <dataType> 不是可排序的数据类型。

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE:22546

<function> 的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如 hll_sketch_agg 函数生成的缓冲区)。

HLL_INVALID_LG_K

SQLSTATE:22546

<function> 的调用无效;lgConfigK 值必须介于 <min><max> 之间,包括:<value>

HLL_UNION_DIFFERENT_LG_K

SQLSTATE:22000

草图具有不同的 lgConfigK 值:<left><right>。 将 allowDifferentLgConfigK 参数设置为 true 以使用不同的 lgConfigK 值调用 <function>

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE:42601

<identifier> 不是有效的标识符,因为它的名称部分超过 2 个。

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE:42818

无效透视列 <columnName>。 透视列必须可比较。

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE:42825

只能对具有兼容列类型的表执行 <operator><tableOrdinalNumber> 表的 <columnOrdinalNumber> 列是 <dataType1> 类型,与第一个表同一列的 <dataType2> 不兼容。<hint>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE:56038

检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:<message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

无法为表 <tableName> 写入不兼容的数据:

有关更多详细信息,请参阅 INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE:42613

联接类型 <joinType1><joinType2> 不兼容。

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE:51024

视图 <viewName> 的 SQL 查询包含不兼容的架构更改,无法解析列 <colName>。 需要名为 <colName><expectedNum> 列,但收到的列为 <actualCols>

请尝试通过运行 <suggestion> 重新创建视图。

INCOMPLETE_TYPE_DEFINITION

SQLSTATE:42K01

不完整的复杂类型:

有关更多详细信息,请参阅 INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE:42K0B

由于升级到,可能会得到其他结果

有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE:42605

<failure><functionName> 至少需要 <minArgs> 个参数,最多需要 <maxArgs> 个参数。

INCORRECT_RAMP_UP_RATE

SQLSTATE:22003

<rowsPerSecond> rowsPerSecond 的最大偏移量为 <maxSeconds>,但“rampUpTimeSeconds”为 <rampUpTimeSeconds>

INDEX_ALREADY_EXISTS

SQLSTATE:42710

无法在表 <tableName> 上创建索引 <indexName>,因为它已存在。

INDEX_NOT_FOUND

SQLSTATE:42704

在表 <tableName> 上找不到索引 <indexName>

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法写入 <tableName>,原因是

有关更多详细信息,请参阅 INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE:21S01

无法中写入“<tableName>”,<reason>

表列:<tableColumns>

使用静态值对列进行分区:<staticPartCols>

数据列:<dataColumns>

INSUFFICIENT_PERMISSIONS

SQLSTATE:42501

权限不足:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE:42501

用户 <user> 对外部位置 <location> 的特权不足。

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE:42501

<securableName> 没有所有者。 要求管理员设置所有者。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE:42501

用户不拥有 <securableName>

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE:42501

用户对 <securableName> 没有 <action> 权限。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE:42501

<securableName> 的所有者不同于 <parentSecurableName> 的所有者。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE:42501

存储凭据 <credentialName> 的特权不足。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE:42501

由于对基础安全对象的权限,用户无法对 <securableName> 执行 <action>

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE:42501

由于对基础安全对象的权限,用户无法对 <securableName> 执行 <action>

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE:22015

<message><alternative>

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE:22012

被零除。 使用 try_divide 容许除数为 0,并返回 NULL。

INVALID_ARRAY_INDEX

SQLSTATE:22003

索引 <indexValue> 超出界限。 数组具有 <arraySize> 个元素。 使用 SQL 函数 get() 容许访问无效索引上的元素,并改为返回 NULL。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE:22003

索引 <indexValue> 超出界限。 数组具有 <arraySize> 个元素。 使用 try_element_at 容许访问无效索引上的元素,并返回 NULL。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

有关更多详细信息,请参阅 INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_BITMAP_POSITION

SQLSTATE:22003

索引为 0 的位图位置 <bitPosition> 超出边界。 位图具有 <bitmapNumBits> 位(<bitmapNumBytes> 字节)。

INVALID_BOUNDARY

SQLSTATE:22003

边界 <boundary> 无效:<invalidValue>

有关更多详细信息,请参阅 INVALID_BOUNDARY

INVALID_BUCKET_FILE

SQLSTATE:58030

无效的桶文件:<path>

INVALID_BYTE_STRING

SQLSTATE:22P03

预期的格式为 ByteString,但实际为 <unsupported> (<class>)。

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE:46121

数据源 <datasource> 无法保存列 <columnName>,因为它的名称包含文件路径中不允许的某些字符。 请使用别名将其重命名。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE:42000

列或字段 <name> 的类型是 <type>,但必须是 <expectedType>

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE:42887

要在 Unity Catalog 中定义仅共享视图,current_recipient 函数只能在 CREATE VIEW 语句或 ALTER VIEW 语句中使用。

INVALID_CURSOR

SQLSTATE: HY109

游标无效。

有关更多详细信息,请参阅 INVALID_CURSOR

INVALID_DEFAULT_VALUE

SQLSTATE:42623

无法执行 <statement> 命令,因为目标列或变量 <colName> 具有 DEFAULT 值 <defaultValue>

有关更多详细信息,请参阅 INVALID_DEFAULT_VALUE

INVALID_DEST_CATALOG

SQLSTATE:42809

SYNC 命令的目标目录必须位于 Unity Catalog 中。 已找到 <catalog>

INVALID_DRIVER_MEMORY

SQLSTATE:F0000

系统内存 <systemMemory> 必须至少为 <minSystemMemory>

请在 Spark 配置中使用 -driver-memory 选项或“<config>”增加堆大小。

INVALID_EMPTY_LOCATION

SQLSTATE:42K05

位置名称不能为空字符串,但已给出 <location>

INVALID_ESC

SQLSTATE:42604

发现无效的转义字符串:<invalidEscape>。 转义字符串只能包含一个字符。

INVALID_ESCAPE_CHAR

SQLSTATE:42604

EscapeChar 应该是长度为 1 的字符串字面量,但收到了 <sqlExpr>

INVALID_EXECUTOR_MEMORY

SQLSTATE:F0000

执行程序内存 <executorMemory> 必须至少为 <minSystemMemory>

请在 Spark 配置中使用 -executor-memory 选项或“<config>”增加执行程序内存。

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE:42000

无法从 <base> 中提取值。 需要复杂类型 [STRUCT, ARRAY, MAP],但得到 <other>

INVALID_EXTRACT_FIELD

SQLSTATE:42601

无法从 <expr> 中提取 <field>

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE:42000

字段名称应是非 null 字符串文本,但它是 <extraction>

INVALID_FIELD_NAME

SQLSTATE:42000

字段名称 <fieldName> 无效:<path> 不是结构。

INVALID_FORMAT

SQLSTATE:42601

格式无效:<format>

有关更多详细信息,请参阅 INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE:22023

秒的分数必须为零。 有效的范围为 [0, 60]。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

INVALID_HANDLE

SQLSTATE:HY000

句柄 <handle> 无效。

有关更多详细信息,请参阅 INVALID_HANDLE

INVALID_HIVE_COLUMN_NAME

SQLSTATE:42K05

无法创建其列 <columnName> 的名称包含 Hive 元存储中的无效字符 <invalidChars> 的表 <tableName>

INVALID_IDENTIFIER

SQLSTATE:42602

标识符 <ident> 无效。 请考虑用反引号将其引用为 <ident>

INVALID_INDEX_OF_ZERO

SQLSTATE:22003

索引 0 无效。 索引应 < 0 或 > 0(第一个元素的索引为 1)。

INVALID_INLINE_TABLE

SQLSTATE:42000

无效的内联表。

有关更多详细信息,请参阅 INVALID_INLINE_TABLE

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE: 42K0K

逆分布函数 <funcName> 无效。

有关详细信息,请参阅 INVALID_INVERSE_DISTRIBUTION_FUNCTION

INVALID_JSON_ROOT_FIELD

SQLSTATE:22032

无法将 JSON 根字段转换为目标 Spark 类型。

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE:22032

输入架构 <jsonSchema> 只能包含 STRING 作为 MAP 的键类型。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE:F0000

配置“<bufferSizeConfKey>”的值必须小于 2048 MiB,但却为 <bufferSizeConfValue> MiB。

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE:42K0D

无效的 lambda 函数调用。

有关更多详细信息,请参阅 INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE:42613

不允许使用具有 LATERAL 关联的 <joinType> JOIN,因为 OUTER 子查询无法与其连接伙伴相关联。 删除 LATERAL 关联,或者改用 INNER JOIN 或 LEFT OUTER JOIN。

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE:42K0E

表达式 <expr> 等限制无效。

有关更多详细信息,请参阅 INVALID_LIMIT_LIKE_EXPRESSION

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE:42K0E

运算符需要确定性表达式,但实际表达式为 <sqlExprs>

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE:22003

数值 <rawStrippedQualifier> 超出了 <typeName> 的有效范围,最小值为 <minValue>,最大值为 <maxValue>。 请相应地调整值。

INVALID_OBSERVED_METRICS

SQLSTATE:42K0E

观察到的指标无效。

有关更多详细信息,请参阅 INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE:42K06

无效选项:

有关更多详细信息,请参阅 INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE:0A000

组聚合 pandas UDF <functionList> 不能与其他非 pandas 聚合函数一起调用。

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE:22023

提供的参数映射无效:

有关更多详细信息,请参阅 INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE:22023

<functionName> 中参数 <parameter> 的值无效:

有关更多详细信息,请参阅 INVALID_PARAMETER_VALUE

INVALID_PARTITION_OPERATION

SQLSTATE:42601

分区命令无效。

有关更多详细信息,请参阅 INVALID_PARTITION_OPERATION

INVALID_PIPELINE_ID

SQLSTATE:42604

管道 ID <pipelineId> 无效。

管道 ID 应该是格式为“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”的 UUID

INVALID_PRIVILEGE

SQLSTATE:42852

特权 <privilege> 对于 <securable> 无效。

INVALID_PROPERTY_KEY

SQLSTATE:42602

<key> 是一个无效的属性键,请使用引号,例如 SET <key>=<value>

INVALID_PROPERTY_VALUE

SQLSTATE:42602

<value> 是一个无效的属性值,请使用引号,例如 SET <key>=<value>

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE:42613

参数化查询必须使用位置参数或命名参数,但不能同时使用这两种参数。

INVALID_S3_COPY_CREDENTIALS

SQLSTATE:42501

COPY INTO 凭据必须包括 AWS_ACCESS_KEY、AWS_SECRET_KEY 和 AWS_SESSION_TOKEN。

INVALID_SAVE_MODE

SQLSTATE:42000

指定的保存模式 <mode> 无效。 有效的保存模式包括“append”、“overwrite”、“ignore”、“error”、“errorifexists”和“default”。

INVALID_SCHEMA

SQLSTATE:42K07

输入架构 <inputSchema> 不是有效的架构字符串。

有关更多详细信息,请参阅 INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE:42602

<name> 不是表/架构的有效名称。 有效名称仅包含字母字符、数字和 _。

INVALID_SCHEME

SQLSTATE:0AKUC

Unity Catalog 不支持 <name> 作为默认文件方案。

INVALID_SECRET_LOOKUP

SQLSTATE:22531

机密查找无效:

有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE:42000

预期格式为“SET”、“SET key”或“SET key=value”。 如果你要在键中包含特殊字符,或者在值中包含分号,请使用反引号,例如 SET key=value

INVALID_SHARED_ALIAS_NAME

SQLSTATE:42601

<sharedObjectType> 别名必须采用“schema.name”格式。

INVALID_SOURCE_CATALOG

SQLSTATE:42809

源目录不得位于 SYNC 命令的 Unity Catalog 中。 已找到 <catalog>

INVALID_SQL_ARG

SQLSTATE:42K08

sql() 的参数 <name> 无效。 请考虑将其替换为 SQL 文本或集合构造函数 (如 map()array()struct())。

INVALID_SQL_SYNTAX

SQLSTATE:42000

无效的 SQL 语法:

有关更多详细信息,请参阅 INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE:42604

暂存 <operation> 查询中的暂存路径无效:<path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

EXECUTE IMMEDIATE 的 INTO 子句仅适用于查询,但给定语句不是查询:<sqlString>

INVALID_SUBQUERY_EXPRESSION

SQLSTATE:42823

子查询无效:

有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE:42K0F

无法创建类型为 <obj> 的持久对象 <objName>,因为该对象引用了类型为 <tempObj> 的临时对象 <tempObjName>。 请将临时对象 <tempObjName> 设为持久对象,或将持久对象 <objName> 设为临时对象。

INVALID_TIMESTAMP_FORMAT

SQLSTATE:22000

提供的时间戳 <timestamp> 与预期的语法 <format> 不匹配。

INVALID_TIME_TRAVEL_SPEC

SQLSTATE:42K0E

在按时间顺序查看表时,无法同时指定版本和时间戳。

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE:42K0E

时间回溯时间戳表达式 <expr> 无效。

有关更多详细信息,请参阅 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE:42604

类型化文本 <valueType> 的值无效:<value>

INVALID_UDF_IMPLEMENTATION

SQLSTATE:38000

函数 <funcName> 未实现 ScalarFunction 和 AggregateFunction。

INVALID_UPGRADE_SYNTAX

SQLSTATE:42809

<command><supportedOrNot> 源表在 Hive 元存储中,而目标表在 Unity Catalog 中。

INVALID_URL

SQLSTATE:22P02

URL 无效:<url>。 如有必要,请将 <ansiConfig> 设置为“false”以绕过此错误。

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE:42000

<prettyName> 中使用的 <elem> 无效。

INVALID_UUID

SQLSTATE:42604

输入 <uuidInput> 不是有效的 UUID。

UUID 应采用“xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx”格式

请检查 UUID 的格式。

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE:42K09

变量类型必须是字符串类型,但实际类型是 <varType>

INVALID_WHERE_CONDITION

SQLSTATE:42903

WHERE 条件 <condition> 包含无效表达式:<expressionList>

重写查询以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE:42601

无法为 <aggFunc> 指定 ORDER BY 或窗口框架。

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE:42KDE

数据源写入器生成了无效数量的提交消息。 每个任务中应仅有一条写入器提交消息,但收到了 <detail>

INVALID_WRITE_DISTRIBUTION

SQLSTATE:42000

请求的写入分发无效。

有关详细信息,请参阅 INVALID_WRITE_DISTRIBUTION

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE:42K0E

联接条件 <joinCondition><conditionType> 类型无效,应为“BOOLEAN”。

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE:22000

在以下 Kinesis 流的分片 <shardId> 达到所需的序列号 <endSeqNum> 之前无法读取:

使用使用者模式 <consumerMode> 的 kinesis 流 <stream>。 由于潜在的数据丢失,此

查询将失败。 最后读取记录的序列号为 <lastSeqNum>

如果存在以下条件,则可能会发生这种情况:具有 endSeqNum 的数据已过期,或者 Kinesis 流已

删除并以相同名称进行了重建。 可以

在 spark 配置中将 spark.databricks.kinesis.failOnDataLoss 设置为 false 替代此失败行为。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE:42K04

从 Kinesis 提取的最小 shardId (<fetchedShardId>)

小于跟踪的最小 shardId (<trackedShardId>)。

此为意外错误,当删除 Kinesis 流并使用相同的名称重新创建,

并使用现有检查点位置重启使用此 Kinesis 流的流式处理查询时,会发生这种情况。

使用新的检查点位置重启流式处理查询,或使用新名称创建流。

KRYO_BUFFER_OVERFLOW

SQLSTATE:54006

Kryo 序列化失败:<exceptionMsg>。 若要避免这种情况,请增加“<bufferSizeConfKey>”值。

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE:42K03

LOAD DATA 输入路径不存在:<path>

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE:42601

LOCAL 必须与 file 的架构配合使用,但收到了:<actualSchema>

LOCATION_ALREADY_EXISTS

SQLSTATE:42710

无法将托管表命名为 <identifier>,因为它的关联位置 <location> 已存在。 请选择其他表名,或者先删除现有位置。

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

在使用 Trigger.AvailableNow 运行查询期间,Kafka 主题中某些分区丢失。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

最新偏移量 <tpsForLatestOffset> 的主题分区,结束偏移量 <tpsForEndOffset> 的主题分区

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

在消息反序列化中检测到格式错误的 Avro 消息。 分析模式:<mode>。 若要将格式错误的 Avro 消息作为 null 结果进行处理,请尝试将选项“mode”设置为“PERMISSIVE”。

MALFORMED_CSV_RECORD

SQLSTATE: KD000

CSV 记录的格式错误:<badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE:22023

在记录分析中检测到格式错误的记录:<badRecord>

分析模式:<failFastMode>。 若要将格式错误的记录作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。

有关更多详细信息,请参阅 MALFORMED_RECORD_IN_PARSING

MANAGED_TABLE_WITH_CRED

SQLSTATE:42613

不支持使用存储凭据创建托管表。

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE:55019

无法对具体化视图运行 <refreshType>,因为它之前包含 pipelineId。 若要启用 <refreshType>,请删除再重新创建具体化视图。

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE:56038

不允许具体化视图操作 <operation>

有关更多详细信息,请参阅 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE:0A000

必须显式为具体化视图中的输出表达式 <expression> 指定别名。

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

无法创建新变量 <variableName>,因为会话中的变量数超过允许的最大数目 (<maxNumVariables>)。

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE:22023

maxRecordsPerFetch 必须是小于或等于 <kinesisRecordLimit> 的正整数

MERGE_CARDINALITY_VIOLATION

SQLSTATE:23K01

MERGE 语句的 ON 搜索条件将目标表中的单行与源表的多行匹配。

这可能会导致对目标行执行多次更新或删除操作,这是不允许的。

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow 中的 Kafka 数据源应在预提取的偏移量中提供相同的主题分区给每个微批的结束偏移量。 此错误可能是暂时性的 - 请重启查询,如果仍然看到相同问题,请予以报告。

预提取偏移量 <tpsForPrefetched> 的主题分区,结束偏移量 <tpsForEndOffset> 的主题分区。

MISSING_AGGREGATION

SQLSTATE:42803

非聚合表达式 <expression> 基于不参与 GROUP BY 子句的列。

将列或表达式添加到 GROUP BY、聚合表达式,或者在不关心返回组中哪些值时使用 <expressionAnyValue>

有关更多详细信息,请参阅 MISSING_AGGREGATION

MISSING_CONNECTION_OPTION

SQLSTATE:42000

<connectionType>”类型的连接必须包括以下选项:<requiredOptions>

MISSING_GROUP_BY

SQLSTATE:42803

查询不包含 GROUP BY 子句。 添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE:42000

CHECK 约束必须具有名称。

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE:42KDD

参数 <parameterName> 对于 Kafka 是必需的,但未在 <functionName> 中指定。

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE:42KDD

需要参数 <parameterName>,但未在 <functionName> 中指定。

MODIFY_BUILTIN_CATALOG

SQLSTATE:42832

不支持修改内置目录 <catalogName>

MULTIPLE_LOAD_PATH

SQLSTATE:42000

Databricks Delta 在 load() API 中不支持多个输入路径。

路径:<pathList>。 若要通过从同一 Delta 表加载多个路径来

生成单个数据帧,请加载

具有相应分区筛选器的 Delta 表。 如果多个路径

来自不同的 Delta 表,请使用数据集的 union()/unionByName() API

来合并由单独的 load() API 调用生成的数据帧。

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE:42891

找到至少两个与给定条件匹配的约束。

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE:42K0E

无法在按时间顺序查看子句和选项中指定按时间顺序查看。

MULTIPLE_XML_DATA_SOURCE

SQLSTATE:42710

检测到多个名为 <provider> (<sourceNames>) 的数据源。 请指定完全限定的类名,或者从类路径中删除 <externalSource>

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE:42K0E

表达式 <expr> 不支持多个源。

MULTI_UDF_INTERFACE_ERROR

SQLSTATE:0A000

不允许实现多个 UDF 接口,UDF 类 <className>

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE:42613

子句 <clauses> 或选项互斥。 请删除其中的一个子句。

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE:42601

输入查询需要 <expectedType>,但基础表是 <givenType>

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE:4274K

函数 <functionName> 不支持命名参数;请改为使用函数调用的位置参数重试查询。

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE:0A000

无法调用函数 <functionName>,因为不支持 SQL UDF 的命名参数引用。 在此情况下,命名参数引用为 <argument>

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE:0A000

无法调用函数 <functionName>,因为此处未启用命名参数引用。

在此情况下,命名参数引用为 <argument>

将“spark.sql.allowNamedFunctionArguments”设置为“true”以启用功能。

NAMESPACE_ALREADY_EXISTS

SQLSTATE:42000

无法创建命名空间 <nameSpaceName>,因为它已存在。

选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS 子句以容许现有的命名空间。

NAMESPACE_NOT_EMPTY

SQLSTATE:42000

无法删除命名空间 <nameSpaceNameName>,因为它包含对象。

使用 DROP NAMESPACE ... CASCADE 删除命名空间及其所有对象。

NAMESPACE_NOT_FOUND

SQLSTATE:42000

找不到命名空间 <nameSpaceName>。 请验证该命名空间的拼写和正确性。

如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。

若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS。

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE:56038

此群集中未启用本机 XML 数据源。

NESTED_AGGREGATE_FUNCTION

SQLSTATE:42607

不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

不允许使用嵌套 EXECUTE IMMEDIATE 命令。 请确保提供的 SQL 查询 (<sqlString>) 不包含另一个 EXECUTE IMMEDIATE 命令。

NON_FOLDABLE_ARGUMENT

SQLSTATE:42K08

函数 <funcName> 要求参数 <paramName><paramType> 类型的可折叠表达式,但实际参数是不可折叠的。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42613

当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE:42613

当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE:42613

当 MERGE 语句中有多个 NOT MATCHED [BY TARGET] 子句时,只有最后一个 NOT MATCHED [BY TARGET] 子句可以省略该条件。

NON_LITERAL_PIVOT_VALUES

SQLSTATE:42K08

必须为透视值提供文本表达式,但找到的是 <expression>

NON_PARTITION_COLUMN

SQLSTATE:42000

PARTITION 子句不能包含非分区列:<columnName>

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE:42KDE

流式处理数据帧/数据集的 <windowFunc>(如列 <columnName>)不支持窗口函数。

结构化流式处理仅支持使用 WINDOW 函数的时间窗口聚合。 (窗口规范:<windowSpec>

NOT_ALLOWED_IN_FROM

SQLSTATE:42601

FROM 子句中不允许:

有关更多详细信息,请参阅 NOT_ALLOWED_IN_FROM

NOT_A_CONSTANT_STRING

SQLSTATE:42601

用于例程或 <name> 子句的表达式 <expr> 必须是非 NULL 的常量 STRING

有关更多详细信息,请参阅 NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE:42809

不允许对 <tableIdentWithDB> 执行操作 <operation>,因为它不是已分区表。

NOT_A_SCALAR_FUNCTION

SQLSTATE:42887

<functionName> 此处显示为标量表达式,但函数定义为表函数。 请更新查询以将函数调用移动到 FROM 子句中,或者将 <functionName> 重新定义为标量函数。

NOT_A_TABLE_FUNCTION

SQLSTATE:42887

<functionName> 此处显示为表函数,但函数定义为标量函数。 请更新查询以将函数调用移动到 FROM 子句外部,或者将 <functionName> 重新定义为表函数。

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE:42000

此处不允许分配 NULL。

有关更多详细信息,请参阅 NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE:0A000

不支持使用 ALTER TABLE ALTER/CHANGE COLUMN 将 <table> 的类型为 <originType> 的列 <originName> 更改为类型为 <newType><newName>

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE:0A000

v2 表不支持 <cmd>

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE:0A000

不支持 <cmd>,如果要启用它,请将“spark.sql.catalogImplementation”设置为“hive”。

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE:0A000

JDBC 目录中不支持的命令:

有关更多详细信息,请参阅 NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE:0A000

<operation> 在 SQL <endpoint> 上不受支持。

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE:42608

无法确定 <colName> 的默认值,因为它不可为空且没有默认值。

NO_HANDLER_FOR_UDAF

SQLSTATE:42000

没有适用于 UDAF“<functionName>”的处理程序。 请改用 sparkSession.udf.register(…)。

NO_MERGE_ACTION_SPECIFIED

SQLSTATE:42K0E

df.mergeInto 需要后跟至少一个 whenMatched/whenNotMatched/whenNotMatchedBySource。

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE:未分配

找不到路径“<path>”的父外部位置。 请在其中一个父路径上创建外部位置,然后再次重试查询或命令。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE:42S22

在 Protobuf 架构中找不到 <catalystFieldPath>

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE:未分配

生成表凭据时,找不到表“<tableId>”的存储位置。 请验证表类型和表位置 URL,然后再次重试查询或命令。

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE:未分配

找不到目录“<catalog>”。 请验证目录名称,然后再次重试查询或命令。

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE:未分配

外部位置“<externalLocation>”不存在。 请验证外部位置名称是否正确,然后再次重试查询或命令。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE:未分配

找不到元存储。 请让帐户管理员将元存储分配给当前工作区,然后再次重试查询或命令。

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE:未分配

共享提供程序“<providerName>”不存在。 请验证共享提供程序名称是否拼写正确,以及是否匹配现有的有效提供程序名称,然后再次重试查询或命令。

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE:未分配

收件人“<recipient>”不存在。 请验证收件人名称是否拼写正确,以及是否匹配现有的有效收件人的名称,然后再次重试查询或命令。

NO_SUCH_SHARE_EXCEPTION

SQLSTATE:未分配

共享“<share>”不存在。 请验证共享名是否拼写正确,以及是否匹配现有的有效共享的名称,然后再次重试查询或命令。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE:未分配

存储凭据“<storageCredential>”不存在。 请验证存储凭据名称是否拼写正确,以及是否匹配现有的有效存储凭据的名称,然后再次重试查询或命令。

NO_SUCH_USER_EXCEPTION

SQLSTATE:未分配

用户“<userName>”不存在。 请验证你授予权限或更改所有权的用户名是否拼写正确,以及是否匹配现有的有效用户的名称,然后再次重试查询或命令。

NO_UDF_INTERFACE

SQLSTATE:38000

UDF 类 <className> 不实现任何 UDF 接口。

NULLABLE_COLUMN_OR_FIELD

SQLSTATE:42000

列或字段 <name> 可为 null,但它必须不可为 null。

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE:42000

行 ID 属性不可为 null:<nullableRowIdAttrs>

NULL_MAP_KEY

SQLSTATE:2200E

不能使用 null 作为映射键。

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE:22003

<value> 无法解释为数字,因为它的位数超过了 38 位。

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE:22003

<value> 无法表示为 Decimal(<precision>, <scale>)。 如有必要,请将 <config> 设置为“false”以绕过此错误,改为返回 NULL。

NUM_COLUMNS_MISMATCH

SQLSTATE:42826

只能对列数相同的输入执行 <operator>,但第一个输入包含 <firstNumColumns> 列,而 <invalidOrdinalNum> 输入包含 <invalidNumColumns> 列。

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE:42826

给定别名的数目与输出列数不匹配。

函数名称:<funcName>;别名数:<aliasesNum>;输出列数:<outColsNum>

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE:22KD2

未提供自定义标识声明。

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE:42K0E

<location> 不支持调用函数 <functionName>;此处支持 <supportedFunctions>

OPERATION_CANCELED

SQLSTATE: HY008

操作已取消。

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE:0AKUD

操作 <operation> 需要启用 Unity Catalog。

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE:42KD1

<plan> 在只读会话模式下不受支持。

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE:42805

ORDER BY 位置 <index> 不在选择列表中(有效范围为 [1, <size>])。

PARSE_EMPTY_STATEMENT

SQLSTATE:42617

语法错误,意外空语句。

PARSE_SYNTAX_ERROR

SQLSTATE:42601

<error><hint> 位置或附近有语法错误。

PARTITIONS_ALREADY_EXIST

SQLSTATE:428FT

无法在表 <tableName> 中添加 (ADD) 或重命名 (RENAME TO) 分区 <partitionList>,因为它们已存在。

选择其他名称、删除现有分区,或添加 IF NOT EXISTS 子句以容许现有的分区。

PARTITIONS_NOT_FOUND

SQLSTATE:428FT

在表 <tableName> 中找不到分区 <partitionList>

请验证分区规范和表名。

若要容许删除时出错,请使用 ALTER TABLE ... DROP IF EXISTS PARTITION。

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE:42K04

<tableName> 中已存在分区位置 <locationPath>

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE:42KD5

未能执行 ALTER TABLE SET PARTITION LOCATION 语句,因为

分区位置 <location> 不在表目录 <table> 下。

若要修复此问题,请将分区的位置设置为 <table> 的子目录。

PARTITION_METADATA

SQLSTATE:0AKUC

不允许对表 <tableName> 执行 <action>,因为 Unity Catalog 中不支持存储分区元数据。

PATH_ALREADY_EXISTS

SQLSTATE:42K04

路径 <outputPath> 已存在。 请将模式设置为“overwrite”以覆盖现有路径。

PATH_NOT_FOUND

SQLSTATE:42K03

路径不存在:<path>

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE:42K09

透视值“<value>”无效:值数据类型 <valueType> 与透视列数据类型 <pivotType> 不匹配。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE:42K0G

找不到依赖项:<dependencyName>

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE:42K0G

读取路径中的 Protobuf 描述符文件时出错:<filePath>

PROTOBUF_FIELD_MISSING

SQLSTATE:42K0G

在 Protobuf 架构中的 <protobufSchema> 处搜索与给定的 <matchSize> 匹配的 <field>。 候选项:<matches>

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE:42K0G

在 Protobuf 架构中找到了 <field>,但 SQL 架构中没有匹配项。

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE:42K0G

字段的类型不匹配:<field>

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE:0A000

<protobufFunction> 不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE:42K0G

无法在描述符中找到消息 <messageName>

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE:42K0G

尚不支持 Protobuf 类型:<protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE:22000

无法重试 pubsub 提取阶段中的任务。 阶段 <stageInfo> 中的分区 <partitionInfo>,TID <taskId>

PS_INVALID_EMPTY_OPTION

SQLSTATE:42000

<key> 不能为空字符串。

PS_INVALID_KEY_TYPE

SQLSTATE:22000

无效的 PubSub dedup 密钥类型:<key>

PS_INVALID_OPTION

SQLSTATE:42000

PubSub 不支持选项 <key>。 它只能在测试中使用。

PS_INVALID_OPTION_TYPE

SQLSTATE:42000

无效的 <key> 类型。 <key> 的预期类型为类型 <type>

PS_INVALID_READ_LIMIT

SQLSTATE:42000

PubSub 流上的读取限制无效:<limit>

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE:22000

解码为 PubSubMessageMetadata 的 UnsafeRow 无效,所需的 proto 架构为:<protoSchema>。 输入 UnsafeRow 可能已损坏:<unsafeRow>

PS_MISSING_AUTH_INFO

SQLSTATE:42000

找不到完整的 PubSub 身份验证信息。

PS_MISSING_REQUIRED_OPTION

SQLSTATE:42000

无法找到所需选项:<key>

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE:22000

无法将原始数据检查点文件从 <src> 移动到目标目录:<dest>

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE:22000

无法启动 PubSub 流,因为存在多个失败的提取:<failedEpochs>

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE:22000

<key> 必须在以下边界内:(<min>, <max>)(不包括这两个边界)。

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE:42000

共享群集不支持使用实例配置文件进行身份验证。 使用 .option() 直接向流提供凭据。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE:0A000

PubSub 源连接器仅在禁用 spark.speculation 的群集中可用。

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE:42000

尝试在主题 <topicId> 上创建订阅 <subId> 时出错。 请检查是否有足够的权限来创建订阅,然后重试。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE:22000

无法分析串行化字节以生成 proto。

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE:0A000

如果不提供限制,则不支持 getOffset。

PYTHON_DATA_SOURCE_ERROR

SQLSTATE:38000

未能<action> Python 数据源 <type><msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

无法访问被引用表,因为以前分配的列掩码当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:

有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE:428HD

无法访问被引用表,因为以前分配的行级别安全策略当前与表架构不兼容;若要继续,请联系表的所有者以更新策略:

有关更多详细信息,请参阅 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE:4274K

<functionName> 函数调用设置了 <parameterName><alternativeName>,它们是彼此的别名。 请仅设置其中一个。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE:4274K

必须在没有名称的位置 <expectedPos> 分配函数 <functionName> 的必需参数 <parameterName>

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE:42K0G

在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:<fieldDescriptor>。 请尝试将选项 recursive.fields.max.depth 设置为 0 到 10 之间。 不允许超过 10 个递归级别。

RECURSIVE_VIEW

SQLSTATE:42K0H

检测到递归视图 <viewIdent>(周期:<newPath>)。

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE:42601

PARTITION 子句中不允许引用 DEFAULT 列值。

RELATION_LARGER_THAN_8G

SQLSTATE:54000

无法生成大于 8G 的 <relationName>

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE:57012

远程 HTTP 请求失败,错误代码为 <errorCode>,错误消息为 <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE:22032

由于无法分析远程 HTTP 响应的 JSON 结果,因此无法计算 <functionName> SQL 函数;错误消息为“<errorMessage>”。 查看 API 文档:<docUrl>。 请修复错误消息中指示的问题,然后再次重试查询。

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE:57012

由于无法处理意外的远程 HTTP 响应,因此无法计算 <functionName> SQL 函数;错误消息为“<errorMessage>”。 查看 API 文档:<docUrl>。 请修复错误消息中指示的问题,然后再次重试查询。

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE:57012

远程请求在重试 <N> 次后失败;最后一个失败的 HTTP 错误代码为 <errorCode>,消息为 <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE:57012

由于 <errorMessage>,未能计算 <functionName> SQL 表达式。 查看 <docUrl> 中的要求。 请修复错误消息中指示的问题,然后再次重试查询。

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE:42K03

由于未找到 <sourcePath>,重命名失败。

REPEATED_CLAUSE

SQLSTATE:42614

在每个 <operation> 操作中最多可以使用 <clause> 子句一次。

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE:4274K

无法调用函数 <functionName>,因为需要名为 <parameterName> 的参数,但函数调用未提供值。 请更新函数调用,以(在索引 <index> 按位置或按名称)提供参数值,然后重试查询。

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE:42K05

<sessionCatalog> 需要单部分命名空间,但收到了 <namespace>

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE:42939

写入包含保留列 <columnList>,这些列

在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除

这些列,或者将

<config> 设置为 false 来禁用表上的更改数据馈送。

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE:0A000

选项 <option><source> 源的共享群集上具有受限值。

有关详细信息,请参阅 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE:42723

无法创建函数 <routineName>,因为它已存在。

选择其他名称、删除或替换现有函数,或者添加 IF NOT EXISTS 子句以容许现有的函数。

ROUTINE_NOT_FOUND

SQLSTATE:42883

找不到函数 <routineName>。 请验证架构和目录的拼写和正确性。

如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP FUNCTION IF EXISTS。

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE:42000

函数 <functionName> 不支持位置 <pos> 处指定的参数 <parameterName><suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE:42939

无法创建函数 <routineName>,因为指定的类名“<className>”保留供系统使用。 请重命名该类,然后重试。

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE:0A000

不支持使用行级别安全策略对表 <tableName> 创建 CHECK 约束。

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE:42734

<statementType> 语句尝试将行级别安全策略分配到某个表,但两个或更多个被引用列具有相同的名称 <columnName>,这是无效操作。

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE:0A000

不支持 <tableName> 的行级别安全策略:

有关更多详细信息,请参阅 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0A000

无法从表 <tableName> 执行 <statementType><columnName>,因为它已在行级安全策略中引用。 表所有者必须先删除或更改此策略,然后才能继续操作。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE:0A000

MERGE INTO 操作不支持源表 <tableName> 中的行级别安全策略。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE:0A000

MERGE INTO 操作不支持写入具有行级别安全策略的表 <tableName>

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE:42K05

此语句尝试将行级别安全策略分配到某个表,但被引用列 <columnName> 具有多个名称部分,这是无效操作。

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE:0A000

行级别安全策略仅在 Unity Catalog 中受支持。

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用行级别安全策略从表 <tableName> 进行 <mode> 克隆。

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE:0A000

不支持使用行级别安全策略将 <mode> 克隆到表 <tableName>

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE:0A000

无法执行 <statementType> 命令,因为不支持使用表提供程序“<provider>”为目标数据源分配行级别安全策略。

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE:21000

用作行的子查询返回了多个行。

RULE_ID_NOT_FOUND

SQLSTATE:22023

找不到规则名称“<ruleName>”的 ID。 如果要添加新规则,请修改 RuleIdCollection.scala。

SAMPLE_TABLE_PERMISSIONS

SQLSTATE:42832

示例数据库/表不支持权限。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE:0A000

相关的标量查询“<sqlExpr>”既不存在于 GROUP BY 中,也不存在于聚合函数中。

使用序号位置将其添加到 GROUP BY,或者将其包装在 first()(或 first_value)中(如果你不在意收到的值)。

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE:21000

用作表达式的子查询返回了多个行。

SCHEMA_ALREADY_EXISTS

SQLSTATE:42P06

无法创建架构 <schemaName>,因为它已存在。

选择其他名称、删除现有架构,或添加 IF NOT EXISTS 子句以容许现有的架构。

SCHEMA_NOT_EMPTY

SQLSTATE:2BP01

无法删除架构 <schemaName>,因为它包含对象。

使用 DROP SCHEMA … CASCADE 删除架构及其所有对象。

SCHEMA_NOT_FOUND

SQLSTATE:42704

找不到架构 <schemaName>。 请验证架构和目录的拼写和正确性。

如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。

若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS。

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE:42K0G

无法初始化架构注册表中的架构。 <reason>

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE:22023

<functionName> 函数的第二个参数需是整数。

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE:42K0E

无法使用对 SECRET 函数的一个或多个非加密引用执行 <commandType> 命令;请使用 AES_ENCRYPT 加密每个此类函数调用的结果,然后重试该命令

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE:42K08

表达式 <exprWithSeed> 的种子表达式 <seedExpr> 必须可折叠。

SERVER_IS_BUSY

SQLSTATE:08KD1

服务器正忙,无法处理该请求。 请稍等片刻,然后重试。

SORT_BY_WITHOUT_BUCKETING

SQLSTATE:42601

sortBy 必须与 bucketBy 一起使用。

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE:42601

没有显式列列表的 CREATE TABLE 无法指定存储桶信息。

请使用具有显式列列表的表单,然后指定存储桶信息。

或者,允许通过省略此子句来推断存储桶信息。

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE:42908

不能同时指定 CLUSTER BY 和 CLUSTERED BY INTO BUCKETS。

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE:42908

不能同时指定 CLUSTER BY 和 PARTITIONED BY。

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE:42601

没有显式列列表的 CREATE TABLE 无法指定 PARTITIONED BY。

请使用具有显式列列表的表单,然后指定 PARTITIONED BY。

或者,允许通过省略此 PARTITION BY 子句来推断分区方式。

SQL_CONF_NOT_FOUND

SQLSTATE:42K0I

找不到 SQL 配置 <sqlConf>。 请验证该配置是否存在。

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE:22000

访问目标暂存路径 <path> 时发生暂时性错误,请在几分钟后重试

STAR_GROUP_BY_POS

SQLSTATE:0A000

使用 GROUP BY 和序号位置时,不允许在选择列表中使用星号 (*)。

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE:42713

列列表中还指定了静态分区列 <staticName>

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE:KD006

未找到提交的批处理,检查点位置:<checkpointLocation>。 在停止之前,请确保查询已运行并提交任何微批次。

STDS_CONFLICT_OPTIONS

SQLSTATE:42613

这些选项 <options> 不能一起指定。 请指定一个。

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE:42K03

未能读取状态架构。 文件不存在,或者文件已损坏。 选项:<sourceOptions>

请重新运行流式处理查询以构造状态架构,如果错误仍然存在,则向相应的社区或供应商报告。

STDS_INVALID_OPTION_VALUE

SQLSTATE:42616

源选项“<optionName>”的值无效:

有关更多详细信息,请参阅 STDS_INVALID_OPTION_VALUE

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE:KD006

状态没有任何分区。 请仔细检查查询是否指向有效状态。 选项:<sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE:KD006

<batchId> 的偏移量日志不存在,检查点位置:<checkpointLocation>

请指定可用于查询的批处理 ID - 可使用状态元数据数据源查询可用的批处理 ID。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE:KD006

元数据不适用于 <batchId> 的偏移量日志,检查点位置:<checkpointLocation>

该检查点似乎只能使用较旧的 Spark 版本运行。 请使用最近的 Spark 版本运行流式处理查询,以便 Spark 构造状态元数据。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE:42601

必须指定“<optionName>”。

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE:0A000

无法从具体化视图 <viewName> 流式处理。 不支持从具体化视图流式处理。

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE:55019

需要刷新流式处理表 <tableName>。 请运行 CREATE OR REFRESH STREAMING TABLE <tableName> AS 来更新该表。

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE:56038

只能在增量实时表和 Databricks SQL 仓库中创建和刷新流式处理表。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE:42601

不允许 <operation> 操作:

有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE:42000

只能从流式处理查询创建流式处理表 <tableName>。 请将 STREAM 关键字添加到 FROM 子句,以将此关系转换为流式处理查询。

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE:42K02

<region> 中找不到 Kinesis 流 <streamName>

请启动指向正确流名称的新查询。

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE:22003

LIMIT 子句和 OFFSET 子句的总和不得大于最大 32 位整数值 (2,147,483,647),但发现限值 = <limit>,偏移值 = <offset>

SYNC_METADATA_DELTA_ONLY

SQLSTATE:0AKDD

仅 delta 表支持修复表同步元数据命令。

SYNC_METADATA_NOT_SUPPORTED

SQLSTATE:0AKUD

仅 Unity Catalog 表支持修复表同步元数据命令。

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE:42KD2

源表名 <srcTable> 必须与目标表名 <destTable> 相同。

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE:42P07

无法创建表或视图 <relationName>,因为它已存在。

选择其他名称、删除或替换现有对象、添加 IF NOT EXISTS 子句以容许预先存在的对象,或添加 OR REFRESH 子句来刷新现有的流式处理表。

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE:42P01

找不到表或视图 <relationName>。 请验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTS 或 DROP TABLE IF EXISTS。

有关更多详细信息,请参阅 TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE:0A000

无法对带有 TABLE 参数的 SQL 用户定义函数 <functionName> 执行 <action>,因为此功能尚未实现。

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE:38000

无法分析 Python 用户定义表函数:<msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE:22023

无法评估表函数 <functionName>,因为其表元数据为 <requestedMetadata>,但函数调用 <invalidFunctionCallProperty>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE:22023

无法评估表函数 <functionName>,因为其表元数据无效;<reason>

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE:54023

表值函数的表参数太多。

允许一个表参数,但收到了:<num>

如果要设置为允许,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”

TABLE_WITH_ID_NOT_FOUND

SQLSTATE:42P01

找不到 ID 为 <tableId> 的表。 请验证 UUID 是否正确。

TASK_WRITE_FAILED

SQLSTATE:58030

将行写入 <path> 时任务失败。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE:42P07

无法创建临时视图 <relationName>,因为它已存在。

选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS 子句以容许现有的视图。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE:428EK

CREATE TEMPORARY VIEW 或相应的数据集 API 仅接受单部分视图名称,但收到了:<actualName>

UC_BUCKETED_TABLES

SQLSTATE:0AKUC

Unity Catalog 中不支持存储桶表。

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE:3D000

对于 Unity Catalog,请显式指定目录名称。 例如,在主目录上显示授予 your.address@email.com 权限。

UC_COMMAND_NOT_SUPPORTED

SQLSTATE:0AKUC

Unity Catalog 不支持命令 <commandName>

有关更多详细信息,请参阅 UC_COMMAND_NOT_SUPPORTED

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE:0AKUC

Unity Catalog 中不支持数据源格式 <dataSourceFormatName>

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE:0AKUC

Unity Catalog 中不支持数据源选项。

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE:42601

外部卷必须存在 LOCATION 子句。 请检查语法用于创建外部卷的 “CREATE EXTERNAL VOLUME ... LOCATION …” 语法。

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE:0AKUC

不支持在 Unity Catalog 中使用文件方案 <schemeName> 创建表。

请改为使用同一表提供程序的 CREATE CONNECTION 命令创建联合数据源连接,然后使用 CREATE FOREIGN CATALOG 命令创建基于连接的目录以引用其中的表。

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE:0A000

未在此群集上启用 Hive 元存储联合。

此群集不支持访问目录 <catalogName>

UC_INVALID_DEPENDENCIES

SQLSTATE:56098

<viewName> 的依赖项在作为 <parsedDeps> 分析时被记录为 <storedDeps>。 此问题可能是因为不当使用非 SQL API 而导致。 可以通过运行 ALTER VIEW <viewName> AS <viewText> 来修复 Databricks Runtime 中的依赖项。

UC_INVALID_NAMESPACE

SQLSTATE:0AKUC

Unity Catalog 中不支持嵌套或空命名空间。

UC_INVALID_REFERENCE

SQLSTATE:0AKUC

无法在 Unity Catalog 对象中引用非 Unity Catalog 对象 <name>

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE:42601

托管卷不接受 LOCATION 子句。 请检查语法用于创建托管卷的 “CREATE VOLUME ...”语法。

UC_NOT_ENABLED

SQLSTATE:56038

此群集上未启用 Unity Catalog。

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE:56038

未在此群集上启用 Unity Catalog 查询联合。

UC_VOLUMES_NOT_ENABLED

SQLSTATE:56038

此实例上未启用对 Unity Catalog 卷的支持。

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE:56038

此实例上未启用对卷共享的支持。

UC_VOLUME_NOT_FOUND

SQLSTATE:42704

<name> 不存在。 请使用“SHOW VOLUMES”列出可用卷。

UDF_ERROR

SQLSTATE:未分配

函数 <fn> 执行失败

有关更多详细信息,请参阅 UDF_ERROR

UDF_LIMITS

SQLSTATE:54KD0

违反了一个或多个 UDF 限制。

有关更多详细信息,请参阅 UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE:54KD0

超出了 <maxNumUdfs> 个 UDF 的查询范围 UDF 限制(公共预览期间受限制)。 已找到 <numUdfs>。 UDF 为:<udfNames>

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE:0A000

处于共享访问模式的群集不支持 PySpark UDF <udf> (<eval-type>)。

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE:0A000

用户定义的 <functionType> 函数不支持参数默认值。

UDF_USER_CODE_ERROR

SQLSTATE:39000

函数 <fn> 执行失败。

有关更多详细信息,请参阅 UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE:42802

AS 子句中提供的别名数与 UDTF 输出的列数不一致。

需要 <aliasesNames> 别名,但收到了 <aliasesSize>

请确保提供的别名数与 UDTF 输出的列数一致。

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE:42802

未能计算用户定义的表函数,因为其“analyze”方法返回了请求的 OrderingColumn,其列名表达式包含不必要的别名 <aliasName>;请删除此别名,然后再次尝试查询。

UDTF_PYSPARK_NOT_SUPPORTED

SQLSTATE:0A000

处于共享访问模式的群集不支持 PySpark UDTF。 若要继续,请改为创建单用户群集并重新运行笔记本。

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE:53200

无法获取内存的 <requestedBytes> 字节,收到了 <receivedBytes>

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE:42K0G

无法将 SQL 类型 <toType> 转换为 Protobuf 类型 <protobufType>

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE:58030

无法提取 Hive 数据库 <dbName> 的表。

UNABLE_TO_INFER_SCHEMA

SQLSTATE:42KD9

无法推理 <format> 的架构。 必须手动指定。

UNAUTHORIZED_ACCESS

SQLSTATE:42501

未授权访问:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE:42P02

找到未绑定的参数:<name>。 请修复 args 并提供对 SQL 文本或集合构造函数 (例如 map()array()struct()) 的映射参数。

UNCLOSED_BRACKETED_COMMENT

SQLSTATE:42601

找到未闭合的方括号注释。 请在注释的末尾追加 */。

UNEXPECTED_INPUT_TYPE

SQLSTATE:42K09

函数 <functionName> 的参数 <paramIndex> 需要 <requiredType> 类型,但 <inputSql> 的类型为 <inputType>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

CREATE VIEW 语句中作为流式处理源的意外运算符 <op>

流式处理视图查询只能包含 SELECT、WHERE 和 UNION ALL 操作。

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE:4274K

无法调用函数 <functionName>,因为它在分配到 <parameterName> 的已命名参数之后包含位置参数;请重新排列它们,使位置参数排在前面,然后重试查询。

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE:42846

<className> 具有意外的表达式序列化程序。 预期返回“STRUCT”的“STRUCT”或“IF”,但找到了 <expr>

UNKNOWN_FIELD_EXCEPTION

SQLSTATE:KD003

分析期间遇到未知字段 <unknownFieldBlob>,可通过自动重试将其修复:<isRetryable>

有关更多详细信息,请参阅 UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE:4274K

函数 <functionName> 的调用在位置 <pos> 处包含一个未知的位置自变量 <sqlExpr>。 这是无效的。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE:42K0G

尝试将 <descriptorName> 视为消息,但它是 <containingType>

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE:42K0A

当未给定 <empty> 表达式时,UNPIVOT 要求所有给定的 <given> 表达式都是列。 这些表达式不是列:[<expressions>]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE:42K0A

至少需要为 UNPIVOT 指定一个值列,所有列均指定为 ID。

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE:42K09

逆透视值列必须共享一个最不常见的类型,不包括某些类型:[<types>]。

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE:428C4

所有逆透视值列的大小必须与值列名称 (<names>) 相同。

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE:4274K

无法调用函数 <functionName>,因为函数调用包含名为 <argumentName> 的参数的命名参数引用,但此函数不包括任何包含具有此名称的参数的签名。 你是否指以下其中一项? [<proposal>]。

UNRECOGNIZED_SQL_TYPE

SQLSTATE:42704

无法识别的 SQL 类型 - 名称:<typeName>,ID:<jdbcType>

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE:42883

无法将 <name> 解析为表值函数。

请确保 <name> 定义为表值函数,并且正确提供了所有必需的参数。

如果未定义 <name>,请在使用表值函数之前创建它。

有关定义表值函数的详细信息,请参阅 Apache Spark 文档。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE:42803

无法基于 select 子句推断 GROUP BY ALL 的分组列。 请显式指定分组列。

UNRESOLVED_COLUMN

SQLSTATE:42703

无法解析名称为 <objectName> 的列、变量或函数参数。

有关更多详细信息,请参阅 UNRESOLVED_COLUMN

UNRESOLVED_FIELD

SQLSTATE:42703

无法使用结构类型列 <columnPath> 解析具有名称 <fieldName> 的字段。

有关更多详细信息,请参阅 UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

SQLSTATE:42703

无法将列 <objectName> 解析为映射键。 如果键是字符串字面量,请在其两侧添加单引号 ''。

有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE:42883

无法解析搜索路径 <searchPath> 上的函数 <routineName>

有关更多详细信息,请参阅 UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE:42703

无法解析联接的 <side> 一侧的 USING 列 <colName><side> 一侧的列:[<suggestion>]。

UNRESOLVED_VARIABLE

SQLSTATE:42883

无法解析搜索路径 <searchPath> 上的变量 <variableName>

UNSET_NONEXISTENT_PROPERTIES

SQLSTATE:42K0J

尝试取消设置表 <table> 中不存在的属性 [<properties>]。

UNSUPPORTED_ADD_FILE

SQLSTATE:0A000

不支持添加文件。

有关更多详细信息,请参阅 UNSUPPORTED_ADD_FILE

UNSUPPORTED_ARROWTYPE

SQLSTATE:0A000

不支持的箭头类型 <typeName>

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE:42000

函数 <funcName> 不支持批处理查询。

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE:0A000

不能在表架构中使用 char/varchar 类型。

如果希望 Spark 将其视为与 Spark 3.0 及更早版本所视为的相同字符串类型,请将“spark.sql.legacy.charVarcharAsString”设置为“true”。

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE:42616

应向 UC 注册源路径和 sourceArchiveDir 的公共上级。

如果看到此错误消息,则可能是在不同的外部位置注册了源路径和 sourceArchiveDir。

请将它们放入单个外部位置。

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE:0A000

不支持约束子句 <clauses>

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE:42000

不支持的约束类型。 仅支持 <supportedConstraintTypes>

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE:0A000

不支持直接查询文件中的数据源类型:<dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE:0A000

不支持的数据类型 <typeName>

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE:0A000

数据源“<source>”不能以 <createMode> 模式写入。 请改用“追加”或“覆盖”模式。

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE:0A000

<format> 数据源不支持类型为 <columnType> 的列 <columnName>

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE:0A000

不支持 DEFAULT 列值。

有关更多详细信息,请参阅 UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE:0A000

不支持反序列化程序:

有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE:42621

无法使用生成表达式 <expressionStr> 创建生成的列 <fieldName>,因为 <reason>

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE:42K0E

查询运算符包含一个或多个不受支持的表达式。

考虑重写该查询,以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

无效的表达式:[<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE:42K0E

查询参数包含不受支持的表达式。

参数可以是变量或文本。

无效表达式:[<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE:42P20

窗口函数中不支持表达式 <sqlExpr>

UNSUPPORTED_FEATURE

SQLSTATE:0A000

不支持该功能:

有关详细信息,请参阅 UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE:0A000

不支持的用户定义函数类型:<language>

UNSUPPORTED_GENERATOR

SQLSTATE:42K0E

不支持生成器:

有关详细信息,请参阅 UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE:42K0E

grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用。

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE:42616

Kinesis 源不支持初始位置为 <initialPosition><trigger>

UNSUPPORTED_INSERT

SQLSTATE:42809

无法插入目标。

有关更多详细信息,请参阅 UNSUPPORTED_INSERT

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE:0AKDD

不支持使用数据源 <dataSource> 创建托管表 <tableName>。 需要使用数据源 DELTA 或使用 CREATE EXTERNAL TABLE <tableName>, 使用 <dataSource> 创建外部表

UNSUPPORTED_MERGE_CONDITION

SQLSTATE:42K0E

MERGE 操作包含不受支持的 <condName> 条件。

有关更多详细信息,请参阅 UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE:0A000

<tableName> 包含的行级别安全策略或列掩码间接引用了另一个包含行级别安全策略或列掩码的表;这种情况不受支持。 调用序列:<callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE:42902

无法覆盖正在读取的目标。

有关更多详细信息,请参阅 UNSUPPORTED_OVERWRITE

UNSUPPORTED_SAVE_MODE

SQLSTATE:0A000

以下对象不支持保存模式 <saveMode>

有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE:0A000

不支持流式传输视图。 原因:

有关详细信息,请参阅 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE:0A000

共享群集上的数据源 <source> 不支持流式处理选项 <options>

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE:0A000

不支持将数据源 <sink> 用作共享群集上的流式处理接收器。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE:0A000

不支持将数据源 <source> 用作共享群集上的流式处理源。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE:42000

函数 <funcName> 不支持流式处理。 请删除 STREAM 关键字

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE:0A000

Kinesis 源不支持 <streamReadLimit>

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE:0A000

不支持的子查询表达式:

有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE:56038

不支持创建具有时序列的主键

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE:0A000

不支持创建具有多个时序列 <colSeq> 的主键

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE:0A000

Kinesis 源不支持 <trigger>

UNSUPPORTED_TYPED_LITERAL

SQLSTATE:0A000

不支持 <unsupportedType> 类型的文本。 支持的类型为<supportedTypes>

UNTYPED_SCALA_UDF

SQLSTATE:42K0E

你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。

Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType),NULL 输入的结果为 0。 若要消除此错误,可以:

  1. 使用类型化的 Scala UDF API(没有返回类型参数),例如 udf((x: Int) => x)
  2. 如果输入类型都是非基元,则使用 Java UDF API,例如 udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
  3. 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API。

UPGRADE_NOT_SUPPORTED

SQLSTATE:0AKUC

表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:

有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE:42601

用户定义函数无效:

有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE:P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE:P0001

raise_error() 函数用于引发错误类:<errorClass>,需要参数:<expectedParms>

提供的参数 <providedParms> 与需要的参数不匹配。

请确保提供所有需要的参数。

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE:P0001

raise_error() 函数用于引发未知错误类:<errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE:42723

无法创建变量 <variableName>,因为它已存在。

选择其他名称,或者删除或替换现有变量。

VARIABLE_NOT_FOUND

SQLSTATE:42883

找不到 <variableName> 变量。 请验证架构和目录的拼写和正确性。

如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VARIABLE IF EXISTS。

VIEW_ALREADY_EXISTS

SQLSTATE:42P07

无法创建视图 <relationName>,因为它已存在。

选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE:54K00

视图 <viewName> 的深度超出了最大视图分辨率深度 (<maxNestedDepth>)。

分析已中止以避免错误。 若要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。

VIEW_NOT_FOUND

SQLSTATE:42P01

找不到视图 <relationName>。 请验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTS。

VOLUME_ALREADY_EXISTS

SQLSTATE:42000

无法创建卷 <relationName>,因为它已存在。

选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE:42K0E

<funcName> 函数只能在具有单个偏移量的有序的基于行的窗口框架中进行计算:<windowExpr>

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE:42601

Window 函数 <funcName> 需要 OVER 子句。

WITH_CREDENTIAL

SQLSTATE:42601

<type> 不支持 WITH CREDENTIAL 语法。

WRITE_STREAM_NOT_ALLOWED

SQLSTATE:42601

只能在流式处理数据集/数据帧上调用 writeStream

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE:0AKDC

未能执行命令,因为将新列添加到先前存在的 Delta 表时,

不支持 DEFAULT 值;请先添加没有默认值的列,

然后再运行第二个命令 ALTER TABLE ALTER COLUMN SET DEFAULT 以

请求将来插入的行。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE:0AKDE

未能执行 <commandType> 命令,因为它为某个列分配了 DEFAULT 值,

但未启用相应的表功能。 请在执行 ALTER TABLE tableName SET

TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’)

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported')。

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE:42809

操作 <operation> 需要 <requiredType>。 但 <objectName><foundType>。 请改用 <alternative>

WRONG_NUM_ARGS

SQLSTATE:42605

<functionName> 需要 <expectedNum> 个参数,但实际数量为 <actualNum>

有关更多详细信息,请参阅 WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE:42KDD

读取 XML 格式的文件需要 <rowTag> 选项。

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE:0N000

XML 不支持 <innerDataType> 作为内部类型 <dataType>。 在 <dataType> 中使用时,请将 <innerDataType> 包装在 StructType 字段中。

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE:22023

无法同时启用已获救的数据和通配符列。 请删除 wildcardColumnName 选项。

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

ZOrderBy 列 <columnName> 不存在。

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE:08003

找不到活动的 SparkSession

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE:0B000

当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE:42000

无法添加列 <colName>,因为名称是保留的。

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE:0A000

当前操作尝试将删除向量添加到不允许创建新删除向量的表中。 请提交 bug 报告。

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE:42000

所有添加删除向量的操作应将统计信息中的 tightBounds 列设置为 false。 请提交 bug 报告。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE:42KD3

要添加列 <columnName> 的索引 <columnIndex> 小于 0

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE:42KD3

无法添加 <columnName>,因为其父级不是 StructType。 已找到 <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE:42KD3

未在位置 <position> 处找到结构

DELTA_ADD_CONSTRAINTS

SQLSTATE:0A000

请使用 ALTER TABLE ADD CONSTRAINT 添加 CHECK 约束。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE:42621

已找到 <sqlExpr>。 生成的列不能使用聚合表达式

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE:42903

<operation><predicate> 中不支持聚合函数。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE:42837

ALTER TABLE CHANGE COLUMN 不支持将列 <currentType> 更改为 <newType>

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE:42000

只有使用 Liquid 聚类分析的 Delta 表支持使用 ALTER TABLE CLUSTER BY。

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE:42000

ALTER TABLE CLUSTER BY 不能应用于已分区表。

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE:42000

不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称 <newName> 的 Delta 表,可以通过将 <key> 设置为 true 来启用它。

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE:42000

无法使用 SET TBLPROPERTIES 启用 Liquid 表功能。 请使用 CREATE TABLE CLUSTER BY 创建使用 Liquid 聚类分析的 Delta 表。

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE:429BQ

无法将 <column> 的数据类型从 <from> 更改为 <to>。 此更改包含列删除和添加,因此它们不明确。 请使用 ALTER TABLE [ADD |DROP | RENAME] 列。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE:42702

不明确的分区列 <column> 可以是 <colMatches>

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE:42613

CREATE TABLE 包含两个不同的位置:<identifier><location>

可以从 CREATE TABLE 语句中删除 LOCATION 子句,或将

<config> 设置为 true 以跳过此检查。

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE:42KDC

<table> 不包含非存档文件中的足够记录,无法满足指定的限制(<limit> 条记录)。

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE:42KDC

在表 <table> 中找到 <numArchivedFiles> 个需要作为此查询的一部分扫描的可能已存档文件。

无法访问已存档的文件。 当前存档前时间配置为 <archivalTime>

请调整查询筛选器以排除所有已存档的文件。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE:42KD4

当表启用了更改数据馈送 (CDF) 并使用 DROP COLUMN 或 RENAME COLUMN 进行了架构更改后,不允许执行操作“<opName>”。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE:42703

无法删除以下不存在的列的 Bloom 筛选器索引:<unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100)

在为以下列编写 bloom 筛选器索引时发生 OutOfMemoryError:<columnsWithBloomFilterIndices>

可以通过为“numItems”选项选择更小的值、为“fpp”选项选择更大的值或为更少的列编制索引来减少 bloom 筛选器索引的内存占用。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE:429BQ

无法更改数据类型:<dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE:42601

无法使用 SET TBLPROPERTIES 更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION。

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE:42939

“provider”是保留的表属性,不能更改。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE:42703

无法为以下不存在的列创建 Bloom 筛选器索引:<unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE:42KD5

无法创建 <path>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE:42809

无法描述视图的历史记录。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE:42703

无法删除非索引列上的 bloom 筛选器索引:<columnName>

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE:0AKDC

无法计算表达式:<expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE:22000

需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE:0AKDC

无法生成表达式的代码:<expression>

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE:42809

此表配置为仅允许追加。 如果你要允许更新或删除,请使用“ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)”。

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE:42939

用户无法指定 Delta 表配置 <prop>

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE:22KD1

在事务日志中找到无法转换为相对路径的 uri (<uri>)。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE:42000

一个无法通过事务日志中找到的当前输入相对化的 (<path>)

路径 ()。 请用以下方式重新运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

然后运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE:22KD1

无法将 <currentPath> 重命名为 <newPath>

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE:42P01

无法替换表 <tableName>,因为它不存在。 使用 CREATE OR REPLACE TABLE 创建表。

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE:42703

无法解析 <schema> 中的列 <columnName>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE:22003

无法将表还原到 <version> 版本。 可用版本:[<startVersion>, <endVersion>]。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE:22003

无法将表还原到时间戳 (<requestedTimestamp>),因为它在可用的最新版本之后。 请使用早于 (<latestTimestamp>) 的时间戳

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE:42613

无法更改基于路径的表的位置。

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE:429BQ

无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE:429BQ

无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE:429BQ

无法更新 <typeName> 类型的 <tableName> 字段

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE:429BQ

无法更新 <tableName> 字段 <fieldName> 类型:通过添加、删除或更新其字段来更新结构

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE:428FT

无法将所有列用于分区列

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE:0A000

<table> 是视图。 不支持对视图的写入。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE:22003

由于溢出,无法将 <sourceType> 类型值写入 <targetType> 类型列 <columnName>

对输入值使用 try_cast 以容许溢出并改为返回 NULL。

如有必要,将 <storeAssignmentPolicyFlag> 设置为“LEGACY”以绕过此错误,或将 <updateAndMergeCastingFollowsAnsiEnabledFlag> 设置为 true 以还原旧行为,并遵循 UPDATE 和 MERGE 中的 <ansiEnabledFlag>

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE:0AKDC

无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE:0AKDC

由于数据架构不兼容,检索版本 <start><end> 之间的表更改失败。

你的读取架构是版本 <readVersion> 中的 <readSchema>,但我们发现版本 <incompatibleVersion> 中的数据架构不兼容。

如果可能,请通过将 <config> 设置为 endVersion 使用最终版本的架构来检索表更改,或者联系支持人员。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:0AKDC

由于架构更改不兼容,检索版本 <start><end> 之间的表更改失败。

你的读取架构是版本 <readVersion> 中的 <readSchema>,但我们发现版本 <incompatibleVersion> 中的架构更改不兼容。

如果可能,请分别将查询表从版本 <start> 更改为 <incompatibleVersion> - 1,从版本 <incompatibleVersion> 更改为 <end>

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 如果已从文件系统中手动删除数据,而不是使用表 DELETE 语句进行删除,则可能会发生这种情况。 此请求似乎针对更改数据馈送,如果是这样,当更改数据文件超出保留期并由 VACUUM 语句删除时,可能会发生此错误。 有关详细信息,请参阅 <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE:42807

无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE:42K03

无法为不存在的表 <path> 创建检查点。 是否手动删除了 _delta_log 目录中的文件?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE:42613

提供两条路径作为 CLONE 目标,因此使用哪条路径是不明确的。 在提供

路径的同时,还在 <externalLocation> 处提供 CLONE 的外部位置

<targetIdentifier>

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE:42000

未完全复制文件 (<fileName>)。 预期文件大小 <expectedSize>,找到:<actualSize>。 若要忽略文件大小检查以继续操作,请将 <config> 设置为 false。

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE:0AKDC

克隆源“<name>”不受支持 <mode>,其格式为 <format>

支持的格式为“delta”、“iceberg”和“parquet”。

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE:0A000

使用适用于 DBR 版本 < 14.0 的 Liquid 聚类分析 的 Delta 表不支持 CLONE。

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE:42P10

提供的聚类分析列与现有的表不匹配。

  • 提供的:<providedClusteringColumns>
  • 现有的:<existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE:22000

液体聚类分析需要聚类分析列具有统计信息。在统计信息架构中找不到聚类分析列“<columns>”:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE:22000

不允许从使用液体聚类分析的表目录创建不使用液体聚类分析的外部表;路径:<path>

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE:42000

<operation>”不支持聚类分析。

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE:0AKDE

无法使用 <tableFeatureToAdd> 表功能完成表的 <phaseOutType>(原因:<reason>)。 请再次尝试执行 OPTIMIZE 命令。

== 错误 ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE:42000

不允许使用已分区表 REPLACE 使用 Liquid 聚类分析的 Delta 表。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE:0A000

无任何聚类分析列的 Liquid 聚类分析 Delta 表不支持 SHOW CREATE TABLE。

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42000

使用 Liquid 集群的 Delta 表不允许动态分区覆盖模式。

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE:0A000

使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令不支持分区谓词。 请删除谓词:<predicates>

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE:42613

使用 Liquid 聚类分析的 Delta 表的 OPTIMIZE 命令无法指定 ZORDER BY。 请删除 ZORDER BY (<zOrderBy>)。

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE:54000

Liquid 聚类分析的 CLUSTER BY 最多支持 <numColumnsLimit> 个聚类分析列,但表中有 <actualNumColumns> 个聚类分析列。 请删除多余的聚类分析列。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE:42908

未定义架构时,不允许指定 CLUSTER BY。 请定义表 <tableName> 的架构。

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE:42613

无法同时指定聚类分析和分桶。 如果要使用聚类分析创建 Delta 表,请删除 CLUSTERED BY INTO BUCKETS/bucketBy。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE:42613

无法同时指定聚类分析和分区。 如果要使用聚类分析创建 Delta 表,请删除 PARTITIONED BY/partitionBy /partitionedBy。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE:0AKDC

分区列“<column>”不支持跳过数据。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE:0AKDC

类型为 <type> 的列“<column>”不支持跳过数据。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE:42703

未在启用列映射的表上设置最大列 ID 属性 (<prop>)。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE:42703

启用列映射的表上的最大列 ID 属性 (<prop>) 为 <tableMax>,它不能小于所有字段的最大列 ID (<fieldMax>)。

DELTA_COLUMN_NOT_FOUND

SQLSTATE:42703

无法找到给定 [<columnList>] 的 <columnName>

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE:42703

无法从 INSERT 列找到目标表的列“<targetCol>”:<colNames>。 INSERT 子句必须为目标表的所有列指定值。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE:42703

在下列位置无法找到 <columnName> 列:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE:42704

<columnPath> 应为嵌套数据类型,但找到的类型为 <other>。 正在查找

嵌套字段中 <column> 的索引

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE:2200G

结构列 <source> 无法插入到 <targetTable> 中的 <targetType> 字段 <targetField>

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE:22000

路径 <compactedPath><newPath> 的压缩验证失败:请提交 bug 报告。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE:22005

在数据类型为 <dataType><columName> 列中找到嵌套的 NullType。 Delta 不支持在复杂类型中写入 NullType。

DELTA_CONFLICT_SET_COLUMN

SQLSTATE:42701

这些 SET 列之间存在冲突:<columnList>

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE:42710

约束“<constraintName>”已存在。 请先删除旧约束。

旧约束:

<oldConstraint>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE:42704

无法从表 <tableName> 中删除不存在的约束 <constraintName>。 若要避免引发错误,请提供参数 IF EXISTS 或将 SQL 会话配置 <config> 设置为 <confValue>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE:42KD6

在目录中找不到表 <tableName> 的分区信息。 你是否已对该表运行“MSCK REPAIR TABLE”来发现分区?

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE:0AKDC

使用 CONVERT TO DELTA 时,无法将配置“<config>”设置为 <mode>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE:0AKDC

CONVERT TO DELTA 仅支持 Parquet 表,但你尝试转换 <sourceName> 源:<tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE:22000

无法在不收集统计信息的情况下启用行跟踪。

如果要启用行跟踪,请执行以下操作:

  1. 通过运行以下命令启用统计信息收集:

    SET <statisticsCollectionPropertyKey> = true

    1. 运行 CONVERT TO DELTA 而不使用“NO STATISTICS”选项。

如果不需要收集统计信息,请禁用行跟踪:

  1. 通过运行以下命令停用默认启用表功能:

    RESET <rowTrackingTableFeatureDefaultKey>

    1. 通过运行以下命令停用默认表属性:

      SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE:0AKDD

COPY INTO 目标必须是 Delta 表。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE:42601

你正在尝试使用 Delta 从以下位置创建外部表 <tableName>

<path> 创建外部表 ,但在输入路径为空时

未指定架构。

若要详细了解 Delta,请参阅 <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE:42K03

你正在尝试使用 Delta 从以下位置创建外部表 <tableName>

%2$s 创建外部表,但 %2$s/_delta_log 中不存在事务日志。

%2$s/_delta_log。 检查上游作业,确保它正在使用

格式(“delta”)写入,并且该路径是表的根。

若要详细了解 Delta,请参阅 <docLink>

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE:42KD7

指定的架构与位于 <path> 的现有架构不匹配。

== Specified ==

<specifiedSchema>

== Existing ==

<existingSchema>

== Differences ==

<schemaDifferences>

如果打算保留现有架构,可以

从 create table 命令省略该架构。 否则请确保

架构匹配。

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE:42000

无法使用 TBLPROPERTIES 启用 Liquid 表功能。 请使用 CREATE OR REPLACE TABLE CLUSTER BY 创建使用 Liquid 聚类分析的 Delta 表。

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE:42KD7

指定的分区与 <path> 处的现有分区不匹配。

== Specified ==

<specifiedColumns>

== Existing ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE:42KD7

指定的属性与 <path> 处的现有属性不匹配。

== Specified ==

<specificiedProperties>

== Existing ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE:42601

无法创建表(“<tableId>”)。 关联的位置(“<tableLocation>”)不为空,也不是 Delta 表。

DELTA_DATA_CHANGE_FALSE

SQLSTATE:0AKDE

无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“<op>”。

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 可以在 Delta 的数据保留策略下删除此 parquet 文件。

默认数据保留持续时间:<logRetentionPeriod>。 Prquet 文件的修改时间:<modificationTime>。 Prquet 文件的删除时间:<deletionTime>。 删除的 Delta 版本:<deletionVersion>

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE:2D521

提交删除向量缺少 numRecords 统计信息的文件是无效操作。

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE:0A000

检测到域 <domainNames> 的 DomainMetadata 操作,但未启用 DomainMetadataTableFeature。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE:42KD8

删除列的索引 <columnIndex> 低于 0

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE:2D521

针对路径 <path> 多次指定了文件操作“<actionType>”。

它与 <conflictingPath> 冲突。

单个提交中不能存在使用相同路径的多个文件操作。

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE:42711

已找到重复列 <coltype><duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE:42701

INSERT 子句中的重复列名

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE:42701

<message>

请在更新表之前删除重复的列。

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE:42701

发现跳过列的重复数据:<columns>

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE:42601

内部错误:同一事务中的两个 DomainMetadata 操作具有相同的域 <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE:22000

在表完整性验证期间,无法反序列化已删除的记录计数直方图。

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE:0A000

动态分区覆盖模式由会话配置或写入选项指定,但它已被 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false 禁用。

DELTA_EMPTY_DATA

SQLSTATE:428GU

创建 Delta 表时使用的数据没有任何列。

DELTA_EMPTY_DIRECTORY

SQLSTATE:42K03

在以下目录中未找到任何文件:<directory>

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE:22001

超过 char/varchar 类型长度限制。 检查失败:<expr>

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE:22018

无法将分区值 <value> 强制转换为 <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE:42703

在现有目标输出 <targetOutputColumns> 中找不到 <newAttributeName>

DELTA_FAILED_INFER_SCHEMA

SQLSTATE:42KD9

无法从给定的文件列表推断架构。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE:42KDA

无法合并文件 <file> 的架构:

<schema>

SQLSTATE:KD001

无法读取文件的页脚:<currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE:42601

无法识别谓词“<predicate>

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE:KD002

需要对最新版本的 Delta 源进行完全扫描,但找到了版本 <historicalVersion> 的历史扫描

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE:22005

无法合并字段“<field>”和“<fieldRoot>”。 <fieldChild>

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE:0AKDE

无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:<features>

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE:0AKDE

需要手动为表架构启用以下表功能:<unsupportedFeatures>

为此,请对上面列出的每个功能运行以下命令:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

将“table_name”和“feature_name”替换为实际值。

当前支持的功能:<supportedFeatures>

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE:0AKDE

无法删除功能,因为并发事务修改了表。

请重试此操作。

<concurrentCommit>

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE:0AKDE

无法从此表中删除 <feature>,因为它当前不存在于该表的协议中。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE:0AKDE

无法删除 <feature>,因为 Delta 日志包含使用该功能的历史版本。

请等到历史记录保持期 (<logRetentionPeriodKey>=<logRetentionPeriod>)

是时间已经过去,自上次激活该功能以来。

或者,请等待 TRUNCATE HISTORY 保留期到期 (<truncateHistoryLogRetentionPeriod>)

然后运行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE:0AKDE

历史记录截断仅适用于读取器功能。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE:0AKDE

无法删除 <feature>,因为不支持删除此功能。

请联系 Databricks 支持人员。

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE:0AKDE

无法删除 <feature>,因为此 Databricks 版本不支持它。

请考虑将 Databricks 与更高版本配合使用。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE:0AKDE

删除 <feature> 部分成功。

当前版本的表中不再使用该功能。 但是,该功能

仍存在于表的历史版本中。 无法删除表功能

从表协议中,直到到这些历史版本已过期。

若要从协议中删除表功能,请等待历史版本

过期,然后重复此命令。 历史版本的保持期为

当前已配置为 <logRetentionPeriodKey>=<logRetentionPeriod>

或者,请等待 TRUNCATE HISTORY 保留期到期 (<truncateHistoryLogRetentionPeriod>)

然后运行:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE:0AKDE

无法启用表功能 <feature>,因为它需要更高的读取器协议版本(当前为 <current>)。 请考虑将表的读取器协议版本升级到 <required>,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE:0AKDE

无法启用表功能 <feature>,因为它需要更高的编写器协议版本(当前为 <current>)。 请考虑将表的编写器协议版本升级到 <required>,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_FILE_ALREADY_EXISTS

SQLSTATE:42K04

现有文件路径 <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE:42613

无法同时指定文件列表和模式字符串。

DELTA_FILE_NOT_FOUND

SQLSTATE:42K03

文件路径 <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 如果已从文件系统中手动删除数据,而不是使用表 DELETE 语句进行删除,则会发生这种情况。 有关详细信息,请参阅 <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE:42K03

无此类文件或目录:<path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE:42K03

未在候选文件中找到要重写的文件 (<path>):

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE:KD003

已找到 MapType。 若要访问 MapType 的键或值,请指定一个

<key>

<value>

后跟列的名称(仅当该列是结构类型时)。

例如 mymap.key.mykey

如果列是基本类型,mymap.key 或 mymap.value 就足够了。

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE:42K09

<columnName> 是生成的列或由生成的列使用的列。 数据类型为 <columnType>。 它不接受数据类型 <dataType>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE:42K09

生成的列 <columnName> 的表达式类型为 <expressionType>,但列类型为 <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE:42K09

<currentName> 是生成的列或由生成的列使用的列。 数据类型为 <currentDataType>,无法转换为数据类型 <updateDataType>

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE:KD00E

IcebergCompatV<version> 的验证失败。

有关更多详细信息,请参阅 DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_ILLEGAL_OPTION

SQLSTATE:42616

选项“<name>”的值“<input>”无效,<explain>

DELTA_ILLEGAL_USAGE

SQLSTATE:42601

对 Delta 表执行 <operation> 时不允许使用 <option>

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE:42000

Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为:<expected>。 实际为:<actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE:F0000

(<setKeys>) 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE:KD003

错误访问 ArrayType。 使用 arrayname.element.elementname 位置

添加到数组。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE:KD003

已找到 ArrayType。 要访问 ArrayType 的元素,请指定

<rightName>

而不是 <wrongName>

DELTA_INCORRECT_GET_CONF

SQLSTATE:42000

使用 getConf() 而不是 `conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE:0AKDC

该错误通常在使用 LogStore 默认实现

(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。

若要获取表更新的事务 ACID 保证,必须使用

适合你的存储系统的正确 LogStore 实现。

有关详细信息,请参阅<docLink>

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE:42KD8

删除列的索引 <position> 等于或大于结构长度:<length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE:42KD8

添加列 <columnName> 的索引 <index> 大于结构长度:<length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE:42802

无法写入“<tableName>”,<columnName>;目标表具有 <numColumns> 列,但插入的数据具有 <insertColumns>

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE:42802

在 INSERT 中未指定列 <columnName>

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE:22023

自动压缩类型无效:<value>。 允许的值为:<allowed>

DELTA_INVALID_BUCKET_COUNT

SQLSTATE:22023

无效桶计数:<invalidBucketCount>。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 <validBucketCount>

DELTA_INVALID_BUCKET_INDEX

SQLSTATE:22023

无法在分区列中找到 Bucket 列

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE:2200P

间隔不能为 null 或空白。

DELTA_INVALID_CDC_RANGE

SQLSTATE:22003

从起始值 <start> 到结束值 <end> 的 CDC 范围无效。 结束值不能早于起始值。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE:42K05

属性名称“<columnName>”包含无效字符“,;{}()\n\t=”。 请使用别名对其进行重命名。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE:42K05

在架构列名的“,;{}()\n\t=”中发现无效字符。 请使用其他字符,然后重试。

DELTA_INVALID_CLONE_PATH

SQLSTATE:22KD1

CLONE 的目标位置需要是绝对路径或表名。 使用

绝对路径而不是 <path>

DELTA_INVALID_FORMAT

SQLSTATE:22000

检测到不兼容的格式。

<deltaRootPath>/_delta_log`` 处找到 Delta 的事务日志,

但你正在尝试使用 format("<format>") 执行 <operation><path>。 读取和写入 Delta 表时

必须使用“format("delta")”。

若要详细了解 Delta,请参阅 <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE:42621

生成的列不能使用不存在的列或其他生成的列

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE:42616

幂等 Dataframe 写入的选项无效:<reason>

DELTA_INVALID_INTERVAL

SQLSTATE:22006

<interval> 不是有效的 INTERVAL。

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE:25000

无效隔离级别“<isolationLevel>

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE:F0000

无法同时设置 <classConfig><schemeConfig>。 请仅设置其中一组。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE:42000

你正在尝试使用 Delta 创建托管表 <tableName>

但未指定架构。

若要详细了解 Delta,请参阅 <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE:42996

<columnName> 不是表 <tableName> 中的有效分区列。

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE:42996

在“,;{}()nt=”中找到包含无效字符的分区列。 请将名称更改为分区列。 可以通过设置 spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE:42996

不支持使用 <dataType> 类型的 <name> 列作为分区列。

DELTA_INVALID_PARTITION_PATH

SQLSTATE:22KD1

分区路径片段的形式应为 part1=foo/part2=bar。 分区路径:<path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE:KD004

协议版本无法从 <oldProtocol> 降级到 <newProtocol>

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE:KD004

不支持的 Delta 协议版本:表“<tableNameOrPath>”需要读取器版本 <readerRequired> 和写入器版本 <writerRequired>,但此版本的 Databricks 支持读取器版本 <supportedReaders> 和写入器版本 <supportedWriters>。 请升级到较新版本。

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE:22000

函数 <function> 是不支持用于 CDC 读取的表值函数。

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE:22007

提供的时间戳 <timestamp> 与预期的语法 <format> 不匹配。

DELTA_LOG_ALREADY_EXISTS

SQLSTATE:42K04

Delta 日志已存在于 <path>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE:42K03

如果从未删除它,则可能是查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE:22000

<tableName> 缺少具体化行 <rowTrackingColumn> 列名称。

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE:42000

请使用小于 Int.MaxValue - 8 的限制。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE:40000

此提交失败,因为它已尝试 <numAttempts> 次,但均未成功。

这可能是由多个并发提交连续提交 Delta 表

造成的。

提交开始于版本:<startVersion>

提交失败的版本:<failVersion>

尝试提交的操作数:<numActions>

尝试此提交所花费的总时间:<timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE:42000

文件列表必须最多有 <maxFileListSize> 个条目,实际有 <numFiles> 个。

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE:42806

无法将十进制类型与不兼容的 <decimalRanges> 合并

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE:25000

使 MERGE 语句的源保持具体化状态反复失败。

DELTA_MERGE_MISSING_WHEN

SQLSTATE:42601

MERGE 语句中必须至少包含一个 WHEN 子句。

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE:42601

运算符 <merge> 中的 <input> 缺失已解析属性 <missingAttributes>

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE:22005

意外分配密钥:<unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE:42601

无法解析给定 <cols><clause><sqlExpr>

DELTA_MISSING_CHANGE_DATA

SQLSTATE:KD002

获取 [<startVersion>, <endVersion>] 范围的更改数据时出错,因为未记录

版本 [<version>] 的更改数据。 如果在此表上启用了更改数据馈送,

请使用 DESCRIBE HISTORY 查看它首次启用的时间。

否则,若要开始记录更改数据,请使用 `ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true)`。

DELTA_MISSING_COLUMN

SQLSTATE:42703

无法在表列中找到 <columnName><columnList>

DELTA_MISSING_DELTA_TABLE

SQLSTATE:42P01

<tableName> 不是 Delta 表。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE:42P01

表不存在。 首先使用 CREATE TABLE <tableName> 创建空的 Delta 表。

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE:56038

找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。

有关更多详细信息,请参阅 <docLink>

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE:23502

写入表中的数据中缺失具有 NOT NULL 约束的 <columnName> 列。

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE:42KD6

在架构 <columnList> 中找不到分区列 <columnName>

DELTA_MISSING_PART_FILES

SQLSTATE:42KD6

找不到检查点版本的所有组成部分文件:<version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE:0AKDC

CONVERT TO DELTA 仅支持 Parquet 表。 请将目标重写为 Parquet。如果它是 Parquet 目录,则为 <path>

DELTA_MISSING_SET_COLUMN

SQLSTATE:42703

SET 列 <columnName> 没有找到给定列:<columnList>

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE:42000

检测到不兼容的格式。

你正在尝试使用 Delta 执行 <operation><path>,但没有

事务日志。 检查上游作业,确保它正在使用

format("delta") 进行写入,并且你正在尝试对表基本路径执行 %1$s。

若要详细了解 Delta,请参阅 <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE:0AKDC

不支持指定模式“<mode>”。 支持的模式包括:<supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE:42614

为 CDC 读取提供的多个 <startingOrEnding> 参数。 请提供一个 <startingOrEnding> 时间戳或 <startingOrEnding> 版本。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE:42614

传递给列命令的多个 bloom 筛选器索引配置:<columnName>

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE:21506

无法执行合并,因为多个源行匹配并尝试

以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,

当多个源行在同一目标行上匹配时,结果可能是不明确的,

因为不清楚应该使用哪一个源行来更新或删除匹配的

目标行。 你可以预处理源表来消除

出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的

<usageReference>

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE:42000

以下列名仅限 Delta Bucket 表内部使用:<names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE:42K05

需要重命名嵌套字段以避免数据丢失。 字段:

<fields>

原始架构:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE:0AKDC

字段 <parent><nestType> 类型包含 NOT NULL 约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL 约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 <configKey> = true。

分析的 <nestType> 类型:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE:0A000

<operation> 条件不支持嵌套子查询。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE:23512

<tableName> 中有 <numRows> 行违反新的 CHECK 约束 (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE:23512

<tableName> 中有 <numRows> 行违反 <colName> 上的新 NOT NULL 约束

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE:42621

CHECK 约束“<name>”(<expr>) 应是一个布尔表达式。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE:0AKDC

<operation><expression> 中不支持非确定性函数

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE:42601

当 MERGE 语句中有多个 NOT MATCHED 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件

DELTA_NON_PARSABLE_TAG

SQLSTATE:42601

无法分析标记 <tag>

文件标记为:<tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE:KD005

写入 Delta 的数据需要包含至少一个非分区列。<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE:42P10

谓词引用非分区列“<columnName>”。 只能引用分区列:[<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE:42P10

指定了非分区列 <columnList>,但只能指定分区列:<fragment>

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE:42K05

Delta 目录需要一个单部分命名空间,但 <identifier> 是多部分命名空间。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE:42000

<table> 不是 Delta 表。 如果要使用 Databricks Delta 创建表,请先删除此表。

DELTA_NOT_A_DELTA_TABLE

SQLSTATE:0AKDD

<tableName> 不是 Delta 表。 如果要使用 Delta Lake 重新创建表,请先删除此表。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE:42K09

未在结构中找到不可为 null 的列:<struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE:23502

列违反了 NOT NULL 约束:<columnName>

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE:0A000

不能将不可为 null 的嵌套字段添加到可为 null 的父级。 请相应地设置父列的可为 null 性。

DELTA_NO_COMMITS_FOUND

SQLSTATE:KD006

未在 <logPath> 处找到提交

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE:KD006

<logPath> 处找不到可重新创建的提交

DELTA_NO_RELATION_TABLE

SQLSTATE:42P01

找不到表 <tableIdent>

DELTA_NO_START_FOR_CDC_READ

SQLSTATE:42601

没有为 CDC 读取提供 startingVersion 或 startingTimestamp。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE:42P18

Delta 不接受在架构中使用 NullTypes 进行流写入。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE:42601

请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。

DELTA_ONLY_OPERATION

SQLSTATE:0AKDD

<operation> 仅支持用于 Delta 表。

DELTA_OPERATION_MISSING_PATH

SQLSTATE:42601

请为 <operation> 提供路径或表标识符。

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE:0AKDC

不允许操作:Delta 表不支持 <operation>

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE:0AKDC

不允许的操作:不支持对 Delta 表执行 <operation><tableName>

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE:0A000

不支持在引用 Delta 表(包含生成列)的临时视图上执行 <operation> 命令。 请直接对 Delta 表运行 <operation> 命令

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE:42000

如果不设置 OVERWRITE = 'true',则无法指定复制选项 overwriteSchema。

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42613

“overwriteSchema”不能在动态分区覆盖模式下使用。

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE:22525

未能将分区列 <columnName> 的值 <value> 强制转换为 <dataType>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE:42703

在架构 [<schemaMap>] 中找不到分区列 <columnName>

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE:42613

转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE:42K03

<path> 不存在或不是 Delta 表。

DELTA_PATH_EXISTS

SQLSTATE:42K04

如果不设置 OVERWRITE = 'true',则无法写入已存在的路径 <path>

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE:2DKD0

可成功提交 Delta 表版本 <version>,但在执行提交后挂钩 <name><message> 时出错

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE:42K06

协议属性 <key> 需是整数。 已找到 <value>

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE:KD004

无法仅升级读取器协议版本以使用表功能。 写入器协议版本必须至少为 <writerVersion> 才能继续。 有关表协议版本的详细信息,请参阅 <docLink>

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE:428GU

尝试读取没有任何列的 Delta 表 <tableName>

使用 mergeSchema = true 选项写入一些新数据,以便能够读取表。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE:2201B

请重新检查“<regExpOption>”的语法

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE:42613

不能将 replaceWhere 与“按筛选器覆盖”结合使用

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE:44000

写入的数据不符合部分表覆盖条件或约束“<replaceWhere>”。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE:42613

“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE:42613

当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:<dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE:22000

无法分配缺少行计数统计信息的行 ID。

通过在 Scala 笔记本中运行以下代码来收集表的统计信息,然后重试:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE:KD007

检测到架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE:KD007

在版本 <version> 中检测到架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。 如果该问题在更改为

新的检查点目录后仍然出现,你可能需要更改现有的

“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录

从高于 <version> 的版本重新开始。

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE:KD007

在版本 <version> 中检测到架构更改:

流式处理源架构:<readSchema>

数据文件架构:<dataSchema>

请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

进展,则原因是你做出了不兼容的架构更改,需要

使用新的检查点目录从头开始启动查询。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE:KD007

自创建 DataFrame 或 DeltaTable 对象以来,

Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。

更改:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE:42908

未提供表架构。 使用 REPLACE 表且未提供 AS SELECT 查询时,请提供表的架构(列定义)。

DELTA_SCHEMA_NOT_SET

SQLSTATE:KD008

表架构未设置。 将数据写入其中或使用 CREATE TABLE 设置架构。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE:42KD7

新 Delta 位置的架构不同于当前表架构。

原始架构:

<original>

目标架构:

<destination>

如果这是预期更改,可以通过运行以下内容来关闭此检查:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE:42K03

找不到事务日志中引用的文件 <filePath>。 如果已从文件系统中手动删除数据,而不是使用表 DELETE 语句进行删除,则可能会发生这种情况。 此表似乎是浅表克隆,如果是这样,当从中克隆此表的原始表删除了该克隆仍在使用的文件时,可能会发生此错误。 如果你希望任何克隆独立于原始表,请改用 DEEP 克隆。

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE:42704

数据受收件人属性 <property> 的限制,此属性不适用于会话中的当前收件人。 请与数据提供商联系以解决此问题。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE:42P10

为 SHOW PARTITIONS 指定了非分区列 <badCols>

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE:42809

在未分区的表上不允许 SHOW PARTITIONS:<tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE:0A000

在版本 <version> 的流源中检测到已删除的数据(例如 <removedFile>)。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在路径 <dataPath> 中找到。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE:0A000

在版本 <version> 的源表中检测到数据更新(例如 <file>)。 目前不支持。 如果你想要忽略更新,请将选项“skipChangeCommits”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询。 源表可以在路径 <dataPath> 中找到。

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE:42613

请提供“<version>”或“<timestamp>

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE:42000

在 Parquet 元数据中找不到列的 <statsType> 统计信息:<columnPath>

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE:KD002

我们检测到 Delta 流式处理源中 Delta 版本 <previousSchemaChangeVersion><currentSchemaChangeVersion> 之间的一个或多个非累加架构更改 (<opType>)。

在我们使用 <currentSchemaChangeVersion> 处的最终架构继续进行流处理之前,请检查是否要手动将架构更改传播到接收器表。

修复接收器表的架构或确定无需修复后,可以设置以下 SQL 配置之一,以解除阻止非累加架构更改并继续进行流处理。

若要仅针对此系列架构更改解除阻止此特定流,请设置 <allowCkptVerKey>` = `<allowCkptVerValue>

若要解除阻止此特定流,请设置 <allowCkptKey>` = `<allowCkptValue>

若要解除阻止所有流,请设置 <allowAllKey>` = `<allowAllValue>

或者,在适用的情况下,可以在 SQL 配置中将 <allowAllMode> 替换为 <opSpecificMode>,以便仅解除阻止此架构更改类型的流。

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE:KD002

检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将“<config>”设置为“true”来强制启用流式读取,但需自负风险。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE:42KD4

流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。

有关解决此问题的更多信息和可能的后续步骤,请查看 <docLink> 上的文档

读取的架构:<readSchema>。 不兼容的数据架构:<incompatibleSchema>

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE:42KD4

流式读取在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。

请提供“schemaTrackingLocation”,以便为 Delta 流处理启用非累加架构演变。

有关详细信息,请参阅 <docLink>

读取的架构:<readSchema>。 不兼容的数据架构:<incompatibleSchema>

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE:22000

Delta 表的架构、表配置或协议在流式处理期间已更改。

架构或元数据跟踪日志已更新。

请重启流以使用更新的元数据继续处理。

更新的架构:<schema>

更新的表配置:<config>

更新的表协议:<protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE:22000

使用架构跟踪从源表 <tableId> 进行流式处理不支持行筛选器或列掩码。

请删除行筛选器或列掩码,或禁用架构跟踪。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE:22000

从位于“<table>”的表流式传输时检测到有冲突的架构位置“<loc>”。

另一个流可能正在重用相同的架构位置,这是不允许的。

请为此表中的某个流提供新的唯一 schemaTrackingLocation 路径或 streamingSourceTrackingId 作为读取器选项。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE:22000

架构位置“<schemaTrackingLocation>”必须放在检查点位置“<checkpointLocation>”下。

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE:22000

<location>”处的 Delta 流式处理源架构日志中的日志文件不完整。

架构日志可能已损坏。 请选择新的架构位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE:22000

尝试读取 Delta 流时检测到不兼容的 Delta 表 ID。

持久化表 ID:<persistedId>,表 ID:<tableId>

架构日志可能已重复使用。 请选择新的架构位置。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE:22000

尝试读取 Delta 流时检测到不兼容的分区架构。

持久化架构:<persistedSchema>,Delta 分区架构:<partitionSchema>

如果你最近手动更改了表的分区架构,请选择新的架构位置来重新初始化架构日志。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE:22000

无法初始化 Delta 流式处理源架构日志,因为

在提供从表版本 <a><b> 的流式处理批时,我们检测到不兼容的架构或协议更改。

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE:22000

无法从 Delta 流式处理源架构日志分析架构。

架构日志可能已损坏。 请选择新的架构位置。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE:42711

无法对表启用变更数据捕获。 表已包含

保留的列 <columnList>

这些列将在内部用作表的更改数据馈送的元数据。 若要为

表上的更改数据馈送将重命名/删除这些列。

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE:42P07

<tableName> 已存在。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE:0AKDC

DeltaTable.forPath 目前仅支持以 <allowedPrefixes> 开头的 hadoop 配置键,但获取的键为 <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE:KD007

<tableLocation> 处的 Delta 表已替换,但此命令使用的是该表。

表 ID 之前为 <oldId>,但现在为 <newId>

请重试当前命令,确保它读取的是一致的表视图。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE:42613

现有表 <tableName> 的位置为 <existingTableLocation>。 它与指定的位置 <tableLocation> 不匹配。

DELTA_TABLE_NOT_FOUND

SQLSTATE:42P01

Delta 表 <tableName> 不存在。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE:42809

表在 <operation> 中不受支持。 请改用路径。

DELTA_TABLE_ONLY_OPERATION

SQLSTATE:0AKDD

<tableName> 不是 Delta 表。 <operation> 仅支持用于 Delta 表。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE:428GU

目标表最终架构为空。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE:42816

提供的时间戳 (<providedTimestamp>) 晚于此

表 (<tableName>) 可用的最新版本。 请使用早于或等于 <maximumTimestamp> 的时间戳。

DELTA_TIMESTAMP_INVALID

SQLSTATE:42816

提供的时间戳 (<expr>) 无法转换为有效时间戳。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE:42604

<timeTravelKey> 需是有效的开始值。

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE:42K03

<path>:由于手动删除或日志保留策略 (<logRetentionKey>=<logRetention>) 和检查点保留策略 (<checkpointRetentionKey>=<checkpointRetention>) 导致事务日志被截断,无法在版本 <version> 中重构状态

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE:0AKDC

不允许操作:Delta 表上的 TRUNCATE TABLE 不支持分区谓词;使用 DELETE 删除特定的分区或行。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE:42621

已找到 <udfExpr>。 生成的列不能使用用户定义的函数

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE:42601

意外的操作表达式 <expression>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE:KD009

需要 <expectedColsSize> 分区列 <parsedColsSize>,但通过分析文件名 <path> 找到了 <expectedCols> 分区列 <parsedCols>

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE:KD00A

应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE:KD009

需要分区列 <expectedCol>,但通过分析文件名 <path> 找到了分区列 <parsedCol>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE:KD009

用于调用 CONVERT TO DELTA 的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。

目录分区架构:

<catalogPartitionSchema>

提供的分区架构:

<userPartitionSchema>

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE:0AKDC

仅 Unity Catalog 表支持通用格式。

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE:KD00E

通用格式 (<format>) 验证失败:<violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE:F0000

指定了未知配置:<config>

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE:42601

未知特权:<privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE:42601

未知 ReadLimit:<limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE:42601

无法识别的列更改 <otherClass>。 运行的 Delta Lake 版本可能已过时。

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE:56038

无法识别的不变量。 请升级 Spark 版本。

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE:KD00B

无法识别的日志文件 <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE:42616

尝试取消设置表 <tableName> 中不存在的属性“<property>

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE:0AKDC

<path> 不支持使用绝对路径添加文件

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE:0AKDC

ALTER TABLE REPLACE COLUMNS 操作不受支持。 原因:<details>

无法将架构从 更改为

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE:0AKDC

你尝试将现有表 (<tableName>) 替换为 CLONE。 此操作

不受支持。 尝试使用其他 CLONE 目标位置或删除当前目标位置中的表。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE:0AKDC

不支持将列映射模式从“<oldMode>”更改为“<newMode>”。

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE:KD004

当前表协议版本不支持使用 更改

使用 <config>

列映射所需的 Delta 协议版本:

<requiredVersion>

表的当前 Delta 协议版本:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE:0AKDC

检测到架构更改:

旧架构:

<oldTableSchema>

新架构:

<newTableSchema>

在更改列映射模式期间不允许更改架构。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE:0AKDC

不支持使用列映射模式写入数据。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE:0AKDC

不支持在类型为 <dataType> 的列上创建 bloom 筛选器索引:<columnName>

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE:0AKDC

发现有列使用不受支持的数据类型:<dataTypeList>。 可以将“<config>”设置为“false”以禁用类型检查。 禁用此类型检查后,用户可以创建不受支持的 Delta 表,并且仅应在尝试读取/写入旧表时使用此选项。

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE:0A000

此 Delta 版本不支持深度克隆。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE:42809

<view> 是视图。 只有表支持 DESCRIBE DETAIL。

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE:0AKDC

不允许删除群集列 (<columnList>)。

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE:0AKDC

Delta 表不支持 DROP COLUMN。 <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE:0AKDC

只能从 StructType 中删除嵌套列。 已找到 <struct>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE:0AKDC

不允许删除分区列 (<columnList>)。

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE:0A000

<causedBy> 不支持的表达式类型 (<expType>)。 支持的类型为 [<supportedTypes>]。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE:42621

无法在生成的列中使用 <expression>

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE:56038

不支持的 Databricks 读取功能:表“<tableNameOrPath>”需要此版本的 Databricks 不支持的读取器表功能:<unsupported>

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE:56038

不支持的 Databricks 写入功能:表“<tableNameOrPath>”需要此版本的 Databricks 不支持的编写器表功能:<unsupported>

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE:56038

此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:<configs>

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE:0AKDE

预期表功能 <feature> 的状态是“supported”,但却是“<status>”。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE:0AKDC

仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 <dataType><columnName> 的字段。

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE:0A000

缺少删除向量文件的表版本不支持“FSCK REPAIR TABLE”命令。

请联系支持人员。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE:0A000

包含删除向量的表版本不支持“GENERATE symlink_format_manifest”命令。

若要生成不包含删除向量的表的版本,请运行“REORG TABLE table APPLY (PURGE)”。 然后重新运行“GENERATE”命令。

确保没有任何并发事务在 REORG 和 GENERATE 之间再次添加删除向量。

如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)”禁用此表中的删除向量。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE:0AKDC

不支持 StructType 以外的嵌套字段上的不变量。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE:0AKDC

<operation> 条件中不支持 In 子查询。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE:0A000

listKeywithPrefix 不可用

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE:0AKDC

利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE:0A000

带有架构演变的 MERGE INTO 操作目前不支持写入 CDC 输出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE:0AKDC

<operation> 条件中不支持多列 In 谓词。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE:0AKDC

目前不支持在嵌套列 <columnName> 上创建 bloom 筛选器索引

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE:0AKDC

<operation> 中不支持嵌套字段(字段 = <fieldName>)。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE:0AKDC

克隆目标表不为空。 在运行 CLONE 之前请对表运行 TRUNCATE 或 DELETE FROM。

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE:0AKDC

数据源 <dataSource> 不支持 <mode> 输出模式

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE:0AKDC

不支持在分区列 <columnName> 上创建 bloom 筛选器索引

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE:0AKDC

Delta 表不支持列重命名。 <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE:0AKDC

Delta 不支持在读取时指定架构。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE:0A000

Delta Bucket 表不支持 SORTED BY

DELTA_UNSUPPORTED_SOURCE

SQLSTATE:0AKDD

<operation> 目标仅支持 Delta 源。

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE:0AKDD

目前在插入期间不支持在分区规格中指定静态分区

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE:22023

不支持的策略名称:<strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE:0AKDC

<operation>(条件 = <cond>)中不支持子查询。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE:0AKDC

分区谓词中不支持子查询。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE:42613

无法以多种格式指定“按时间顺序查看”。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE:0AKDC

无法按时间顺序查看视图、子查询、流或更改数据馈送查询。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE:0A000

不支持截断示例表

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE:0AKDC

清空 Delta 表时,请提供基本路径 (<baseDeltaPath>)。 目前不支持清空特定分区。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE:42807

表实现不支持写入操作:<tableName>

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE:0A000

不支持写入示例表

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE:42846

无法将 <fromCatalog> 强制转换为 <toCatalog>。 所有嵌套列必须匹配。

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE:KD00C

版本 (<versionList>) 不是连续的。

有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE:23001

具有值的行违反了 CHECK 约束 <constraintName><expression>

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE:0A000

违反了表 <table> 的属性验证:

有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE:0A000

<viewIdentifier> 是视图。 不能将数据写入视图。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE:42703

数据架构中不存在 Z 排序列 <columnName>

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE:KD00D

<cols> 上的 Z 排序将

无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的

<link>

有关数据跳过和 Z 排序的详细信息。 可以通过

设置“%%sql set = false”

'%%sql set <zorderColStatKey> = false'

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE:42P10

<colName> 是分区列。 只能对数据列执行 Z 排序

自动换带机

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE:0A000

指定了架构时不支持架构演变模式 <addNewColumnsMode>。 若要使用此模式,可以通过 cloudFiles.schemaHints 提供架构。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE:42000

找到了(默认)目录列表模式的通知设置

身份验证选项:

<options>

如果要使用文件通知模式,请显式设置:

.option("cloudFiles.<useNotificationsKey>", "true")

如果要跳过选项验证步骤并忽略这些

身份验证选项,也可以设置:

.option("cloudFiles.ValidateOptionsKey>", "false")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE:42000

增量列表模式 (cloudFiles.<useIncrementalListingKey>)

和文件通知 (cloudFiles.<useNotificationsKey>)

已同时启用。

请确保仅选择一个。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE:42000

Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix

CF_BUCKET_MISMATCH

SQLSTATE:22000

文件事件 <fileEvent> 中的 <storeType> 与源 <source> 所预期的不同。

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE:22000

架构日志为空时无法演变架构。 架构日志位置:<logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE:22000

无法分析以下队列消息:<message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE:22000

无法从路径 <path> 解析容器名称,解析的 URI 为 <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE:22000

当有异步回填线程在运行时,无法运行目录列表

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE:42000

无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE:42501

自动加载程序无法删除已处理的文件,因为它对源目录没有写入权限。

<reason>

若要修复,可以执行以下操作之一:

  1. 授予对源目录的写入权限,或
  2. 将 cleanSource 设置为“OFF”

还可以通过将 SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors 设置为“true”来解除阻止流。

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE:22000

尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用 .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}") 显式提供分区列

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE:42000

输入路径 <path> 为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE:22000

无法创建事件网格订阅。 请确保服务

主体具有 <permissionType> 事件网格订阅。 有关详细信息,请参阅:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE:22000

无法创建事件网格订阅。 请确保 Microsoft.EventGrid

在订阅中注册为资源提供程序。 有关详细信息,请参阅:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE:22000

无法创建事件网格订阅。 请确保存储

帐户 (<storageAccount>) 位于资源组 (<resourceGroup>) 的下面,并且

存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE:0A000

<cloudStore> 不支持自动加载程序事件通知模式。

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE:22000

无法检查流是否为新流

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE:22000

无法创建订阅 <subscriptionName>。 已存在同名订阅,并与另一个主题 <otherTopicName> 相关联。 所需主题为 <proposedTopicName>。 要么删除现有订阅,要么创建采用新资源后缀的订阅。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE:22000

无法创建主题 <topicName>。 已存在同名的主题。<reason> 请删除现有主题或使用其他资源后缀重试

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE:22000

未能删除主题 <topicName> 的存储桶 <bucketName> 上 ID 为 <notificationId> 的通知。 请重试或通过 GCP Console 手动删除通知。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE:22000

无法从字符串反序列化持久化架构:“<jsonSchema>

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE:22000

无法在没有架构日志的情况下演变架构。

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE:42000

找不到 <fileFormatInput> 的提供程序

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE:22000

无法从输入路径 <path> 中的现有文件推断 <fileFormatInput> 格式的架构。 请确保正确配置选项或显式指定架构。

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE:22000

无法写入位于 <path> 的架构日志。

CF_FILE_FORMAT_REQUIRED

SQLSTATE:42000

无法找到所需选项:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE:22000

发现主题 <topicName> 有多个(<num> 个)订阅使用自动加载程序前缀:

<subscriptionList>

每个主题只能有一个订阅。 请手动确保主题没有多个订阅。

CF_GCP_AUTHENTICATION

SQLSTATE:42000

请提供以下所有凭据:<clientEmail><client>

<privateKey><privateKeyId>,或者一个都不提供,以使用默认的

GCP 凭据提供程序链对 GCP 资源进行身份验证。

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE:22000

收到太多 GCP 资源的标签(<num> 个)。 每项资源的最大标签计数为 <maxNum>

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE:22000

收到太多 GCP 资源的资源标记(<num> 个)。 每项资源的最大资源标记计数为 <maxNum>,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。

CF_INCOMPLETE_CSMS_RESPONSE_BLOCKS_EXCLUDE_EXISTING_FILES

SQLSTATE:22000

已请求自动加载程序通过将 includeExistingFiles 设置为 false 来忽略外部位置中的现有文件。 但是,托管文件事件服务仍在外部位置发现了现有文件。 请在托管文件事件服务发现外部位置的所有文件后重试。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE:22000

路径 <path> 上的架构日志中的日志文件不完整

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE:22000

自动加载程序检查点中的元数据文件不完整

CF_INCORRECT_SQL_PARAMS

SQLSTATE:42000

cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files("path", "json", map("option1", "value1"))。 收到:<params>

CF_INTERNAL_ERROR

SQLSTATE:42000

内部错误。

有关更多详细信息,请参阅 CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE:42000

无效 ARN:<arn>

CF_INVALID_CHECKPOINT

SQLSTATE:42000

此检查点不是有效的 CloudFiles 源

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE:42000

清理源选项 <value> 的模式无效。

CF_INVALID_CSMS_RESPONSE

SQLSTATE:22000

来自托管文件事件服务的响应无效。 请联系 Databricks 支持人员获取帮助。

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE:42000

GCP 资源的资源标记密钥 <key> 无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE:42000

GCP 资源的资源标记值 <value> 无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE:42000

自动加载程序与托管文件事件一起使用时,不支持以下选项:

<optionList>

建议删除这些选项,然后重启流。

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE:42000

cloudFiles.<schemaEvolutionModeKey> 必须是下列其中一项:{

"<addNewColumns>"

"<failOnNewColumns>"

"<rescue>"

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE:42000

架构提示只能指定特定列一次。

在这种情况下,请在架构提示中多次重新定义列:<columnName>

多次重新定义列

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE:42000

架构提示无法用于覆盖映射和数组的嵌套类型。

有冲突的列:<columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE:22000

应在此源上使用 ReadLimit 调用 latestOffset。

CF_LOG_FILE_MALFORMED

SQLSTATE:22000

日志文件格式不正确:无法从 <fileName> 中读取正确的日志版本。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE:42000

你正在将自动加载程序与托管文件事件配合使用,但输入路径“<path>”的外部位置似乎未启用文件事件,或输入路径无效。 请请求 Databricks 管理员在输入路径的外部位置启用文件事件。

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE:42000

你正在将自动加载程序与托管文件事件配合使用,但你无权访问输入路径“<path>”的外部位置或卷,或输入路径无效。 请请求 Databricks 管理员授予外部位置或卷的读取权限,或在现有外部位置或卷中提供有效的输入路径。

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE:56038

只能在 Databricks 无服务器版本上使用托管文件事件的自动加载程序。 若要继续,请将此工作负载移动到 Databricks 无服务器版本或关闭 cloudFiles.useManagedFileEvents 选项。

CF_MAX_MUST_BE_POSITIVE

SQLSTATE:42000

最大值必须为正数

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE:22000

多个流式处理查询在同时使用 <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE:42000

流式处理源检查点目录中的元数据文件丢失。 此元数据

文件包含流的重要默认选项,因此流无法立即

重启。 请联系 Databricks 支持人员获取帮助。

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE:42000

提供的架构中不存在分区列 <columnName>

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE:42000

如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE:22000

在存储桶 <topicName> 上发现主题 <bucketName> 的现有通知:

notification,id

<notificationList>

若要避免意外事件污染订阅服务器,请删除上述通知并重试。

CF_NEW_PARTITION_ERROR

SQLSTATE:22000

从文件中推断出新的分区列:[<filesList>]。 请提供架构中的所有分区列,或者提供想要通过使用 .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") 提取其中的值的分区列列表

CF_PARTITON_INFERENCE_ERROR

SQLSTATE:22000

尝试推断当前文件批次的分区架构时出错。 请使用 .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}") 显式提供分区列

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE:42000

当输入路径 <path> 不存在时无法读取文件。 请确保该输入路径存在,然后重试。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE:0A000

如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing 设置为 true 来启用异步回填/目录列表

CF_PREFIX_MISMATCH

SQLSTATE:22000

找到不匹配的事件:密钥 <key> 没有前缀:<prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE:22000

<message>

如果无需对代码进行任何其他更改,请设置 SQL

配置:“<sourceProtocolVersionKey> = <value>

以恢复流。 请参阅:

<docLink>

以获取更多详细信息。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE:42000

无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE:42000

无法创建通知服务:资源后缀不能为空。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE:42000

无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 (<percentSign>)。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE:42000

无法创建通知服务:资源后缀不能超过 <limit> 个字符。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE:42000

无法创建通知服务:资源后缀的字符数介于 <lowerLimit><upperLimit> 之间。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE:22000

找到受限的 GCP 资源标记密钥 (<key>)。 自动加载程序限制以下 GCP 资源标记密钥:[<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE:42000

cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE:22000

无法为前缀为 <prefix> 的主题 <topic> 创建通知。 已经有一个具有相同名称且前缀为 <oldPrefix> 的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE:42000

请提供带有选项 path 的源目录路径

CF_SOURCE_UNSUPPORTED

SQLSTATE:0A000

云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“<path>”,解析的 URI:“<uri>”。

CF_STATEFUL_STREAMING_SCHEMA_EVOLUTION

SQLSTATE:0A000

有状态流式处理查询不支持架构演变。 请将选项“cloudFiles.schemaEvolutionMode”设置为“rescue”或“none”。

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE:42000

cloud_files_state 函数接受表示 cloudFiles 流的检查点目录的字符串参数或标识流式处理表的多部分 tableName,以及表示要为其加载状态的检查点版本的可选第二个整数参数。 第二个参数也可能是“latest”,用于读取最新的检查点。 收到:<params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE:42000

输入检查点路径 <path> 无效。 路径不存在,或者找不到 cloud_files 源。

CF_STATE_INVALID_VERSION

SQLSTATE:42000

指定的版本 <version> 不存在,或在分析期间已删除。

CF_THREAD_IS_DEAD

SQLSTATE:22000

<threadName> 线程终止。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE:42000

无法从源检查点位置派生流检查点位置:<checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE:42000

无法在 <fileSize> 采样文件中检测源文件格式,找到了 <formats>。 请指定格式。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE:42000

无法提取存储桶信息。 路径:“<path>”,解析的 URI:“<uri>”。

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE:42000

无法提取密钥信息。 路径:“<path>”,解析的 URI:“<uri>”。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE:42000

无法提取存储帐户信息。路径:“<path>”,解析的 URI:“<uri>

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE:22000

已收到路径 <path> 的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE:22000

意外的 ReadLimit:<readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE:42000

找到未知选项密钥:

<optionList>

请确保所有提供的选项密钥都正确。 如果要跳过

选项验证步骤并忽略这些未知选项,你可以设置:

.option("cloudFiles.<validateOptions>", "false")

CF_UNKNOWN_READ_LIMIT

SQLSTATE:22000

未知 ReadLimit:<readLimit>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE:0A000

格式 <format> 不支持架构推理。 请指定架构。

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE:0A000

UnsupportedLogVersion:支持的最大日志版本为 v<maxVersion>``, but encountered v``<version>。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE:0A000

格式 <format> 不支持架构演变模式 <mode>。 请将架构演变模式设置为“none”。

CF_USE_DELTA_FORMAT

SQLSTATE:42000

此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (<deltaDocLink>),或读取 Delta 表作为流源 (<streamDeltaDocLink>)。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。

地理空间

EWKB_PARSE_ERROR

SQLSTATE:22023

分析 EWKB 时出错:<pos> 位置处的 <parseError>

GEOJSON_PARSE_ERROR

SQLSTATE:22023

分析 GeoJSON 时出错:<pos> 位置处的 <parseError>

有关更多详细信息,请参阅 GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE:22023

<h3Cell> 不是有效的 H3 单元格 ID

有关更多详细信息,请参阅 H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE:22023

H3 网格距离 <k> 必须为非负数

有关更多详细信息,请参阅 H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE:22023

H3 分辨率 <r> 必须介于 <minR><maxR>(含)之间

有关更多详细信息,请参阅 H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE:0A000

<h3Expression> 被禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层

有关更多详细信息,请参阅 H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE:22023

计算网格距离为 <k><h3Cell> 的六边形环时出现五边形

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE:22023

<h3Cell1><h3Cell2> 之间的 H3 网格距离未定义

WKB_PARSE_ERROR

SQLSTATE:22023

分析 WKB 时出错:<pos> 位置处的 <parseError>

有关更多详细信息,请参阅 WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE:22023

分析 WKT 时出错:<pos> 位置处的 <parseError>

有关更多详细信息,请参阅 WKT_PARSE_ERROR