Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
以下发行说明提供了由 Apache Spark 3.5.0 提供支持的 Databricks Runtime 16.1 的相关信息。
Databricks 于 2024 年 12 月发布了此版本。
提示
若要查看已终止支持 (EoS) 的 Databricks Runtime 版本的发行说明,请参阅终止支持 Databricks Runtime 发行说明。 EoS Databricks Runtime 版本已停用,可能不会更新。
行为更改
重大变更:Photon 的正则表达式处理现在变得与 Apache Spark 一致
在 Databricks Runtime 15.4 及更高版本中,Photon 中的正则表达式处理已更新,以匹配 Apache Spark 正则表达式处理的行为。 以前,Photon 运行的正则表达式函数(如 split()
和 regexp_extract()
)接受 Spark 分析器拒绝的某些正则表达式。 为了保持 Apache Spark 的一致性,对于 Spark 认为无效的正则表达式,Photon 查询现在将失败。
由于此更改,如果 Spark 代码包含无效正则表达式,则可能会看到错误。 例如,表达式 split(str_col, '{')
中包含不匹配的大括号,以前 Photon 会接受,现在提示失败。 若要修复此表达式,可以转义大括号字符:split(str_col, '\\{')
。
对于非 ASCII 字符的一些正则表达式匹配,Photon 和 Spark 行为也有所不同。 这也是为了让 Photon 的行为与 Apache Spark 一致而进行的更新。
VARIANT
数据类型不能再用于需要比较的操作
在 Databricks Runtime 16.1 及更高版本中,不能在包含 VARIANT
数据类型的查询中使用以下子句或运算符:
DISTINCT
INTERSECT
EXCEPT
UNION
DISTRIBUTE BY
此外,还将不能使用这些 DataFrame 函数:
df.dropDuplicates()
df.repartition()
这些操作会执行比较,使用 VARIANT 数据类型的比较会生成未定义的结果,在 Databricks 中不受支持。 如果在 Azure Databricks 工作负载或表中使用 VARIANT 类型,Databricks 建议进行以下更改:
- 更新查询或表达式以将
VARIANT
值显式强制转换为非VARIANT
数据类型。 - 如果字段必须与上述任何操作一起使用,请从
VARIANT
数据类型中提取这些字段,并使用非VARIANT
数据类型存储它们。
有关详细信息,请参阅查询变体数据。
新增功能和改进
- Apache Spark 中的排序规则支持为公共预览版
- Delta Lake 中的排序规则支持为公共预览版
-
清空的
LITE
模式为公共预览版 -
支持参数化
USE CATALOG with IDENTIFIER
子句 - 对表和视图的 COMMENT ON COLUMN 支持
- 新的 SQL 函数
- 更多函数的命名参数调用
-
Hive 元存储支持 REPAIR TABLE 命令的
SYNC METADATA
参数 - 已压缩 Apache Arrow 批处理的增强数据完整性
- 增加了对 Unity Catalog 标准访问模式(以前称为共享访问模式)计算的 Scala 方法的支持
- 内置 Teradata JDBC 驱动程序
- 对 Scala 的 StreamingQueryListener 支持
- 内置 Oracle JDBC 驱动程序
- 使用路径访问的 Delta 表的更多具体错误
Apache Spark 中的排序规则支持为公共预览版
现在可以将语言感知的、不区分大小写和不区分访问的排序规则分配给 STRING
列和表达式。 这些排序规则用于字符串比较、排序、分组操作以及许多字符串函数。 请参阅排序规则。
Delta Lake 中的排序规则支持为公共预览版
现在可以在创建或更改 Delta 表时为列定义排序规则。 请参阅 Delta Lake 的排序规则支持。
清空的 LITE
模式为公共预览版
现在,你可以使用 VACUUM table_name LITE
执行轻量级清空操作,以利用 Delta 事务日志中的元数据。 请参阅完整模式与精简模式和 VACUUM。
支持参数化 USE CATALOG with IDENTIFIER
子句
在 Databricks Runtime 16.1 及更高版本中,IDENTIFIER 子句 得到了 USE CATALOG 语句的支持。 借助此支持,你可以根据字符串变量或参数标记来参数化当前目录。
对表和视图的 COMMENT ON COLUMN 支持
在 Databricks Runtime 16.1 及更高版本中, COMMENT ON 语句支持更改视图和表列的注释。
新的 SQL 函数
在 Databricks Runtime 16.1 及更高版本中,提供了以下新的内置 SQL 函数:
- dayname(expr) 返回给定日期的星期几的三个英文首字母缩写。
- uniform(expr1, expr2 [,seed]) 返回一个在指定数值范围内具有独立且同分布值的随机值。
-
randstr(length) 返回
length
字母数字字符的一个随机字符串。
更多函数的命名参数调用
在 Databricks Runtime 16.1 及更高版本中,以下函数支持命名参数调用:
Hive 元存储支持 REPAIR TABLE 命令的 SYNC METADATA
参数
在 Databricks Runtime 16.1 及更高版本中,可以将 SYNC METADATA
参数与 REPAIR TABLE
命令一起使用来更新 Hive 元存储托管表的元数据。 请参阅 REPAIR TABLE。
已压缩 Apache Arrow 批处理的增强数据完整性
在 Databricks Runtime 16.1 及更高版本中,为了进一步防止数据损坏,每个 LZ4
压缩的 Arrow 批处理现在都包含 LZ4
内容和块校验和。 请参阅 LZ4 帧格式说明。
在 Unity 目录标准访问模式计算(以前共享访问模式)上添加了对 Scala 方法的支持
在 Databricks Runtime 16.1 及更高版本中,在 Unity 目录标准访问模式计算中,添加了对以下 Scala 方法的支持:Dataset.flatMapGroups()
、Dataset.mapGroups()
和 DataStreamWriter.foreach()
。
内置 Teradata JDBC 驱动程序
在 Databricks Runtime 16.1 及更高版本中,Teradata JDBC 驱动程序内置于 Azure Databricks 中。 如果通过 DriverManager
使用客户上传的 JDBC 驱动程序 JAR,则必须重写脚本以显式使用自定义 JAR。 否则,将使用内置驱动程序。 此驱动程序仅支持 Lakehouse 联盟。 对于其他用例,您需要提供自己的驱动程序。
对 Scala 的 StreamingQueryListener 支持
现在可以在标准访问模式配置的计算环境中使用 Scala 中的 StreamingQueryListener
。
内置 Oracle JDBC 驱动程序
在 Databricks Runtime 16.1 及更高版本中,Oracle JDBC 驱动程序内置于 Azure Databricks 中。 如果通过 DriverManager
使用客户上传的 JDBC 驱动程序 JAR,则必须重写脚本以显式使用自定义 JAR。 否则,将使用内置驱动程序。 此驱动程序仅支持 Lakehouse 联盟。 对于其他用例,您需要提供自己的驱动程序。
使用路径访问的 Delta 表的更多具体错误
对于使用路径访问的 Delta 表,新的错误消息体验现已推出。 所有异常现在都将转发给用户。 现在,当基础文件无法读取为 Delta 表时,异常 DELTA_MISSING_DELTA_TABLE
将保留。
其他更改
已重命名 cloudFiles
结构化流式处理源的错误代码
此版本包括重命名以下错误代码的更改:
-
_LEGACY_ERROR_TEMP_DBR_0143
已重命名为CF_INCORRECT_STREAM_USAGE
。 -
_LEGACY_ERROR_TEMP_DBR_0260
已重命名为CF_INCORRECT_BATCH_USAGE
。
Bug 修复
嵌套类型现已适当接受 NULL 约束
此版本修复了影响某些 Delta 生成的嵌套类型的列的漏洞,例如 STRUCT
。 这些列有时会根据嵌套字段的 NULL
或 NOT NULL
约束错误地拒绝表达式。 此问题已修复。
库升级
- 升级了 Python 库:
- ipyflow-core 从 0.0.198 升级到 0.0.201
- pyccolo 从 0.0.52 升级到 0.0.65
- 升级了 R 库:
- 升级了 Java 库:
- io.delta.delta-sharing-client_2.12 从 1.2.1 到 1.2.2
- org.lz4.lz4-java 从 1.8.0 升级到 1.8.0-databricks-1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider 从 1.6.2-linux-x86_64 升级到 2.4.1-linux-x86_64
Apache Spark
Databricks Runtime 16.1 包括 Apache Spark 3.5.0。 此版本包括 Databricks Runtime 16.0(EoS)中包含的所有 Spark 修复和改进,以及对 Spark 进行了以下其他 bug 修复和改进:
-
[SPARK-50482] [SC-182879][core] 已弃用无操作的
spark.shuffle.spill
配置 - [SPARK-50032] [SC-182706][sql][16.x] 允许使用完全限定的排序规则名称
-
[SPARK-50467] [SC-182823][python] 为内置函数添加
__all__
- [SPARK-48898] [SC-182828][sql] 修复 Variant 分解 bug
- [SPARK-50441] [SC-182668][sql] 修复引用 CTE 时参数化的标识符不起作用的问题
- [SPARK-50446] [SC-182639][python] 经过 Arrow 优化的 Python UDF 中的并发级别
- [SPARK-50430] [SC-182536][core] 使用标准 Properties.clone 而不是手动克隆
- [SPARK-50471] [SC-182790][python] 支持基于箭头的 Python 数据源编写器
- [SPARK-50466] [SC-182791][python] 优化字符串函数的文档字符串 - 第 1 部分
- [SPARK-50194] [DBR16.x][sc-182593][SS][python] 将新计时器 API 和初始状态 API 与计时器集成
- [SPARK-50437] [SC-182586][ss] 减少在 TransformWithStateExec 中创建反序列化程序的开销
- [SPARK-49676] [DBR16.x][SC-182538][SS][python] 添加对链式操作的支持...
- [SPARK-49294] [SC-182730][ui] 为 shuffle-write-time 复选框添加宽度属性。
- [SPARK-50426] [SC-182540][python] 使用内置数据源或 Java 数据源时避免静态 Python 数据源查找
- [SPARK-48356] [SC-182603][sql] FOR 语句的支持
-
[SPARK-50333] [SC-182136][sql] 为
CsvToStructs
提供代码生成支持(通过 Invoke 以及 RuntimeReplaceable 实现) - [SPARK-50285] [SC-182575] 提交到 StagedTable 实例的指标
-
[SPARK-50081] [SC-182344][sql] 为
XPath*
提供代码生成支持(通过 Invoke 以及 RuntimeReplaceable 实现) - [SPARK-50440] [SC-182592] [SQL] 重构 AttributeSeq.resolveCandidates
- [SPARK-50067] [SC-179648][sql] 为 SchemaOfCsv 提供代码生成支持(通过 Invoke 以及 RuntimeReplaceable 实现)
- [SPARK-49873] [SC-178577][sql] 修复错误测试导致的合并后失败
- [SPARK-50118] [SC-181259][connet] 在任务运行时重置隔离的状态缓存
- [SPARK-49873] [SC-178577][sql] 为 _LEGACY_ERROR_TEMP_1325 分配正确的错误类
-
[SPARK-50381] [SC-182197][core] 支持
spark.master.rest.maxThreads
- [SPARK-46725] [SC-182448][sql] 添加 DAYNAME 函数
- [SPARK-50270] [SC-181179][ss][PYTHON] 添加了 TransformWithStateInPandas 的自定义状态指标
- [SPARK-50118] 还原“[SC-181259][connet] 在任务运行时重置隔离的状态缓存”
- [SPARK-50075] [SC-181820][sql][PYTHON][connect] 为表值函数添加数据帧 API
- [SPARK-49470] [SC-175736][ui] 将 dataTables 样式表和 javascript 从 1.13.5 更新为 1.13.11
- [SPARK-50235] 还原“[SC-180786][sql] 在处理 ColumnarToRowExec 中的所有行后清理 ColumnVector 资源”
-
[SPARK-50324] [SC-182278][python][CONNECT] 使
createDataFrame
触发器至多触发一次配置Config
RPC - [SPARK-50387] [SC-182441][ss] 更新计时器过期条件及相关测试
- [SPARK-50287] [SC-182400][sql] 在 FileTable 中创建 WriteBuilder 时合并表和关系选项
-
[SPARK-50066] [SC-181484][sql] 为
SchemaOfXml
提供代码生成支持(通过 Invoke 以及 RuntimeReplaceable 实现) - [SPARK-50092] [SC-181568][sql] 修复多维数组的 PostgreSQL 连接器行为
- [SPARK-50318] [SC-181641][sql] 添加 IntervalUtils.makeYearMonthInterval 以减少解释和 codegen 之间的代码重复
- [SPARK-50312] [SC-181646][sql] 当 kerberos 为 true 时,SparkThriftServer createServer 参数传递错误
-
[SPARK-50246] [SC-181468][sql] 为
_LEGACY_ERROR_TEMP_2167
分配适当的错误条件:INVALID_JSON_RECORD_TYPE
- [SPARK-50214] [SC-180692][sql] 从 json/xml 中不应更改给定架构中的排序规则
-
[SPARK-50250] [SC-181466][sql] 为
_LEGACY_ERROR_TEMP_2075
分配适当的错误条件:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
-
[SPARK-50248] [SC-181467][sql] 为
_LEGACY_ERROR_TEMP_2058
分配适当的错误条件:INVALID_PARTITION_VALUE
- [SPARK-50118] [SC-181259][connet] 在任务运行时重置隔离的状态缓存
- [SPARK-50235] [SC-180786][sql] 在处理 ColumnarToRowExec 中的所有行后清理 ColumnVector 资源
-
[SPARK-50156] [SC-180781][sql] 将
_LEGACY_ERROR_TEMP_2113
集成到UNRECOGNIZED_STATISTIC
-
[SPARK-50069] [SC-180163][sql] 将
_LEGACY_ERROR_TEMP_0028
集成到UNSUPPORTED_FROM_TO_EXPRESSION
-
[SPARK-50154] [SC-180663][sql] 为
_LEGACY_ERROR_TEMP_0043
分配适当的错误条件:INVALID_RESET_COMMAND_FORMAT
-
[SPARK-49967] [SC-179534][sql] 为
StructsToJson
提供代码生成支持(to_json
) - [SPARK-50055] [SC-180978][sql] 添加 TryMakeInterval 替代项
-
[SPARK-50397] [SC-182367][core] 从
--ip
中删除已弃用的-i
和Master/Worker
参数 - [SPARK-50238] [SC-181434][python] 在 PySpark UDF/UDTF/UDAF 和 Python UC UDF 中添加变体支持
-
[SPARK-50079] [SC-179830][sql] 为
_LEGACY_ERROR_TEMP_2013
分配适当的错误条件:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
-
[SPARK-50182] [SC-180346][示例] 添加
submit-sql.sh
REST API 示例 -
[SPARK-49966] [SC-179501][sql] 使用
Invoke
实现JsonToStructs
(from_json
) - [SPARK-50302] [SC-182518][ss] 确保辅助索引大小与具有 TTL 的 TransformWithState 有状态变量的主索引大小相等
- [SPARK-50301] [SC-182241][ss][16.x] 使 TransformWithState 指标反映其直观含义
- [SPARK-50175] [SC-182140][sql] 更改排序规则优先计算
-
[SPARK-50148] [SC-180292][sql] 使
StaticInvoke
与声明引发异常的方法兼容 -
[SPARK-50280] [SC-181214][python] 重构结果排序和 compute_hist
compute_hist
中的空箱填充 - [SPARK-50190] [SC-182458][python] 从直方图中删除 Numpy 的直接依赖项
- [SPARK-50382] [SC-182368][connect] 添加有关使用/扩展 Spark Connect 进行应用程序开发的常规信息的文档
- [SPARK-50296] [SC-181464][python][CONNECT] 避免在 Python Connect 客户端的 threadpool 中使用类属性
- [SPARK-49566] [SC-182239][sql] 为 EXTEND 运算符添加 SQL 管道语法
- [SPARK-50036] [SC-179533][core][PYTHON] 在 REPL shell 中包含SPARK_LOG_SCHEMA
- [SPARK-49859] [SC-178259][connect] 将 multiprocessing.ThreadPool 替换为 ThreadPoolExecutor
-
[SPARK-50141] [SC-182378][python] 使
lpad
和rpad
接受列类型参数 - [SPARK-50379] [SC-182142][sql] 修复 WindowExecBase 中的 DayTimeIntevalType 处理
- [SPARK-49954] [SC-179110][sql] 为 SchemaOfJson 提供代码生成支持(通过 Invoke 以及 RuntimeReplaceable 实现)
-
[SPARK-50398] [SC-182341][core] 在 Spark 脚本中,使用 ExitCode
0
处理--help
的用例 - [SPARK-50377] [SC-182238][sql] 允许对可折叠的 RuntimeReplaceable 进行评估
- [SPARK-50241] [SC-181444][sql] 将 NullIntolerant Mixin 替换为 Expression.nullIntolerant 方法
-
[SPARK-50084] [SC-179672][sql] 为
_LEGACY_ERROR_TEMP_3168
分配适当的错误条件:MISSING_TIMEOUT_CONFIGURATION
-
[SPARK-50078] [SC-179649][sql] 为
_LEGACY_ERROR_TEMP_0038
分配适当的错误条件:DUPLICATED_CTE_NAMES
-
[SPARK-50057] [SC-179573][sql] 为
_LEGACY_ERROR_TEMP_1049
分配适当的错误条件:INVALID_ATTRIBUTE_NAME_SYNTAX
-
[SPARK-50070] [SC-179579][sql] 将
_LEGACY_ERROR_TEMP_0039
集成到UNSUPPORTED_SQL_STATEMENT
- [SPARK-50378] [SC-182235][ss] 添加自定义指标,用于跟踪在 transformWithState 中进程初始状态的花费
-
[SPARK-50029] [SC-179531][sql] 使
StaticInvoke
与返回Any
的方法兼容 -
[SPARK-49990] [SC-179497][sql] 提高
randStr
性能 -
[SPARK-50048] [SC-179528][sql] 为
_LEGACY_ERROR_TEMP_2114
分配适当的错误条件:UNRECOGNIZED_STATISTIC
-
[SPARK-50053] [SC-179532][sql] 将
_LEGACY_ERROR_TEMP_2104
转换为INTERNAL_ERROR
- [SPARK-49665] [SC-180054][sql] 为字符串函数剪裁排序规则支持
-
[SPARK-48549] [SC-176472][sql][PYTHON] 改进 SQL 函数
sentences
-
[SPARK-50022] [SC-179503][core][UI] 修复
MasterPage
,以在禁用 UI 时隐藏应用 UI 链接 - [SPARK-50087] [SC-182152] 在 CASE WHEN 中针对 MsSqlServer 和未来的连接器可靠处理布尔表达式
- [SPARK-49991] [ SC-179481][sql] 使 HadoopMapReduceCommitProtocol 遵循“mapreduce.output.basename”生成文件名
-
[SPARK-50038] [SC-179521][sql] 为
_LEGACY_ERROR_TEMP_0008
分配适当的错误条件:MERGE_WITHOUT_WHEN
-
[SPARK-50236] [SC-181671][sql] 为
_LEGACY_ERROR_TEMP_1156
分配适当的错误条件:COLUMN_NOT_DEFINED_IN_TABLE
-
[SPARK-50021] [SC-179500][core][UI] 修复
ApplicationPage
以便在禁用 UI 时隐藏应用 UI 链接 - [SPARK-49911] [SC-179111][sql] 修复支持二进制相等性的语义
-
[SPARK-50025] [SC-179496][sql] 将
_LEGACY_ERROR_TEMP_1253
集成到EXPECT_VIEW_NOT_TABLE
- [SPARK-49829] [SC-179480][ss] 修复优化在流与流联接中向状态存储添加输入时的 bug
-
[SPARK-50004] [SC-179499][sql] 将
_LEGACY_ERROR_TEMP_3327
集成到FIELD_NOT_FOUND
- [SPARK-50380] [SC-182210][sql] ReorderAssociativeOperator 应遵循 ConstantFolding 中的协定
- [SPARK-50340] [ SC-181859][sql] 在 INSERT 输入查询中解包 UDT
-
[SPARK-50237] [SC-181660][sql] 为
_LEGACY_ERROR_TEMP_2138-9
分配适当的错误条件:CIRCULAR_CLASS_REFERENCE
- [SPARK-50258] [SC-181993][sql] 修复 AQE 优化后的输出列顺序更改问题
-
[SPARK-49773] [SC-178369][sql] 来自
make_timestamp()
的未捕获 Java 异常,有时区错误 - [SPARK-49977] [SC-179265][sql] 使用基于堆栈的迭代计算以避免为深层表达式树创建许多 Scala List 对象
-
[SPARK-50153] [ SC-181591][sql] 添加
name
以RuleExecutor
使打印QueryExecutionMetrics
的日志更清晰 -
[SPARK-50320] [SC-181668][core] 通过删除
--remote
的警告,将experimental
作为正式选项 - [SPARK-49909] [SC-179492]还原“[SQL] 修复一些表达式的友好名称”
- [SPARK-50330] [SC-180720][sc-181764][SQL] 向排序和窗口节点添加提示
- [SPARK-50364] [SC-182003][sql] 在 Row.jsonValue 中实现 LocalDateTime 类型的序列化
-
[SPARK-50016] [SC-182139][sql] 为
_LEGACY_ERROR_TEMP_2067
分配适当的错误条件:UNSUPPORTED_PARTITION_TRANSFORM
- [SPARK-49899] [SC-181175][python][SS] 支持用于 TransformWithStateInPandas 的 deleteIfExists
- [SPARK-49757] [ SC-177824][sql] 在 SET CATALOG 语句中支持 IDENTIFIER 表达式
- [SPARK-50315] [SC-181886][sql] 支持用于 V1Fallback 写入的自定义指标
- [SPARK-42838] [SC-181509][sql] 将名称分配给错误类_LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][sql] 重构 ResolveSQLOnFile
- [SPARK-48344] [SC-181967][sql] 准备 SQL 脚本以添加执行框架
- [SPARK-49345] [SC-174786][connect] 确保使用当前运行的 Spark 会话
- [SPARK-49925] [SC-178882][sql] 为使用排序字符串进行排序添加测试
- [SPARK-50167] [SC-181199][python][CONNECT] 改进 PySpark 绘图错误提示和导入
- [SPARK-49368] [SC-174999][connect] 避免直接访问 protobuf lite 类
- [SPARK-50056] [SC-181378][sql] 为 ParseUrl 提供代码生成支持(由 Invoke 以及 RuntimeReplaceable 实现)
- [SPARK-49601] [SC-180770][ss][PYTHON] 支持 TransformWithStateInPandas 的初始状态处理
- [SPARK-49908] [SC-178768][sql] 为_LEGACY_ERROR_TEMP_0044分配正确的错误条件
- [SPARK-50144] [SC-180307][ss] 解决使用 DSv1 流式处理源在指标计算方面的局限性
- [SPARK-49874] [SC-178303][sql] 删除 trim 和 ltrim 归类规则说明符。
- [SPARK-49513] [SC-180339][ss] 在 transformWithStateInPandas API 中添加对计时器的支持
-
[SPARK-49119] [SC-175607][sql] 修复 v1 和 v2 之间的语法
show columns
不一致问题 -
[SPARK-49206] [SC-173704][core][UI] 将
Environment Variables
环境变量表添加到主环境页面EnvironmentPage
- [SPARK-49934] [SC-179581][sql] 添加隐式强制转换以使用字面值访问已排序的映射
- [SPARK-50049] [SC-181659][sql] 支持将自定义驱动程序指标写入 v2 表
- [SPARK-50171] [SC-180295][python] 将 numpy 在 KDE 绘图中设置为可选
- [SPARK-49962] [SC-179320][sql] 简化 AbstractStringTypes 类层次结构
- [SPARK-50226] [SC-181483][sql] 更正 MakeDTInterval 和 MakeYMInterval 以捕获 Java 异常
- [SPARK-48775] [SC-170801][sql][STS] 将 SQLContext 替换为 STS 中的 SparkSession
-
[SPARK-49015] [SC-175688][core] Connect Server 应遵循
spark.log.structuredLogging.enabled
- [SPARK-50327] [SC-181667][sql][16.x] 提取函数解析,以便在单遍分析器中重复使用
- [SPARK-49995] [SC-180762][sql] 向更多 TVF 添加命名参数支持
- [SPARK-49268] [SC-174903][core] SHS 历史记录提供程序中的日志 IO 异常
- [SPARK-48123] [SC-164989][core] 提供用于查询结构化日志的常量表架构
- [SPARK-49217] [SC-174904][core] 在 UnsafeShuffleWriter 中支持单独的缓冲区大小配置
- [SPARK-50325] [SC-181664][sql][16.x] 提取别名解析,以便在单遍分析器中重复使用
- [SPARK-50322] [SC-181665][sql] 修复子查询中的参数化标识符
-
[SPARK-48400] [SC-175283][core] 将
PrometheusServlet
提升为DeveloperApi
- [SPARK-50118] 还原“[SC-181259][connet] 在任务运行时重置隔离的状态缓存”
- [SPARK-50306] [SC-181564][python][CONNECT] 在 Spark Connect 中支持 Python 3.13
- [SPARK-50152] [SC-181264][ss] 支持使用状态数据源读取器的 handleInitialState
- [SPARK-50260] [SC-181271][connect] 重构和优化 Spark C...
- [SPARK-47591] [SC-163090][sql] Hive-thriftserver: 将带变量的 logInfo 迁移到结构化日志记录框架
-
[SPARK-49312] [SC-174672][python] 改进
assertSchemaEqual
的错误消息 -
[SPARK-49439] [SC-175236][sql] 修复
FromProtobuf
和ToProtobuf
表达式的友好名称 - [SPARK-50092] [ES-1258521] 修复多维数组的 PostgreSQL 连接器行为
- [SPARK-49913] [SC-181565][sql] 添加对嵌套标记范围中唯一标签名称的检查
- [SPARK-49563] [ SC-181465][sql] 为 WINDOW 运算符添加 SQL 管道语法
- [SPARK-49661] [SC-179021][sql] 实现剪裁排序规则哈希和比较。
- [SPARK-38912] [SC-181543][python] 删除与 classmethod 和属性相关的注释
- [SPARK-49770] [16.x][sc-179802][SC-179270][ss][RocksDB 强化] 改进 RocksDB SST 文件映射管理,并修复了使用现有快照重新加载同一版本的问题
- [SPARK-49002] 还原“[SC-172846][sql] 一致性地处理 WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY 中的无效位置
- [SPARK-49668] [SC-178268][sql] 实现对剪裁排序规则的排序规则键支持
- [SPARK-50262] [SC-181193][sql] 在更改排序规则时禁止指定复杂类型
- [SPARK-48898] [SC-181435][sql] 添加 Variant 分解函数
- [SPARK-48273] [SC-181381] 还原“[SQL] 修复了 PlanWithUnresolvedIdentifier 的后期重写”
-
[SPARK-50222] [SC-180706][core] 支持
spark.submit.appName
-
[SPARK-50208] [SC-180662][core] 支持
spark.master.useDriverIdAsAppName.enabled
- [SPARK-50224] [SC-180689][sql] IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 函数的替代方案应为 NullIntolerant
-
[SPARK-50247] [SC-180962][core] 将
BLOCK_MANAGER_REREGISTRATION_FAILED
定义为ExecutorExitCode
-
[SPARK-50282] [SC-181221][ml] 简化
TargetEncoderModel.transform
- [SPARK-50112] [SC-180763][sql] 允许 TransformWithState 运算符使用 Avro 编码
-
[SPARK-50267] [SC-181180][ml] 使用数据帧 API 改进
TargetEncoder.fit
- [SPARK-37178] [SC-180939][ml] 向 ml.feature 添加目标编码
- [SPARK-50118] [SC-181259][connet] 在任务运行时重置隔离的状态缓存
-
[SPARK-50085] [BEHAVE-176][sc-179809][PYTHON] 使使用 np.int8 的
lit(ndarray)
符合 numpy 数据类型 - [SPARK-50256] [SC-181048][sql] 添加轻量级验证,以检查每个优化程序规则后逻辑计划是否变成未解析状态
- [SPARK-50196] [SC-180932][connect] 修复 Python 错误上下文以使用正确的上下文
- [SPARK-50274] [SC-181181][core] 防止 DirectByteBufferOutputStream 中的 use-after-close
- [SPARK-49999] [ SC-180063][python][CONNECT] 支持 box、kde 和 hist 绘图中的可选“column”参数
- [SPARK-50273] [SC-181178][ss] 改进 RocksDB 锁获取/释放场景的日志记录
- [SPARK-50033] [SC-180720][sc-180659][SQL] 向 logical.Aggregate() 节点添加提示。
- [SPARK-50163] [16.x][sc-180201][SC-180664][ss] 修复 RocksDB 因完成侦听器导致的额外 acquireLock 释放
- [SPARK-50253] [SC-180969][ss] Stream-Stream 如果不支持,则 Join 不应提取检查点 ID。
-
[SPARK-50255] [SC-180964][python] 避免
compute_hist
中不必要的强制转换 -
[SPARK-50228] [SC-180780][sql] 将
RewriteCollationJoin
规则移动到FinishAnalysis
- [SPARK-50001] [SC-179524][python][PS][connect] 调整“精度”以作为盒状图的 kwargs 的一部分
- [SPARK-49637] [SC-180160][sql] 更改了 INVALID_FRACTION_OF_SECOND 的错误消息
- [SPARK-49530] [SC-180658][python] 从数据帧获取活动会话
-
[SPARK-50195] [SC-180654][core] 修复了
StandaloneRestServer
以正确将spark.app.name
传播到SparkSubmit
- [SPARK-50229] [SC-180773] 通过减少在逻辑规划期间创建的 AttributeReference 对象的生存期,减少驱动程序上宽架构的内存使用量
-
[SPARK-50231] [SC-180815][python] 使函数
instr
接受列substring
- [SPARK-49854] [SC-179812][16.x][SQL] 在会话克隆期间克隆项目管理程序
-
[SPARK-50219] [SC-180694][sql] 重构
ApplyCharTypePadding
,以便在单遍解析器中可以使用帮助程序 - [SPARK-50077] [SC-179827][sql] 引入了逻辑关系的新模式对象,以帮助避免默认的完整参数模式
- [SPARK-50128] [Backport][16x][SC-180677][ss] 在 Scala 中使用隐式编码器添加有状态处理器句柄 API
- [SPARK-50061] [SC-179961][sql] 为排序列启用分析表
- [SPARK-49993] [SC-180084][sql] 改进 Sum 和 Average 的错误消息
- [SPARK-49638] [SC-179665][sql] 删除 INVALID_URL 中的 ANSI 配置建议
-
[SPARK-50204] [SC-180660][sql] 提取
HiveTableRelation
读取路径解析 - [SPARK-50193] [SC-180651][ss] 修复了验证时间模式的异常处理
-
[SPARK-50179] [SC-180342][core] 使 REST API 中的
spark.app.name
属性可选 -
[SPARK-50068] [SC-180300][sql] 重构
TypeCoercion
和AnsiTypeCoercion
以分隔单节点转换 - [SPARK-49411] [SC-179483][ss] 在驱动程序和有状态运算符之间传递状态存储检查点 ID
- [SPARK-50124] [ SC-180294][sql] LIMIT/OFFSET 应保留数据排序
- [SPARK-49506] [SC-180165][sql] 优化用于可折叠数组的 ArrayBinarySearch
-
[SPARK-50097] [SC-179908][sql] 为
_LEGACY_ERROR_TEMP_1248
分配适当的错误条件:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
- [SPARK-50071] [SC-180159][sql][PYTHON] 添加 try_make_timestamp(_ltz and _ntz) 和相关测试
- [SPARK-50054] [SC-180228][python][CONNECT] 支持直方图
-
[SPARK-50015] [SC-179964][sql] 为
_LEGACY_ERROR_TEMP_1125
分配适当的错误条件:MISSING_DATABASE_FOR_V1_SESSION_CATALOG
- [SPARK-50155] [SC-180240][3.5] 将 scala 和 java 文件移动到其默认文件夹
- [SPARK-49980] [SC-180353][core][SQL] 修复因已取消任务中断而导致的潜在文件流泄漏
- [SPARK-49010] [SC-172304][sql][XML] 为 XML 架构推理区分大小写添加单元测试
- [SPARK-49562] [SC-180211][sql] 为聚合添加 SQL 管道语法
- [SPARK-49663] [SC-180239][sql] 在排序规则表达式中启用 RTRIM 建议
-
[SPARK-48965] [SC-175926][sql] 在
Dataset#toJSON
中使用正确的架构 - [SPARK-48493] [SC-175893][python] 使用直接箭头批处理支持增强 Python 数据源读取器以提高性能
-
[SPARK-49734] [SC-180226][python] 为函数
seed
添加shuffle
参数 - [SPARK-50174] [16.x][sc-180253][SQL] 提取 UnresolvedCatalogRelation 解析
- [SPARK-49989] [SC-179512][python][CONNECT] 支持 KDE 图/密度图
-
[SPARK-49805] [SC-180218][sql][ML] 从
function.scala
中删除 private[xxx] 函数 - [SPARK-49808] [SC-179490][sql] 修复由于 lazy val 导致的子查询执行中的死锁问题
- [SPARK-49929] [SC-180144][python][CONNECT] 支持箱图
-
[SPARK-50008] [SC-179290][ps][CONNECT] 避免在
attach_distributed_sequence_column
中执行不必要的操作 - [SPARK-49767] [SC-180161][ps][CONNECT] 重构内部函数调用
- [SPARK-49683] [SC-178341][sql] 块剪裁排序规则
- [SPARK-49939] [SC-178941][sql] 为 json_object_keys 提供代码生成支持(由 Invoke 以及 RuntimeReplaceable 实现)
-
[SPARK-50031] [SC-179582][sql] 添加
TryParseUrl
表达式 -
[SPARK-49766] [SC-178933][sql] 为
json_array_length
提供代码生成支持(由Invoke
以及RuntimeReplaceable
实现) - [SPARK-50046] [SC-180026][ss] 使用 EventTimeWatermark 节点的稳定顺序计算水印
-
[SPARK-49540] [SC-180145][ps] 统一使用
distributed_sequence_id
- [SPARK-50060] [SC-179965][sql] 已禁用在 TypeCoercion 和 AnsiTypeCoercion 中的不同排序类型之间转换
- [SPARK-49004] [SC-173244][connect] 对 Column API 内部函数使用单独的注册表
- [SPARK-49811] [SC-177888][sql]重命名 StringTypeAnyCollation
-
[SPARK-49202] [SC-180059][ps] 为直方图应用
ArrayBinarySearch
-
[SPARK-49203] [SC-175734][sql] 为
java.util.Arrays.binarySearch
添加表达式 -
[SPARK-50034] [SC-179816][core] 修复
SparkUncaughtExceptionHandler
中将致命错误误报为未捕获异常的问题 - [SPARK-50093] [SC-179836][sql] 使用 ICU 的排序规则应包括所用 ICU 库的版本信息
- [SPARK-49985] [SC-179644][sql] 删除对 Variant 中的间隔类型的支持
-
[SPARK-49103] [SC-173066][core] 支持
spark.master.rest.filters
- [SPARK-50090] [SC-179819] 重构 ResolveBinaryArithmetic 以分隔单节点转换
-
[SPARK-49902] [SC-179650][sql] 捕获
RegExpReplace
中的基础运行时错误 -
[SPARK-49126] [SC-173342][core] 将
spark.history.ui.maxApplications
配置定义移动到History.scala
- [SPARK-50094] [SC-179820][python][CONNECT] 在没有行号的编辑器上使用内存探查器时提供更好的错误消息
-
[SPARK-50062] [SC-179835][sql] 支持依据
InSet
的排序规则 - [SPARK-50035] [Backport][16x][SC-179530][ss] 添加对有状态处理器的显式 handleExpiredTimer 函数部分的支持
- [SPARK-49982] [SC-179814][sql] 修复 InMemoryRelation 中的负缓存
-
[SPARK-49082] [SC-173350][sql] 扩展
AvroDeserializer
中的类型提升 -
[SPARK-50088] [SC-179680][sql] 重构
UnresolvedStarBase.expand
- [SPARK-49802] [SC-179482][ss] 对在有状态处理器中使用的映射和列表类型添加读取更改源支持
- [SPARK-49846] [SC-179506][ss] 添加 numUpdatedStateRows 和 numRemovedStateRows 指标以用于 transformWithState 运算符
- [SPARK-50050] [SC-179643][python][CONNECT][16.x] 使 lit 接受 str 和 bool 类型的 numpy ndarray
- [SPARK-49821] [SC-179527][ss][PYTHON] 实现对 TransformWithStateInPandas 的 MapState 和 TTL 支持
- [SPARK-49558] [ SC-179485][sql] 为 LIMIT/OFFSET 和 ORDER/SORT/CLUSTER/DISTRIBUTE BY 添加 SQL 管道语法
-
[SPARK-48144] [SC-165725][lc-4080][SQL] 修复
canPlanAsBroadcastHashJoin
以遵循随机联接提示 -
[SPARK-50051] [SC-179571][python][CONNECT] 确保
lit
能与空的 numpy ndarray 一起工作 - [SPARK-50018] [SC-179488][sql] 使 AbstractStringType 可序列化
- [SPARK-50016] [SC-179491][sql] 改进显式排序规则不匹配错误
- [SPARK-50010] [SC-179487][sql] 展开隐式排序规则不匹配错误
- [SPARK-48749] [SC-170116][sql] 简化 UnaryPositive 并使用 RuntimeReplaceable 消除其催化剂规则
- [SPARK-49857] [SC-178576][sql] 将 storageLevel 添加到数据集 localCheckpoint API
- [SPARK-50058] [SC-179538][sql] 提取计划规范化函数,以便稍后在单遍解析器测试中使用这些函数
- [SPARK-50052] [SC-179535][python][16.X] 使 NumpyArrayConverter 支持空 str ndarray
- [SPARK-47261] [SC-173665][sql] 为错误_LEGACY_ERROR_TEMP_1172、_LEGACY_ERROR_TEMP_1173和_LEGACY_ERROR_TEMP_1174分配更好的名称
-
[SPARK-49147] [SC-173471][core] 将
KryoRegistrator
标记为 DeveloperApi 接口 - [SPARK-48949] [SC-173070][sql] SPJ: 运行时分区筛选
- [SPARK-50044] [SC-179523][python] 优化多个数学函数的文档字符串
-
[SPARK-48757] [SC-170113][core] 使
IndexShuffleBlockResolver
具有显式构造函数 - [SPARK-50037] [SQL] 重构 AttributeSeq.resolve(…)
- [SPARK-48782] [SC-177056][sql] 添加对目录中执行过程的支持
- [SPARK-49057] [SC-173081][sql] 在提交查询阶段时不要阻止 AQE 循环
- [SPARK-48824] [SC-176772][behave-167][SQL] 添加标识列 SQL 语法
- [SPARK-48773] [SC-170773] 配置生成器框架的文档配置“spark.default.parallelism”
- [SPARK-48735] [SC-169810][sql] BIN 函数的性能改进
-
[SPARK-48900] [SC-172433] 为作业/阶段取消的所有内部调用添加
reason
字段 -
[SPARK-48488] [SC-167605][core] 修复
log[info|warning|error]
中的SparkSubmit
方法 -
[SPARK-48708] [SC-169809][core] 从
KryoSerializer
中删除三个不必要的类型注册 - [SPARK-49958] [SC-179312][python] 用于字符串验证函数的 Python API
- [SPARK-49979] [SC-179264][sql] 修复在失败计划上进行两次收集时出现的 AQE 挂起问题
- [SPARK-48729] [SC-169795][sql] 添加 UserDefinedFunction 接口来表示 SQL 函数
-
[SPARK-49997] [SC-179279][sql] 将
_LEGACY_ERROR_TEMP_2165
集成到MALFORMED_RECORD_IN_PARSING
- [SPARK-49259] [SC-179271][ss]读取 Kafka 时基于大小的分区创建
- [SPARK-48129] [SC-165006][python] 在 PySpark 中提供常量表架构,用于查询结构化日志
- [SPARK-49951] [SC-179259][sql] 为 LEGACY_ERROR_TEMP分配正确的错误条件(1099|3085)
- [SPARK-49971] [SC-179278][sql] 为_LEGACY_ERROR_TEMP_1097分配正确的错误条件
-
[SPARK-49998] [SC-179277][sql] 将
_LEGACY_ERROR_TEMP_1252
集成到EXPECT_TABLE_NOT_VIEW
- [SPARK-49876] [SC-179262][connect] 从 Spark Connect 服务中删除全局锁
- [SPARK-49957] [SC-179202][sql] 用于字符串验证函数的 Scala API
- [SPARK-48480] [SC-173055][ss][CONNECT] StreamingQueryListener 不应受到 spark.interrupt() 的影响
- [SPARK-49643] [SC-179239][sql] 将_LEGACY_ERROR_TEMP_2042合并到ARITHMETIC_OVERFLOW
- [SPARK-49959] [SC-179109][sql] 修复 ColumnarArray.copy() 以从正确的偏移量读取空值
- [SPARK-49956] 还原“[SC-179070] 已使用 collect_set 表达式禁用排序规则”
-
[SPARK-49987] [SC-179180][sql] 修复当
seedExpression
在randstr
中不可折叠时出现的错误提示信息 - [SPARK-49948] [ SC-179158][ps][CONNECT] 在 Spark 框绘图上向 pandas 添加参数“精度”
- [SPARK-49970] [SC-179167][sql] 为_LEGACY_ERROR_TEMP_2069分配正确的错误条件
- [SPARK-49916] [SC-179108][sql] 为 ColumnType 和某些行中的数据类型之间的类型不匹配引发适当的异常
- [SPARK-49956] [SC-179070] 已使用 collect_set 表达式禁用排序规则
- [SPARK-49974] [16.x][sc-179071][SQL] 将 resolveRelations(...) 移出 Analyzer.scala
- [SPARK-47259] [SC-176437][sql] 为间隔错误的错误条件分配名称
- [SPARK-47430] [SC-173679][sql] 按映射类型重新分组以修复绑定引用异常
- [SPARK-49067] [SC-172616][sql] 将 utf-8 文本移动到 UrlCodec 类的内部方法中
- [SPARK-49955] [SC-178989][sql] null 值并不意味着分析 JSON 字符串 RDD 时损坏的文件
- [SPARK-49393] [SC-175212][sql] 在已弃用的目录插件 API 中,默认情况为失败
- [SPARK-49952] [SC-178985][sql] 为_LEGACY_ERROR_TEMP_1142分配正确的错误条件
- [SPARK-49405] [SC-175224][sql] 限制 JsonOptions 中的字符集
- [SPARK-49892] [SC-178975][sql] 为 _LEGACY_ERROR_TEMP_1136 分配正确的错误类
- [SPARK-49904] [SC-178973][sql] 为_LEGACY_ERROR_TEMP_2140分配正确的错误条件
- [SPARK-47257] [SC-174244][sql] 将名称分配给错误类_LEGACY_ERROR_TEMP_105[3-4] 和_LEGACY_ERROR_TEMP_1331
- [SPARK-49915] [SC-178869][sql] 处理 ReorderAssociativeOperator 中的 0 和 1
- [SPARK-49891] [SC-178970][sql] 为_LEGACY_ERROR_TEMP_2271分配正确的错误条件
-
[SPARK-49918] [SC-178748][core] 在
SparkContext
中适当情况下使用对配置的只读访问权限 - [SPARK-49666] [SC-177891][sql] 为剪裁排序规则功能添加功能标志
- [SPARK-48885] [SC-171050][sql] 使 RuntimeReplaceable 的一些子类重写替换为 lazy val
-
[SPARK-49932] [SC-178931][core] 使用
tryWithResource
发布JsonUtils#toJsonString
资源以避免内存泄漏 -
[SPARK-49949] [SC-178978][ps] 避免在
attach_sequence_column
中执行不必要的分析任务 -
[SPARK-49924] [SC-178935][sql] 替换
containsNull
后保留ArrayCompact
-
[SPARK-49121] [SC-174787][sql] 对 SQL 函数的
from_protobuf
和to_protobuf
提供支持 - [SPARK-47496] [SC-160529][sql] Java SPI 支持动态 JDBC 方言注册
- [SPARK-49359] [SC-174895][sql] 允许 StagedTableCatalog 实现回退至非原子写入
- [SPARK-49895] [ SC-178543][sql][ES-1270338] 在 SELECT 子句中遇到尾随逗号时改进错误
- [SPARK-47945] [SC-163457][sql] MsSQLServer: 文档映射 Microsoft SQL Server 中的 Spark SQL 数据类型并添加测试
- [SPARK-46037] [SC-175495][sql] 对未使用代码生成的随机哈希联接版本左侧的正确性修复
- [SPARK-47813] [SC-162615][sql] 将 getArrayDimension 替换为 updateExtraColumnMeta
- [SPARK-49542] [SC-178765][sql] 分区转换异常评估错误
- [SPARK-47172] [SC-169537][core] 添加对 RPC 加密 AES-GCM 的支持
- [SPARK-47666] [SC-161476][sql] 将 mysql 位数组读取为 LongType 时修复 NPE
- [SPARK-48947] [SC-174239][sql] 使用小写字符集名称减少 Charset.forName 中缺少的缓存
- [SPARK-49909] [SC-178552][sql] 修复某些表达式的漂亮名称
- [SPARK-47647] [SC-161377][sql] 将 MySQL 数据源能够读取 bit(n>1) 作为 BinaryType 数据类型,如同在 Postgres 中一样。
-
[SPARK-46622] [SC-153004][core] 替代
toString
的o.a.s.network.shuffledb.StoreVersion
方法 - [SPARK-48961] [SC-171910][python] 使 PySparkException 的参数命名与 JVM 一致
-
[SPARK-49889] [SC-178474][python] 为函数添加参数
trim
trim/ltrim/rtrim
- [SPARK-47537] [SC-160747][sql] 修复 MySQL 连接器/J 上的错误数据类型映射
- [SPARK-47628] [ SC-161257][sql] 修复 Postgres 位数组问题“无法强制转换为布尔值”
- [SPARK-49843] [SC-178084][es-1268164][SQL] 修复 char/varchar 列的更改注释
- [SPARK-49549] [SC-178764][sql] 将名称分配给错误条件 _LEGACY_ERROR_TEMP_3055,3146
- [SPARK-49791] [SC-177730][sql] 使 DelegatingCatalogExtension 更具扩展性
- [SPARK-49559] [SC-178551][sql] 为集合操作添加 SQL 管道语法
- [SPARK-49906] [SC-178536][sql] 为 PartitioningUtils 引入和使用 CONFLICTING_DIRECTORY_STRUCTURES 的错误
- [SPARK-49877] [SC-178392][sql] 更改 classifyException 函数签名:增加 isRuntime 参数
- [SPARK-47501] [SC-160532][sql] 为 JdbcDialect 添加类似于现有 convertTimestampToTimestamp 的 convertDateToDate
- [SPARK-49044] [SC-175746][sql] ValidateExternalType 应返回 child in error
- [SPARK-47462] [SC-160460][sql] 将其他无符号数值类型的映射与 MySQLDialect 中的 TINYINT 对齐
- [SPARK-47435] [SC-160129][sql] 修复 SPARK-45561 引起的 MySQL UNSIGNED TINYINT 溢出问题
- [SPARK-49398] [ SC-176377][sql] 改进了 CACHE TABLE 和 CREATE VIEW 查询中的参数的错误
- [SPARK-47263] [SC-177012][sql] 为旧条件分配名称_LEGACY_ERROR_TEMP_13[44-46]
-
[SPARK-49605] [SC-176605][sql] 修复当
ascendingOrder
中DataTypeMismatch
为SortArray
时的提示信息 -
[SPARK-49806] [SC-178304][sql][CONNECT] 在
blank space
和show
客户端中展示Scala
后删除冗余空白空间Connect
- [SPARK-47258] [SC-175032][sql] 为错误类 _LEGACY_ERROR_TEMP_127[0-5] 分配名称
- [SPARK-49564] [ SC-178461][sql] 为 JOIN 运算符添加 SQL 管道语法
- [SPARK-49836] [SC-178339][sql][SS] 修复提供窗口给 window/session_window fn 时可能损坏的查询
- [SPARK-47390] [SC-163306][sc-159312][SPARK-47396][sc-159376][SPARK-47406] 处理 Postgres 和 MySQL 的 SQL 时间戳映射
- [SPARK-49776] [SC-177818][python][CONNECT] 支持饼图
- [SPARK-49824] [SC-178251][ss][CONNECT] 改进 SparkConnectStreamingQueryCache 中的日志记录
- [SPARK-49894] [SC-178460][python][CONNECT] 优化列字段操作的字符串表示形式
- [SPARK-49764] [SC-177491][python][CONNECT] 支持面积图
- [SPARK-49694] [SC-177376][python][CONNECT] 支持散点图
- [SPARK-49744] [SC-178363][ss][PYTHON] 在 TransformWithStateInPandas 中实现对 ListState 的 TTL 支持
-
[SPARK-49879] [SC-178334][core] 将
TransportCipherUtil
移动到单独的文件以消除 Java 编译警告 - [SPARK-49866] [SC-178353][sql] 改进了描述包含分区列的表的错误消息
- [SPARK-49867] [SC-178302][es-1260570][SQL] 在调用 GetColumnByOrdinal 时索引超出边界时改进错误消息
- [SPARK-49607] [SC-177373][python] 更新基于采样生成图表的采样方法
- [SPARK-49626] [SC-177276][python][CONNECT] 支持水平条形图和垂直条形图
- [SPARK-49531] [SC-177770][python][CONNECT] 支持使用 plotly 后端的线条图
- [SPARK-49444] [SC-177692][es-1203248][SQL] 修改了 UnivocityParser,使由 ArrayIndexOutOfBounds 引发的运行时异常提供更面向用户的信息。
- [SPARK-49870] [SC-178262][python] 在 Spark 经典版中添加 Python 3.13 支持
- [SPARK-49560] [ SC-178121][sql] 为 TABLESAMPLE 运算符添加 SQL 管道语法
- [SPARK-49864] [SC-178305][sql] 改进 BINARY_ARITHMETIC_OVERFLOW 的信息
- [SPARK-48780] [SC-170274][sql] 将 NamedParametersSupport 中的错误处理泛型化,以便支持函数和过程
- [SPARK-49358] [SC-178158][sql] 具有排序字符串的映射类型的模式表达式
- [SPARK-47341] [SC-178157][sql] 修复 RuntimeConfig#get 的不准确文档
- [SPARK-48357] [SC-178153][sql] 对 LOOP 语句的支持
-
[SPARK-49845] [SC-178059][core] 将 REST API 中的
appArgs
和environmentVariables
设置为可选项 - [SPARK-49246] [ SC-174679][sql] TableCatalog#loadTable 应指示它是否用于写入
- [SPARK-48048] [SC-177525][sc-164846][CONNECT][ss] 添加了对 Scala 的客户端侦听器支持
- [SPARK-48700] [SC-177978][sql] 复杂类型的模式表达式(所有排序规则)
- [SPARK-48196] [SC-177899][sql] 将 QueryExecution lazy val 计划转换为 LazyTry
- [SPARK-49749] [16.x][sc-177877][CORE] 更改日志级别以在 BlockManagerInfo 中进行调试
- [SPARK-49561] [ SC-177897][sql] 为 PIVOT 和 UNPIVOT 运算符添加 SQL 管道语法
- [SPARK-49823] [SC-177885][ss] 在 rocksdb 关闭路径中避免关闭时刷新
-
[SPARK-49820] [SC-177855] [PYTHON] 将
raise IOError
更改为raise OSError
- [SPARK-49653] [SC-177266][sql] 相关标量子查询的单一联接
- [SPARK-49552] [ SC-177477][python] 为新的“randstr”和“uniform”SQL 函数添加 DataFrame API 支持
- [SPARK-48303] [16.x][sc-166251][CORE] 重新组织日志键
- [SPARK-49656] [16x][backport][SS] 添加对具有值状态集合类型和读取更改源选项的状态变量的支持
- [SPARK-48112] [SC-165129][connect] 向插件公开 SparkConnectPlanner 中的会话
- [SPARK-48126] [16.x][sc-165309][Core] 使 spark.log.structuredLogging.enabled 有效
- [SPARK-49505] [ SC-176873][sql] 创建新的 SQL 函数“randstr”和“uniform”以在范围内生成随机字符串或数字
- [SPARK-49463] [SC-177474] 为 TransformWithStateInPandas 支持 ListState
-
[SPARK-48131] [SC-165007][core] 统一 MDC 密钥
mdc.taskName
和task_name
- [SPARK-49557] [ SC-177227][sql] 为 WHERE 运算符添加 SQL 管道语法
- [SPARK-49323] [16.x][sc-174689][CONNECT] 将 MockObserver 从 Spark Connect Server 的测试文件夹移动到服务器的主文件夹
- [SPARK-49745] [SC-177501][ss] 添加变更以通过状态数据源读取器读取已注册的计时器
- [SPARK-49772] [16.x][sc-177478][SC-177214][ss] 删除 ColumnFamilyOptions 并将配置直接添加到 RocksDB 中的 dbOptions
Databricks ODBC/JDBC 驱动程序支持
Databricks 支持过去 2 年发布的 ODBC/JDBC 驱动程序。 请下载最近发布的驱动程序并升级(下载 ODBC,下载 JDBC)。
请参阅 Databricks Runtime 16.1 维护更新。
系统环境
-
操作系统:Ubuntu 24.04.1 LTS
- 注意:这是 Databricks Runtime 容器使用的 Ubuntu 版本。 DBR 容器在云提供程序的虚拟机上运行,该虚拟机可能使用不同的 Ubuntu 版本或 Linux 分发版。
- Java:Zulu17.54+21-CA
- Scala:2.12.15
- Python:3.12.3
- R:4.4.0
- Delta Lake: 3.2.1
已安装的 Python 库
库 | 版本 | 库 | 版本 | 库 | 版本 |
---|---|---|---|---|---|
注释类型 | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
自动命令 | 2.2.2 | azure-core | 1.31.0 | azure 存储 blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | 黑色 | 24.4.2 |
闪烁器 | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools (缓存工具) | 5.3.3 | certifi | 2024年6月2日 | cffi | 1.16.0 |
chardet | 4.0.0 | charset-normalizer (字符集正常化工具) | 2.0.4 | 单击 | 8.1.7 |
cloudpickle | 2.2.1 | 通讯 | 0.2.1 | contourpy | 1.2.0 |
密码系统 | 42.0.5 | 骑行者 | 0.11.0 | Cython | 3.0.11 |
Databricks软件开发工具包 (databricks-sdk) | 0.30.0 | dbu-python | 1.3.2 | debugpy | 1.6.7 |
装饰师 | 5.1.1 | 已放弃 | 1.2.14 | distlib | 0.3.8 |
将文档字符串转换为Markdown | 0.11 | 入口点 | 0.4 | 执行 | 0.8.3 |
各个方面概述 | 1.1.1 | 文件锁 (filelock) | 3.15.4 | fonttools(字体工具) | 4.51.0 |
gitdb (Git数据库) | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-auth (谷歌身份验证) | 2.35.0 | google-cloud-core (Google云核心) | 2.4.1 | 谷歌云存储 (Google Cloud Storage) | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
屈折 | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils(IPython通用工具) | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client(Jupyter 客户端) | 8.6.0 | jupyter_core(Jupyter核心) | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
麦卡贝 | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
OpenTelemetry API | 1.27.0 | opentelemetry-sdk(开源遥测软件开发工具包) | 1.27.0 | OpenTelemetry语义约定 | 0.48b0 |
打包 | 24.1 | 熊猫 | 1.5.3 | 帕尔索 | 0.8.3 |
pathspec | 0.10.3 | 替罪羊 | 0.5.6 | pexpect | 4.8.0 |
枕头 | 10.3.0 | 果仁 | 24.2 | platformdirs | 3.10.0 |
plotly | 5.22.0 | Pluggy (Python库) | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.65 | Python代码解析器 | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
Python时区库pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
请求 | 2.32.2 | 绳子 | 1.12.0 | rsa | 4.9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
seaborn | 0.13.2 | setuptools | 74.0.0 | 6 | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
堆栈数据 | 0.2.0 | statsmodels | 0.14.2 | 毅力 | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
龙卷风 | 6.4.1 | Traitlets | 5.14.3 | 类型守卫 | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | 类型-请求 | 2.31.0.0 | types-setuptools(类型-安装工具包) | 68.0.0.0 |
类型-六 | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | 无人值守升级 | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | 轮子 | 0.43.0 | 裹住 | 1.14.1 |
yapf | 0.33.0 | 齐普 | 3.17.0 |
已安装的 R 库
R 库是从 2024年8月4日的 Posit 包管理器 CRAN 快照中安装的:https://packagemanager.posit.co/cran/2024-08-04/src/contrib/PACKAGES
。
库 | 版本 | 库 | 版本 | 库 | 版本 |
---|---|---|---|---|---|
箭头 | 16.1.0 | askpass | 1.2.0 | 断言 | 0.2.1 |
向后移植 | 1.5.0 | 基础 | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | 比特 | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-8 | 团状物 | 1.2.4 | 启动 | 1.3-30 |
酿造 | 1.0-10 | 活力 | 1.1.5 | 扫帚 | 1.0.6 |
bslib | 0.8.0 | 卡齐姆 | 1.1.0 | callr | 3.7.6 |
文本光标 | 6.0-94 | cellranger (细胞测序工具) | 1.1.0 | chron | 2.3-61 |
类 | 7.3-22 | CLI | 3.6.3 | 剪辑器 | 0.8.0 |
时钟 | 0.7.1 | 集群 | 2.1.6 | codetools | 0.2-20 |
色彩空间 | 2.1-1 | commonmark | 1.9.1 | 编译器 | 4.4.0 |
配置 | 0.3.2 | 纠结 | 1.2.0 | cpp11 | 0.4.7 |
蜡笔 | 1.5.3 | 凭据 | 2.0.1 | 卷曲 | 5.2.1 |
data.table | 1.15.4 | 数据集 | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
示意图 | 1.6.5 | diffobj | 0.3.5 | 摘要 | 0.6.36 |
向下照明 | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | 省略 | 0.3.2 | 评估 | 0.24.0 |
fansi | 1.0.6 | 颜色 | 2.1.2 | fastmap | 1.2.0 |
fontawesome | 0.5.2 | 猫用 | 1.0.0 | foreach | 1.5.2 |
外国 | 0.8-86 | 锻造 | 0.2.0 | fs | 1.6.4 |
未来 | 1.34.0 | future.apply | 1.11.2 | 漱口 | 1.5.2 |
泛 型 | 0.1.3 | 格尔特 | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | 全局 | 0.16.3 | 胶水 | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
图形 | 4.4.0 | grDevices | 4.4.0 | “业务流程参数” 网格 | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | 燃气轮机 | 0.11.0 |
gtable | 0.3.5 | 安全帽 | 1.4.0 | 避风港 | 2.5.4 |
更高的 | 0.11 | 赫姆斯 | 1.1.3 | HTML工具 | 0.5.8.1 |
HTML小插件 | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | isoband | 0.2.7 | 迭代器 | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | 多汁果汁 | 0.1.0 |
KernSmooth | 2.23-22 | 针织器 | 1.48 | 标记 | 0.4.3 |
以后 | 1.3.2 | 格子 | 0.22-5 | 熔岩 | 1.8.0 |
生命周期 | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | 质量 | 7.3-60.0.1 |
矩阵 | 1.6-5 | 记忆化 | 2.0.1 | 方法 | 4.4.0 |
mgcv | 1.9-1 | 默剧 | 0.12 | 迷你用户界面 | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
蒙塞尔 | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016年8月至1月1日 | openssl(开放SSL) | 2.2.0 | 平行 | 4.4.0 |
并行地 | 1.38.0 | 柱子 | 1.9.0 | pkgbuild (软件包构建工具) | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
普洛格 | 0.2.0 | 普莱尔 | 1.8.9 | 赞美 | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | 进度 | 1.2.3 |
progressr | 0.14.0 | 承诺 | 1.3.0 | 原型 (proto) | 1.0.0 |
代理服务器 | 0.4-27 | 附注 (ps) | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | 随机森林 (randomForest) | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | 可交互表格 | 0.4.4 |
reactR | 0.6.0 | readr(阅读器) | 2.1.5 | readxl | 1.4.3 |
食谱 | 1.1.0 | 重赛 | 2.0.0 | rematch2 | 2.1.2 |
遥控器 | 2.5.0 | 可复现示例 | 2.1.1 | reshape2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown(R语言动态文档生成工具) | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
R版本 | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
磅秤 | 1.3.0 | selectr | 0.4-2 | 会话信息 | 1.2.2 |
形状 | 1.4.6.1 | 光亮 | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr(用于R的可视化和数据处理工具包) | 1.8.6 | SparkR | 3.5.0 | 空间 | 7.3-17 |
样 条 | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021年1月 |
统计数据 | 4.4.0 | 统计数据4 | 4.4.0 | stringi | 1.8.4 |
stringr | 1.5.1 | 生存 | 3.6-4 | 斯瓦格 | 5.17.14.1 |
sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
testthat | 3.2.1.1 | 文本整理 | 0.4.0 | tibble | 3.2.1 |
tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyvere | 2.0.0 |
时间变更 | 0.3.0 | 时间日期 | 4032.109 | tinytex | 0.52 |
工具 | 4.4.0 | tzdb | 0.4.0 | URL检查器 | 1.0.1 |
usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
UUID(通用唯一识别码) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
viridisLite | 0.4.2 | vroom | 1.6.5 | 瓦尔多 | 0.5.2 |
晶 须 | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
yaml | 2.3.10 | zeallot | 0.1.0 | 压缩包 | 2.3.1 |
已安装的 Java 库和 Scala 库(Scala 2.12 群集版本)
组 ID | 项目 ID | 版本 |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Amazon Kinesis 客户端 | 1.12.0 |
com.amazonaws | AWS Java SDK 自动扩展 | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | AWS Java SDK CloudFront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | AWS Java SDK 云搜索 | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | AWS Java SDK CodeDeploy(AWS Java 软件开发工具包 CodeDeploy) | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config(AWS Java SDK 配置) | 1.12.638 |
com.amazonaws | aws-java-sdk-core (AWS Java软件开发工具包核心) | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | AWS Java SDK Direct Connect(直连) | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk(AWS Java 开发工具包 - Elastic Beanstalk) | 1.12.638 |
com.amazonaws | aws-java-sdk-弹性负载均衡 | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder(AWS Java SDK弹性转码器) | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | AWS Java SDK Glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | AWS Java SDK 导入导出 (aws-java-sdk-importexport) | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | AWS Java 软件开发工具包 - KMS | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs(AWS Java开发包日志) | 1.12.638 |
com.amazonaws | AWS-Java-SDK-机器学习 | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | AWS Java SDK 存储网关 | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | AWS Java SDK支持 | 1.12.638 |
com.amazonaws | AWS-Java-SDK-SWF-库 | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | 流 (stream) | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo遮阳 | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | 同学 | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations(Jackson注解库) | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda(杰克逊数据类型-Joda) | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | 咖啡因 | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-原住民 |
com.github.fommil.netlib | 原生系统-Java | 1.1 |
com.github.fommil.netlib | 原生系统-Java | 1.1-原住民 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-原住民 |
com.github.fommil.netlib | netlib-本地系统-linux-x86_64 | 1.1-原住民 |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | 丁克 | 1.9.0 |
com.google.errorprone | 易出错的注释 | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23年5月26日 |
com.google.guava | 番石榴 | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | 分析器 | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | 源代码_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | 配置 | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers解析器 | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec(公共编解码器) | commons-codec(公共编解码器) | 1.16.0 |
commons-collections (通用集合库) | commons-collections (通用集合库) | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging(日志库) | commons-logging(日志库) | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | BLAS | 3.0.3 |
dev.ludovic.netlib | LAPACK | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | 空气压缩机 | 0.27 |
io.delta | delta-sharing-client_2.12 | 1.2.2 |
io.dropwizard.metrics | 指标标注 | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | 指标-健康检查 | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | 指标-Servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer(Netty缓存) | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | Netty HTTP 编解码器 | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | Netty-Common(网络通用组件) | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy(Netty 处理器代理) | 4.1.108.Final |
io.netty | netty-resolver (Netty 解析器) | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static(Netty高性能计算库) | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | Netty TcNative 类 | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | 简单客户端通用 | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | 收集器 | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | 激活 | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | 交易接口 (transaction-api) | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | 泡菜 | 1.3 |
net.sf.jpam | 杰潘 | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc(远程调用协议库) | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate (字符串模板) | 3.2.1 |
org.apache.ant | 蚂蚁 | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | 箭头格式 | 15.0.0 |
org.apache.arrow | 箭头-内存-核心 | 15.0.0 |
org.apache.arrow | 箭头内存网状系统 | 15.0.0 |
org.apache.arrow | 箭头向量 | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4(通用集合库) | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | 策展人-客户端 | 2.13.0 |
org.apache.curator | Curator框架 | 2.13.0 |
org.apache.curator | 策展人食谱 | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | 数据素描-内存 | 2.0.0 |
org.apache.derby | 德比 | 10.14.2.0 |
org.apache.hadoop | Hadoop 客户端运行时 | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | 海蜂垫片 | 2.3.9 |
org.apache.hive | 蜂巢存储接口API | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | 常春藤 | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
\ org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
\ org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
\ org.apache.orc | 兽人垫片 | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | 受众注释 | 0.13.0 |
org.apache.zookeeper | 动物园管理员 | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl (Jackson核心库 - ASL) | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler(通用编译器) | 3.0.16 |
org.codehaus.janino | 雅尼诺 | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | 码头安全 | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server(Jetty服务器) | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty工具库 | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty 网页应用 | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket客户端 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket-通用 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket服务器 | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-定位器 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator (OSGi 资源定位器) | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | Jersey框架服务器 | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | 休眠验证器 | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | 注释 | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | 垫片 | 0.9.45-databricks |
.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | 测试界面 | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | 与Scalatest兼容 | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
斯塔克斯 | stax-api | 1.0.1 |