Java 批量执行程序库:下载信息
适用范围: NoSQL
重要
这不是最新的 Java Bulk Executor for Azure Cosmos DB! 请考虑使用 Azure Cosmos DB Java SDK v4 来执行批量操作。 若要升级,请按照迁移到 Azure Cosmos DB Java SDK v4 指南和 Reactor 与 RxJava 指南中的说明进行操作。
重要
2024 年 2 月 29 日,Azure Cosmos DB Sync Java SDK v2.x 将停用;此 SDK 和所有使用此 SDK 的应用程序(包括 Bulk Executor)将继续运行;Azure Cosmos DB 将仅停止为此 SDK 提供进一步的维护和支持。 我们建议按照上述说明迁移到 Azure Cosmos DB Java SDK v4。
链接/注释 | |
---|---|
说明 | 批量执行程序库允许客户端应用程序在 Azure Cosmos DB 帐户中执行批量操作。 批量执行程序库提供 BulkImport 和 BulkUpdate 命名空间。 BulkImport 模块可以批量以优化方式引入文档,以便最大程度地使用为集合配置的吞吐量。 BulkUpdate 模块可以作为修补程序批量更新 Azure Cosmos DB 容器中的现有数据。 |
SDK 下载 | Maven |
GitHub 中的批量执行程序库 | GitHub |
API 文档 | Java API 参考文档 |
入门 | 批量执行程序库 Java SDK 入门 |
受支持的最小运行时 | Java 开发工具包 (JDK) 7+ |
发行说明
2.12.3
- 修复了当
GoneException
包装在IllegalStateException
中时的重试策略 - 此更改是确保在出现 410 时刷新网关缓存所必需的,这样 Spark 连接器(适用于 Spark 2.4)便可以使用自定义重试策略,使查询能够在分区拆分期间获得成功
2.12.2
- 修复了导致文档在出现暂时性错误时不始终导入的问题。
2.12.1
- 升级以使用最新版本的 Azure Cosmos DB Core SDK。
2.12.0
- 改进了通过 Spark 连接器为批量操作提供的 RU 预算的处理。 最初的一次性批量导入是使用 baseBatchSize 从 spark 连接器执行的,并且会收集上述批量导入的 RU 消耗量。 基于以上 RU 消耗计算 miniBatchSizeAdjustmentFactor,并据此调整小型批处理大小。 根据每个批量导入的运行时间和消耗的 RU,计算休眠持续时间,以限制每秒 RU 消耗量,并用于在下次批量导入之前暂停线程。
2.11.0
- 修复了在使用嵌套分区键时阻止批量更新的 bug
2.10.0
- 修复了 DocumentAnalyzer.java,以从 JSON 中正确提取嵌套的分区键值。
2.9.4
- 在 BulkDelete 操作中添加了相应的功能,以便在发生特定的失败后重试,并向用户返回可重试的失败列表。
2.9.3
- 更新 Azure Cosmos DB SDK 版本 2.4.7。
2.9.2
- 修复了“mergeAll”,使之能够在遇到“id”和分区键值时继续运行,以便将“id”和分区键值后面的所有已修补文档属性添加到更新的项列表。
2.9.1
- 已将起始并发度更新为 1,并增加了 minibatch 的调试日志。