Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
重要
这不是最新的 Java Bulk Executor for Azure Cosmos DB! 请考虑使用 Azure Cosmos DB Java SDK v4 来执行批量操作。 若要升级,请按照迁移到 Azure Cosmos DB Java SDK v4 指南和 Reactor 与 RxJava 指南中的说明进行操作。
重要
2024 年 2 月 29 日,Azure Cosmos DB Sync Java SDK v2.x 将停用;此 SDK 和所有使用此 SDK 的应用程序(包括 Bulk Executor)将继续运行;Azure Cosmos DB 将仅停止为此 SDK 提供进一步的维护和支持。 我们建议按照上述说明迁移到 Azure Cosmos DB Java SDK v4。
| 链接/注释 | |
|---|---|
| 说明 | 批量执行程序库允许客户端应用程序在 Azure Cosmos DB 帐户中执行批量操作。 批量执行程序库提供 BulkImport 和 BulkUpdate 命名空间。 BulkImport 模块可以批量以优化方式引入文档,以便最大程度地使用为集合配置的吞吐量。 BulkUpdate 模块可以作为修补程序批量更新 Azure Cosmos DB 容器中的现有数据。 |
| SDK 下载 | Maven |
| GitHub 中的批量执行程序库 | GitHub |
| API 文档 | Java API 参考文档 |
| 入门 | 批量执行程序库 Java SDK 入门 |
| 受支持的最小运行时 | Java 开发工具包 (JDK) 7+ |
发行说明
2.12.3
- 修复了当
GoneException包装在IllegalStateException中时的重试策略 - 此更改是确保在出现 410 时刷新网关缓存所必需的,这样 Spark 连接器(适用于 Spark 2.4)便可以使用自定义重试策略,使查询能够在分区拆分期间获得成功
2.12.2
- 修复了导致文档在出现暂时性错误时不始终导入的问题。
2.12.1
- 升级以使用最新版本的 Azure Cosmos DB Core SDK。
2.12.0
- 改进了通过 Spark 连接器为批量操作提供的 RU 预算的处理。 最初的一次性批量导入是使用 baseBatchSize 从 spark 连接器执行的,并且会收集上述批量导入的 RU 消耗量。 基于以上 RU 消耗计算 miniBatchSizeAdjustmentFactor,并据此调整小型批处理大小。 根据每个批量导入的运行时间和消耗的 RU,计算休眠持续时间,以限制每秒 RU 消耗量,并用于在下次批量导入之前暂停线程。
2.11.0
- 修复了在使用嵌套分区键时阻止批量更新的 bug
2.10.0
- 修复了 DocumentAnalyzer.java,以从 JSON 中正确提取嵌套的分区键值。
2.9.4
- 在 BulkDelete 操作中添加了相应的功能,以便在发生特定的失败后重试,并向用户返回可重试的失败列表。
2.9.3
- 更新 Azure Cosmos DB SDK 版本 2.4.7。
2.9.2
- 修复了“mergeAll”,使之能够在遇到“id”和分区键值时继续运行,以便将“id”和分区键值后面的所有已修补文档属性添加到更新的项列表。
2.9.1
- 已将起始并发度更新为 1,并增加了 minibatch 的调试日志。