作业的 JAR 任务

使用 JAR 任务可部署编译为 JAR 的 Scala 或 Java 代码 (Java ARchive)。 在创建 JAR 任务之前,请参阅 创建与 Databricks 兼容的 JAR

重要

无服务器 Scala 和 Java 作业处于 Beta 阶段。 可以使用 JAR 任务来部署 JAR 文件。 如果尚未启用,请参阅管理 Azure Databricks 预览

要求

  • 选择支持工作负荷的计算配置。
  • 将 JAR 文件上传到与计算兼容的位置或 Maven 存储库。 请参阅 JAR 库支持
  • 对于标准访问模式: 管理员必须将 Maven 坐标和 JAR 路径添加到 允许列表。 请参阅 标准访问限制

配置 JAR 任务

通过执行以下操作,从作业 UI 中的“任务”JAR选项卡添加 任务:

  1. 单击“ 添加任务”。

  2. “任务名称 ”字段中输入名称。

  3. “类型 ”下拉菜单中,选择 JAR

  4. 指定“Main 类”

    • 这是类的全名,包含要执行的主要方法。 该类必须包含在配置为“依赖库”的 JAR 中。
  5. 单击 “计算 ”以选择或配置计算。 选择经典计算或无服务器计算。

  6. 配置环境并添加依赖项:

    • 对于经典计算,请单击加号图标,在依赖库下添加。 此时会显示 “添加依赖库 ”对话框。

      • 可以选择现有的 JAR 文件或上传新的 JAR 文件。
      • 并非所有位置都支持 JAR 文件。
      • 并非所有计算配置在所有支持的位置都支持 JAR 文件。
      • 每个“库源”都有不同的 JAR 文件选择或上传流程。 请参阅 “安装库”。
    • 对于无服务器计算,请选择一个环境,然后单击 铅笔图标。 编辑以对其进行配置。

      • 必须为环境版本选择 4 或更高版本。
      • 添加 JAR 文件。
      • 添加你拥有的任何其他依赖项。 请勿包含 Spark 依赖项,因为 Databricks Connect 已在环境中提供这些依赖项。 有关 JAR 中的依赖项的详细信息,请参阅 创建 Azure Databricks 兼容的 JAR
  7. (可选)将“参数”配置为作为参数传递给 main 类的字符串列表。 请参阅 “配置任务参数”。

  8. 单击“保存任务”。