使用 JAR 任务可部署编译为 JAR 的 Scala 或 Java 代码 (Java ARchive)。 在创建 JAR 任务之前,请参阅 创建与 Databricks 兼容的 JAR。
重要
无服务器 Scala 和 Java 作业处于 Beta 阶段。 可以使用 JAR 任务来部署 JAR 文件。 如果尚未启用,请参阅管理 Azure Databricks 预览。
要求
- 选择支持工作负荷的计算配置。
- 将 JAR 文件上传到与计算兼容的位置或 Maven 存储库。 请参阅 JAR 库支持。
- 对于标准访问模式: 管理员必须将 Maven 坐标和 JAR 路径添加到 允许列表。 请参阅 标准访问限制。
配置 JAR 任务
通过执行以下操作,从作业 UI 中的“任务”JAR选项卡添加 任务:
单击“ 添加任务”。
在 “任务名称 ”字段中输入名称。
在 “类型 ”下拉菜单中,选择
JAR。指定“Main 类”。
- 这是类的全名,包含要执行的主要方法。 该类必须包含在配置为“依赖库”的 JAR 中。
单击 “计算 ”以选择或配置计算。 选择经典计算或无服务器计算。
配置环境并添加依赖项:
对于经典计算,请单击
,在依赖库下添加。 此时会显示 “添加依赖库 ”对话框。
- 可以选择现有的 JAR 文件或上传新的 JAR 文件。
- 并非所有位置都支持 JAR 文件。
- 并非所有计算配置在所有支持的位置都支持 JAR 文件。
- 每个“库源”都有不同的 JAR 文件选择或上传流程。 请参阅 “安装库”。
对于无服务器计算,请选择一个环境,然后单击
编辑以对其进行配置。
- 必须为环境版本选择 4 或更高版本。
- 添加 JAR 文件。
- 添加你拥有的任何其他依赖项。 请勿包含 Spark 依赖项,因为 Databricks Connect 已在环境中提供这些依赖项。 有关 JAR 中的依赖项的详细信息,请参阅 创建 Azure Databricks 兼容的 JAR。
(可选)将“参数”配置为作为参数传递给 main 类的字符串列表。 请参阅 “配置任务参数”。
单击“保存任务”。