api 命令组

注释

此信息适用于 Databricks CLI 版本 0.205 及更高版本。 Databricks CLI 目前处于公共预览阶段。

Databricks CLI 的使用须遵守 Databricks 许可Databricks 隐私声明,包括任何数据使用规定。

使用 apiDatabricks CLI 中的命令组可以调用任何可用的 Databricks REST API。

你应当仅针对高级场景运行 api 命令,例如,Databricks CLI 尚未在相关命令中包装目标 Databricks REST API 的那些特定 Databricks REST API 的预览版。 有关命令组的列表,请参阅 Databricks CLI 命令

databricks API 删除

执行 DELETE 请求

databricks api delete PATH [flags]

论据

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或包含请求正文的 JSON 文件

全局标志

例子

databricks api delete /api/2.0/jobs/runs/delete --json '{"run_id": 123}'

databricks API 获取

执行 GET 请求

databricks api get PATH [flags]

论据

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或包含请求正文的 JSON 文件

全局标志

例子

以下示例获取工作区中可用群集的列表:

databricks api get /api/2.0/clusters/list

以下示例获取任务:

databricks api get /api/2.0/jobs/get --json '{"job_id": 123}'

databricks API头

执行 HEAD 请求

databricks api head PATH [flags]

论据

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或包含请求正文的 JSON 文件

全局标志

例子

databricks api head /api/2.0/clusters/list

databricks api 修补程序

执行 PATCH 请求

databricks api patch PATH [flags]

论据

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或包含请求正文的 JSON 文件

全局标志

例子

databricks api patch /api/2.0/jobs/update --json '{"job_id": 123, "new_settings": {"name": "Updated Job"}}'

Databricks API 发布请求

执行 POST 请求

databricks api post PATH [flags]

论据

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或包含请求正文的 JSON 文件

全局标志

例子

以下示例获取有关工作区中指定群集的信息。

databricks api post /api/2.0/clusters/get --json '{
   "cluster_id": "1234-567890-abcde123"
}'

以下示例创建群集:

databricks api post /api/2.0/clusters/create --json '{"cluster_name": "test-cluster", "spark_version": "11.3.x-scala2.12"}'

更新工作区中指定群集的设置。

databricks api post /api/2.0/clusters/edit --json '{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}'

更新工作区中指定群集的设置。 从当前工作目录中名为 edit-cluster.json 的文件获取请求正文。

databricks api post /api/2.0/clusters/edit --json @edit-cluster.json

edit-cluster.json:

{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}

databricks 应用程序编程接口 (API) put (更新/上传)

执行 PUT 请求

databricks api put PATH [flags]

论据

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或包含请求正文的 JSON 文件

全局标志

例子

databricks api put /api/2.0/workspace/import --json @workspace-import.json

全局标志

--debug

  是否启用调试日志记录。

-h--help

    显示 Databricks CLI、相关命令组或相关命令的帮助。

--log-file 字符串

    一个字符串,表示要将输出日志写入到的文件。 如果未指定此标志,则默认会将输出日志写入到 stderr。

--log-format 格式

    日志格式类型,textjson。 默认值是 text

--log-level 字符串

    一个表示日志格式级别的字符串。 如果未指定,则禁用日志格式级别。

-o, --output 类型

    命令输出类型为 textjson。 默认值是 text

-p, --profile 字符串

    要用于运行命令的 ~/.databrickscfg 文件中的配置文件名称。 如果未指定此标志,并且存在命名为 DEFAULT 的配置文件,则使用该配置文件。

--progress-format 格式

    显示进度日志的格式: defaultappendinplacejson

-t, --target 字符串

    如果适用,要使用的捆绑包目标