本文列出了适用于 Visual Studio Code 的 Databricks 扩展的命令面板命令。 请参阅什么是适用于 Visual Studio Code 的 Databricks 扩展?。
命令参考
Visual Studio Code 的 Databricks 扩展将以下命令添加到 Visual Studio Code 命令面板。 另请参阅 Visual Studio Code 文档中的命令面板。
| 命令 | 说明 | 
|---|---|
| Databricks: Change Python environment | 更改 Python 虚拟环境 | 
| Databricks: Configure autocomplete for Databricks globals | 在 Visual Studio Code 代码编辑器中为 PySpark、Databricks 实用工具和相关全局变量(例如 spark和dbutils)启用 IntelliSense。 有关此功能的详细信息,请参阅 PySpark 和 Databricks 实用工具代码完成。 | 
| Databricks: Configure cluster | 将焦点移至“命令面板”以创建、选择或更改用于当前项目的 Azure Databricks 群集。 请参阅选择用于运行代码和作业的计算。 | 
| Databricks: Debug current file with Databricks Connect | 使用 Databricks Connect 调试当前文件。 | 
| Databricks: Deploy bundle | 将捆绑包部署到 Databricks 工作区。 | 
| Databricks: Deploy the bundle and run a resource | 将捆绑包部署到 Databricks 工作区并运行资源。 默认情况下,此命令显示要运行的资源列表,但你可以自定义命令参数以使用特定资源类型运行命令。 请参阅自定义键盘快捷键或命令参数。 | 
| Databricks: Destroy bundle | 销毁捆绑包。 | 
| Databricks: Detach cluster | 从当前项目中删除对 Azure Databricks 群集的引用。 | 
| Databricks: Focus on Bundle Resource Explorer View | 将“Databricks”面板中的焦点移至“捆绑包资源浏览器”视图。 请参阅捆绑包资源浏览器。 | 
| Databricks: Focus on Bundle Variables View | 将“Databricks”面板中的焦点移至“捆绑包变量”视图。 请参阅捆绑包变量视图。 | 
| Databricks: Focus on Configuration View | 将“Databricks”面板中的焦点移至“配置”视图。 | 
| Databricks: Force deploy bundle | 忽略警告并强制将捆绑包部署到 Databricks 工作区。 | 
| Databricks: Force destroy bundle | 忽略警告并强制销毁捆绑包。 | 
| Databricks: Initialize new project | 在 Visual Studio Code 中初始化新 Databricks 项目的创建工作流。 | 
| Databricks: Logout | 重置“Databricks”面板,以显示“配置”视图中的“配置 Databricks”和“显示快速入门”按钮。 当前项目的 .databricks/project.json文件中的任何内容也会重置。 | 
| Databricks: Open Databricks configuration file | 从默认位置打开当前项目的 Azure Databricks 配置文件。 请参阅使用适用于 Visual Studio Code 的 Databricks 扩展配置 Databricks 项目。 | 
| Databricks: Open full logs | 打开包含 Visual Studio Code 的 Databricks 扩展写入到开发计算机的应用程序日志文件的文件夹。 | 
| Databricks: Override bundle variables | 替代捆绑包变量。 | 
| Databricks: Refresh python environment status | 刷新“Databricks”面板中的“Python 环境”视图。 | 
| Databricks: Refresh remote state | 刷新目标的捆绑包配置。 | 
| Databricks: Reinstall Databricks Connect | 重新安装 Databricks Connect。 请参阅使用 Databricks Connect 为 Visual Studio Code 的 Databricks 扩展调试代码。 | 
| Databricks: Reset bundle variables to default values | 重置捆绑包变量值。 | 
| Databricks: Run current file with Databricks Connect | 使用 Databricks Connect 运行当前文件。 请参阅使用 Databricks Connect 为 Visual Studio Code 的 Databricks 扩展调试代码。 | 
| Databricks: Select a Databricks Asset Bundle target | 选择 Databricks 资产捆绑包目标。 请参阅更改目标部署工作区。 | 
| Databricks: Show bundle logs | 显示捆绑包日志。 请参阅查看 Databricks 日志输出。 | 
| Databricks: Show Quickstart | 在编辑器中显示快速入门文件。 | 
| Databricks: Sign in to Databricks workspace | 登录到工作区。 | 
| Databricks: Start Cluster | 如果群集已停止,请将它启动。 | 
| Databricks: Start synchronization | 开始将当前项目的代码同步到 Azure Databricks 工作区。 此命令执行增量同步。 | 
| Databricks: Start synchronization (full sync) | 开始将当前项目的代码同步到 Azure Databricks 工作区。 即使可以进行增量同步,此命令也会执行完全同步。 | 
| Databricks: Stop Cluster | 如果群集已运行,请将它停止。 | 
| Databricks: Stop synchronization | 停止将当前项目的代码同步到 Azure Databricks 工作区。 | 
| Databricks: Verify Databricks notebook init scripts | 验证 Databricks 笔记本 init 脚本。 | 
PySpark 和 Databricks 实用工具代码完成
本文介绍如何为 Visual Studio Code 的 Databricks 扩展启用 PySpark 和 Databricks 实用程序代码补全。 请参阅什么是 Visual Studio Code 的 Databricks 扩展?
此信息假定你已安装并设置 Visual Studio Code 的 Databricks 扩展。 请参阅安装适用于 Visual Studio Code 的 Databricks 扩展。
若要在 Visual Studio Code 代码编辑器中为 PySpark、Databricks 实用工具和相关全局变量(例如  和 )启用 spark(也称为dbutils),请在打开项目的情况下执行以下操作:
- 在命令面板(“视图”>“命令面板”)上,键入 并按 Enter。 
- 按照屏幕上的提示允许 Visual Studio Code 的 Databricks 扩展为项目安装 PySpark,并为项目添加或修改 - __builtins__.pyi文件以启用 Databricks 实用工具。
现在可以在代码中使用 spark 和 dbutils 等全局变量,而无需事先声明任何相关的 import 语句。
自定义键盘快捷键或命令参数
若要为命令指定键盘快捷键或设置命令的参数,请使用 Visual Studio Code 键盘快捷键编辑器或直接向 JSON 键绑定数组添加新条目。
例如,若要配置部署捆绑包并运行资源命令以验证 my_pipeline,请将以下内容添加到键绑定数组:
{
  // Replace with your desired shortcut
  "key": "ctrl+shift+x",
  "command": "databricks.bundle.deployAndRunFromInput",
  "args": {
    // "jobs" or "pipelines"
    "resourceType": "pipelines",
    // The key of the pipeline or job you want to run, as defined in your asset bundle configuration
    "resourceKey": "my_pipeline",
    // Any flags that will be passed to the "databricks bundle run" command
    "args": "--validate-only"
  }
}