Compartir a través de

教程:使用 Databricks 计算容器统计信息

本教程介绍了如何使用 Azure Blob 存储清单和 Azure Databricks 收集有关容器的统计信息。

在本教程中,你将了解如何执行以下操作:

  • 生成清单报表
  • 创建 Azure Databricks 工作区、群集和笔记本
  • 读取 blob 清单文件
  • 获取 Blob、快照和版本的数量和总大小
  • 按 Blob 类型和内容类型获取 Blob 数目

先决条件

生成清单报表

为存储帐户启用 blob 清单报表。 请参阅启用 Azure 存储 blob 清单报表

请使用以下配置设置:

设置
规则名称 blobinventory
容器 <你的容器的名称>
清单的对象类型 Blob
Blob 类型 块 blob、页 blob 和追加 blob
子类型 包括 blob 版本,包括快照,包括已删除的 blob
Blob 清单字段 All
清单频率 每天
导出格式 CSV

为生成的第一个报表启用库存报表后,可能需要等待 24 个小时。

配置 Azure Databricks

在本部分,你将创建 Azure Databricks 工作区、群集和笔记本。 在本教程中,稍后你需要将代码片段粘贴到笔记本单元格中,然后运行它们来收集容器统计信息。

  1. 创建 Azure Databricks 工作区。 请参阅创建 Azure Databricks 工作区

  2. 创建群集。 参阅创建群集

  3. 创建一个笔记本,并选择 Python 作为笔记本的默认语言。 请参阅创建笔记本

读取 blob 清单文件

  1. 将以下代码块复制并粘贴到第一个单元格中,但目前请勿运行此代码。

    from pyspark.sql.types import StructType, StructField, IntegerType, StringType
    import pyspark.sql.functions as F  
       storage_account_name = "<storage-account-name>"
       storage_account_key = "<storage-account-key>"
       container = "<container-name>"
       blob_inventory_file = "<blob-inventory-file-name>" 
       hierarchial_namespace_enabled = False
    
    if hierarchial_namespace_enabled == False:
      spark.conf.set("fs.azure.account.key.{0}.blob.core.chinacloudapi.cn".format(storage_account_name), storage_account_key)
      df = spark.read.csv("wasbs://{0}@{1}.blob.core.chinacloudapi.cn/{2}".format(container, storage_account_name, blob_inventory_file), header='true', inferSchema='true')
    
     else:
      spark.conf.set("fs.azure.account.key.{0}.dfs.core.chinacloudapi.cn".format(storage_account_name), storage_account_key)
      df = spark.read.csv("abfss://{0}@{1}.dfs.core.chinacloudapi.cn/{2}".format(container, storage_account_name, blob_inventory_file), header='true', inferSchema='true')     
    
  2. 在此代码块中,替换以下值:

    • <storage-account-name> 占位符值替换为存储帐户的名称。

    • <storage-account-key> 占位符值替换为你的存储帐户的帐户密钥。

    • <container-name> 占位符值替换为存放着清单报表的容器。

    • <blob-inventory-file-name> 占位符替换为清单文件的完全限定名称(例如:2023/02/02/02-16-17/blobinventory/blobinventory_1000000_0.csv)。

    • 如果你的帐户具有分层命名空间,请将 hierarchical_namespace_enabled 变量设置为 True

  3. 按 SHIFT + ENTER 键,运行此块中的代码。

获取 blob 计数和大小

  1. 在一个新单元格中粘贴以下代码:

    print("Number of blobs in the container:", df.count())
    print("Number of bytes occupied by blobs in the container:", df.agg({'Content-Length': 'sum'}).first()['sum(Content-Length)'])
    
  2. 按 Shift + Enter 来运行该单元格。

    笔记本将显示容器中 blob 的数目以及容器中 blob 占用的字节数。

    Screenshot of results that appear when you run the cell showing the number of blobs and the size of blobs in the container.

获取快照计数和大小

  1. 在一个新单元格中粘贴以下代码:

    from pyspark.sql.functions import *
    
    print("Number of snapshots in the container:", df.where(~(col("Snapshot")).like("Null")).count())
    dfT = df.where(~(col("Snapshot")).like("Null"))
    print("Number of bytes occupied by snapshots in the container:", dfT.agg({'Content-Length': 'sum'}).first()['sum(Content-Length)'])
    
  2. 按 Shift + Enter 来运行该单元格。

    笔记本将显示快照的数目以及 blob 快照占用的总字节数。

    Screenshot of results that appear when you run the cell showing the number of snapshots and the total combined size of snapshots.

获取版本计数和大小

  1. 在一个新单元格中粘贴以下代码:

    from pyspark.sql.functions import *
    
    print("Number of versions in the container:", df.where(~(col("VersionId")).like("Null")).count())
    dfT = df.where(~(col("VersionId")).like("Null"))
    print("Number of bytes occupied by versions in the container:", dfT.agg({'Content-Length': 'sum'}).first()['sum(Content-Length)'])
    
  2. 按 Shift + Enter 来运行该单元格。

    笔记本将显示 blob 版本数和 blob 版本占用的总字节数。

    Screenshot of results that appear when you run the cell showing the number of versions and the total combined size of versions.

按 blob 类型获取 blob 计数

  1. 在一个新单元格中粘贴以下代码:

    display(df.groupBy('BlobType').count().withColumnRenamed("count", "Total number of blobs in the container by BlobType"))
    
  2. 按 Shift + Enter 来运行该单元格。

    笔记本将按类型显示 blob 类型的数目。

    Screenshot of results that appear when you run the cell showing the number of blob types by type.

按内容类型获取 blob 计数

  1. 在一个新单元格中粘贴以下代码:

    display(df.groupBy('Content-Type').count().withColumnRenamed("count", "Total number of blobs in the container by Content-Type"))
    
  2. 按 Shift + Enter 来运行该单元格。

    笔记本将显示与每种内容类型关联的 blob 的数目。

    Screenshot of results that appear when you run the cell showing the number of blobs by content-type.

终止群集

为了避免不必要的计费,请确保终止群集。 请参阅终止群集

后续步骤