Compartir a través de

配合使用 Azure Data Lake Storage Gen2 和 Azure HDInsight 群集

Azure Data Lake Storage Gen2 是构建在 Azure Blob 存储基础之上的,专用于大数据分析的云存储服务。 Data Lake Storage Gen2 将 Azure Blob 存储和 Azure Data Lake Storage Gen1 的功能组合在一起。 由此产生的服务提供来自 Azure Data Lake Storage Gen1 的功能,包括:文件系统语义、目录级和文件级安全性以及适应性。 以及 Azure Blob 存储的低成本、分层存储、高可用性和灾难恢复功能。

警告

HDInsight 群集是基于分钟按比例计费,而不管用户是否使用它们。 请务必在使用完群集之后将其删除。 请参阅如何删除 HDInsight 群集

Data Lake Storage Gen2 可用性

Data Lake Storage Gen2 能够以默认存储和附加存储帐户的形式用作几乎所有 Azure HDInsight 群集类型的存储选项。 但是,HBase 只能有一个帐户使用 Data Lake Storage Gen2。

注意

选择 Data Lake Storage Gen2 作为“主要存储类型”后,无法选择 Data Lake Storage Gen1 作为附加存储。

使用 Data Lake Storage Gen2 创建 HDInsight 群集

请使用以下链接,详细了解有关如何创建具有 Data Lake Storage Gen2 访问权限的 HDInsight 群集的说明。

HDInsight 中 Data Lake Storage Gen2 的访问控制

Data Lake Storage Gen2 支持哪些类型的权限?

Data Lake Storage Gen2 使用一个访问控制模型,该模型支持 Azure 基于角色的访问控制 (Azure RBAC) 和类似于 POSIX 的访问控制列表 (ACL)。 Data Lake Storage Gen1 仅支持用于控制数据访问的访问控制列表。

Azure RBAC 使用角色分配有效地将权限集应用到 Azure 资源的用户、组和服务主体。 一般情况下,这些 Azure 资源限制为顶级资源(例如 Azure Blob 存储帐户)。 对于 Azure Blob 存储以及 Azure Data Lake Storage Gen2,此机制已扩展到文件系统资源。

有关使用 Azure RBAC 分配文件权限的详细信息,请参阅 Azure 基于角色的访问控制 (Azure RBAC)

有关使用 ACL 分配文件权限的详细信息,请参阅对文件和目录应用访问控制列表

如何在 Data Lake Storage Gen2 中控制对数据的访问?

HDInsight 群集在 Data Lake Storage Gen2 中访问文件的能力通过托管标识进行控制。 托管标识在 Microsoft Entra 中注册,其凭据由 Azure 进行管理。 使用托管标识时,无需在 Microsoft Entra ID 中注册服务主体。 也无需维护证书等凭据。

Azure 服务有两种类型的托管标识:系统分配的托管标识和用户分配的托管标识。 HDInsight 使用用户分配的托管标识来访问 Data Lake Storage Gen2。 user-assigned managed identity是作为独立的 Azure 资源创建的。 在创建过程中,Azure 会在由所用订阅信任的 Microsoft Entra 租户中创建一个标识。 在创建标识后,可以将标识分配到一个或多个 Azure 服务实例。

用户分配标识的生命周期与它所分配到的 Azure 服务实例的生命周期是分开管理的。 有关托管标识的详细信息,请参阅什么是 Azure 资源托管标识?

如何设置 Microsoft Entra 用户的权限,以使用 Hive 或其他服务在 Data Lake Storage Gen2 中查询数据?

若要为用户设置查询数据的权限,请将 Microsoft Entra 安全组用作 ACL 中分配的主体。 不要直接向单个用户或服务主体分配文件访问权限。 使用 Microsoft Entra 安全组来控制权限流时,可以添加和移除用户或服务主体,而无需将 ACL 重新应用到整个目录结构。 只需要从相应的 Microsoft Entra 安全组添加或移除用户。 ACL 不可继承,因此,重新应用 ACL 需要更新针对每个文件和子目录应用的 ACL。

从群集访问文件

可以通过多种方法从 HDInsight 群集访问 Data Lake Storage Gen2 中的文件。

  • 使用完全限定的名称。 使用此方法时,需提供要访问的文件的完整路径。

    abfs://<containername>@<accountname>.dfs.core.chinacloudapi.cn/<file.path>/
    
  • 使用缩短的路径格式。 使用此方法时,需将群集根的路径替换为:

    abfs:///<file.path>/
    
  • 使用相对路径。 使用此方法时,仅需提供要访问的文件的相对路径。

    /<file.path>/
    

数据访问示例

示例基于到群集的头节点的 ssh 连接。 示例使用所有三个 URI 方案。 将 CONTAINERNAMESTORAGEACCOUNT 替换为相关值

几个 hdfs 命令

  1. 在本地存储上创建一个文件。

    touch testFile.txt
    
  2. 在群集存储上创建目录。

    hdfs dfs -mkdir abfs://CONTAINERNAME@STORAGEACCOUNT.dfs.core.chinacloudapi.cn/sampledata1/
    hdfs dfs -mkdir abfs:///sampledata2/
    hdfs dfs -mkdir /sampledata3/
    
  3. 将数据从本地存储复制到群集存储。

    hdfs dfs -copyFromLocal testFile.txt  abfs://CONTAINERNAME@STORAGEACCOUNT.dfs.core.chinacloudapi.cn/sampledata1/
    hdfs dfs -copyFromLocal testFile.txt  abfs:///sampledata2/
    hdfs dfs -copyFromLocal testFile.txt  /sampledata3/
    
  4. 列出群集存储上的目录内容。

    hdfs dfs -ls abfs://CONTAINERNAME@STORAGEACCOUNT.dfs.core.chinacloudapi.cn/sampledata1/
    hdfs dfs -ls abfs:///sampledata2/
    hdfs dfs -ls /sampledata3/
    

创建 Hive 表

但为了便于说明,显示了三个文件位置。 实际执行时,仅使用 LOCATION 条目之一。

DROP TABLE myTable;
CREATE EXTERNAL TABLE myTable (
    t1 string,
    t2 string,
    t3 string,
    t4 string,
    t5 string,
    t6 string,
    t7 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
STORED AS TEXTFILE
LOCATION 'abfs://CONTAINERNAME@STORAGEACCOUNT.dfs.core.chinacloudapi.cn/example/data/';
LOCATION 'abfs:///example/data/';
LOCATION '/example/data/';

后续步骤