Azure HDInsight 的默认的和建议的节点配置是什么?What are the default and recommended node configurations for Azure HDInsight?

本文讨论 Azure HDInsight 群集的默认的和建议的节点配置。This article discusses default and recommended node configurations for Azure HDInsight clusters.

下表列出了 HDInsight 群集的默认的和建议的虚拟机 (VM) 大小。The following tables list default and recommended virtual machine (VM) sizes for HDInsight clusters. 此信息是了解在创建 PowerShell 或 Azure CLI 脚本以部署 HDInsight 群集时要使用的 VM 大小所必需的。This information is necessary to understand the VM sizes to use when you are creating PowerShell or Azure CLI scripts to deploy HDInsight clusters.

如果需要在群集中使用 32 个以上的辅助角色节点,则请选择至少具有 8 个核心和 14 GB RAM 的头节点大小。If you need more than 32 worker nodes in a cluster, select a head node size with at least 8 cores and 14 GB of RAM.

有数据磁盘的唯一群集类型是启用了加速写入功能的 Kafka 和 HBase 群集。The only cluster types that have data disks are Kafka and HBase clusters with the Accelerated Writes feature enabled. 在这些情况下,HDInsight 支持 P30 和 S30 磁盘大小。HDInsight supports P30 and S30 disk sizes in these scenarios.

下表总结了本文档中使用的所有最低建议 VM 类型的规格。The specifications of all minimum recommended VM types used in this document are summarized in the following table.

大小Size vCPUvCPU 内存:GiBMemory: GiB 临时存储 (SSD) GiBTemp storage (SSD) GiB 最大临时存储吞吐量:IOPS/读取 MBps/写入 MBpsMax temp storage throughput: IOPS / Read MBps / Write MBps 最大的数据磁盘/吞吐量:IOPSMax data disks / throughput: IOPS 最大 NIC 数/预期网络带宽 (Mbps)Max NICs / Expected network bandwidth (Mbps)
Standard_D3_v2Standard_D3_v2 44 1414 200200 12000/187/9312000 / 187 / 93 16 / 16x50016 / 16x500 4 / 30004 / 3000
Standard_D4_v2Standard_D4_v2 88 2828 400400 24000/375/18724000 / 375 / 187 32 / 32x50032 / 32x500 8 / 60008 / 6000
Standard_D5_v2Standard_D5_v2 1616 5656 800800 48000/750/37548000 / 750 / 375 64 / 64x50064 / 64x500 8 / 120008 / 12000
Standard_D12_v2Standard_D12_v2 44 2828 200200 12000/187/9312000 / 187 / 93 16/16x50016 / 16x500 4 / 30004 / 3000
Standard_D13_v2Standard_D13_v2 88 5656 400400 24000/375/18724000 / 375 / 187 32/32x50032 / 32x500 8 / 60008 / 6000
Standard_D14_v2Standard_D14_v2 1616 112112 800800 48000/750/37548000 / 750 / 375 64/64x50064 / 64x500 8 / 120008 / 12000
Standard_A1_v2Standard_A1_v2 11         22           10 个10             1000/20/101000 / 20 / 10                                           2/2x5002 / 2x500               2 / 2502 / 250                
Standard_A2_v2Standard_A2_v2 22 44 20 个20 2000/40/202000 / 40 / 20 4/4x5004 / 4x500 2 / 5002 / 500
Standard_A4_v2Standard_A4_v2 44 88 4040 4000/80/404000 / 80 / 40 8/8x5008 / 8x500 4 / 10004 / 1000

有关每种 VM 类型的规格的更多详细信息,请参阅以下文档:For more details on the specifications of each VM type, see the following documents:

除巴西南部和日本西部外的所有受支持区域All supported regions except Brazil south and Japan west

备注

若要获取用于 PowerShell 和其他脚本的 SKU 标识符,请在下表中将 Standard_ 添加到所有 VM SKU 的开头。To get the SKU identifier for use in powershell and other scripts, add Standard_ to the beginning of all of the VM SKUs in the tables below. 例如,D12_v2 将变为 Standard_D12_v2For example, D12_v2 would become Standard_D12_v2.

群集类型Cluster type HadoopHadoop HBaseHBase 交互式查询Interactive Query StormStorm SparkSpark KafkaKafka
头:默认 VM 大小Head: default VM size D12_v2D12_v2 D12_v2D12_v2 D13_v2D13_v2 A4_v2A4_v2 D12_v2,D12_v2,
D13_v2*D13_v2*
D3_v2D3_v2
头:建议的最小 VM 大小Head: minimum recommended VM sizes D5_v2D5_v2 D3_v2D3_v2 D13_v2D13_v2 A4_v2A4_v2 D12_v2,D12_v2,
D13_v2*D13_v2*
D3_v2D3_v2
辅助角色:默认 VM 大小Worker: default VM size D4_v2D4_v2 D4_v2D4_v2 D14_v2D14_v2 D3_v2D3_v2 D13_v2D13_v2 4 D12_v2,每个中转站 2 个 S30 磁盘4 D12_v2 with 2 S30 disks per broker
辅助角色:建议的最小 VM 大小Worker: minimum recommended VM sizes D5_v2D5_v2 D3_v2D3_v2 D13_v2D13_v2 D3_v2D3_v2 D12_v2D12_v2 D3_v2D3_v2
Zookeeper:默认 VM 大小ZooKeeper: default VM size A4_v2A4_v2 A4_v2A4_v2 A4_v2A4_v2 A4_v2A4_v2
ZooKeeper:建议的最小 VM 大小ZooKeeper: minimum recommended VM sizes A4_v2A4_v2 A4_v2A4_v2 A2_v2A2_v2 A4_v2A4_v2
ML 服务:默认 VM 大小ML Services: default VM size
ML 服务:建议的最小 VM 大小ML Services: minimum recommended VM size

后续步骤Next steps