快速入门:创建 Kafka on HDInsight 群集

Kafka 是开源分布式流式处理平台。 通常用作消息代理,因为它可提供类似于发布-订阅消息队列的功能。

本快速入门介绍了如何使用 Azure 门户创建 Apache Kafka 群集。 还介绍了如何使用已包含的实用工具发送并接收使用 Kafka 的信息。

Warning

HDInsight 群集是基于分钟按比例收费,而不管用户是否正在使用它们。 请务必在使用完之后删除群集。 有关详细信息,请参阅如何删除 HDInsight 群集

Important

仅可通过相同虚拟网络内的资源访问 Kafka API。 本快速入门使用 SSH 直接访问群集。 若要将其他服务、网络或虚拟机连接到 Kafka,则必须首先创建虚拟机,然后才能在网络中创建资源。

有关详细信息,请参阅使用虚拟网络连接到 Kafka 文档。

先决条件

  • Azure 订阅。 如果没有 Azure 订阅,可在开始前创建一个试用帐户

  • SSH 客户端。 文档中的步骤使用 SSH 连接到群集。

    在 Linux、Unix 和 macOS 系统中,默认提供 ssh 命令。 在 Windows 10 上,使用以下方式之一安装 ssh 命令:

创建 Kafka 群集

若要创建 Kafka on HDInsight 群集,请使用以下步骤:

  1. Azure 门户依次选择“+ 创建资源”、“数据 + 分析”、“HDInsight”。

    创建 HDInsight 群集

  2. 在“基本信息”中,输入或选择以下信息:

    设置
    群集名称 HDInsight Spark 群集的唯一名称。
    订阅 选择订阅。

    选择“群集类型”,以显示“群集配置”。

    选择订阅

  3. 从“群集配置”中选择以下值:

    设置
    群集类型 Kafka
    版本 Kafka 1.0.0 (HDI 3.6)

    使用“选择”按钮保存群集类型设置,然后返回“基本信息”。

    选择群集类型

  4. 在“基本信息”中,输入或选择以下信息:

    设置
    群集登录用户名 访问群集上托管的 Web 服务或 REST API 时的登录名。 保留默认值 (admin)。
    群集登录密码 访问群集上托管的 Web 服务或 REST API 时的登录密码。
    安全外壳 (SSH) 用户名 通过 SSH 访问群集时使用的登录名。 默认情况下,密码与群集登录密码相同。
    资源组 要在其中创建群集的资源组。
    位置 要在其中创建群集的 Azure 区域。

    Tip

    每个 Azure 区域(位置)均提供 容错域。 容错域是 Azure 数据中心基础硬件的逻辑分组。 每个容错域共享公用电源和网络交换机。 在 HDInsight 群集中实现节点的虚拟机和托管磁盘跨这些容错域分布。 此体系结构可限制物理硬件故障造成的潜在影响。

    为实现数据的高可用性,请选择包含三个容错域的区域(位置)。 有关区域中容错域数的信息,请参阅 Linux 虚拟机的可用性文档。

    选择订阅

    使用“下一步”按钮完成基本配置。

  5. 在“存储”中选择或创建存储帐户。 对于本文档中的步骤,请让其他字段保留默认值。 使用“下一步” 按钮保存存储配置。

    设置 HDInsight 的存储帐户设置

  6. 在“应用程序(可选)”中,选择“下一步”以使用默认设置继续。

  7. 在“群集大小”中,选择“下一步”以使用默认设置继续。

    Important

    若要确保 Kafka on HDInsight 的可用性,辅助角色节点数条目必须设置为 3 或以上。 默认值为 4。

    Tip

    “每个工作节点的磁盘数”条目配置 Kafka on HDInsight 的可伸缩性。 Kafka on HDInsight 在群集中使用虚拟机的本地磁盘来存储数据。 由于 Kafka 的 I/O 很高,因此会使用 Azure 托管磁盘为每个节点提供高吞吐量和更多存储。 托管磁盘的类型可以为“标准”(HDD) 或“高级”(SSD)。 磁盘类型取决于辅助角色节点(Kafka 代理)所使用的 VM 大小。 高级磁盘可自动与 DS 系列 VM 一起使用。 所有其他的 VM 类型使用“标准”。

    设置 Kafka 群集大小

  8. 在“高级设置”中,选择“下一步”以使用默认设置继续。

  9. 在“摘要”中,查看群集的配置。 使用“编辑”链接更改不正确的设置。 最后,使用“创建”按钮创建群集。

    群集配置摘要

    Note

    创建群集可能需要 20 分钟。

连接至群集

  1. 若要连接到 Kafka 群集的主要头节点,请使用以下命令。 将 sshuser 替换为 SSH 用户名。 将 mykafka 替换为 Kafka 群集的名称

    ssh sshuser@mykafka-ssh.azurehdinsight.cn
    
  2. 首次连接到群集时,SSH 客户端可能会显示一个警告,提示无法验证主机。 当系统提示时,请键入“yes”,然后按 Enter,将主机添加到 SSH 客户端的受信任服务器列表。

  3. 出现提示时,请输入 SSH 用户名密码。

连接后,显示的信息类似于以下文本:

Authorized uses only. All activity may be monitored and reported.
Welcome to Ubuntu 16.04.4 LTS (GNU/Linux 4.13.0-1011-azure x86_64)

 * Documentation:  https://help.ubuntu.com
 * Management:     https://landscape.canonical.com
 * Support:        https://ubuntu.com/advantage

  Get cloud support with Ubuntu Advantage Cloud Guest:
    http://www.ubuntu.com/business/services/cloud

83 packages can be updated.
37 updates are security updates.



Welcome to Kafka on HDInsight.

Last login: Thu Mar 29 13:25:27 2018 from 108.252.109.241
ssuhuser@hn0-mykafk:~$

获取 Zookeeper 主机和代理主机信息

使用 Kafka 时,必须了解 Zookeeper 和代理主机。 这些主机配合 Kafka API 和 Kafka 随附的许多实用工具一起使用。

在本部分中,可以从群集上的 Ambari REST API 获取主机信息。

  1. 从 SSH 连接到群集,使用以下命令安装 jq 实用工具。 此实用工具用于分析 JSON 文档且有助于检索主机的信息:

    sudo apt -y install jq
    
  2. 若要将环境变量设置为群集名称,请使用以下命令:

    read -p "Enter the Kafka on HDInsight cluster name: " CLUSTERNAME
    

    出现提示时,请输入 Kafka 群集的名称。

  3. 若要使用 Zookeeper 主机信息来设置环境变量,请使用以下命令:

    export KAFKAZKHOSTS=`curl -sS -u admin -G http://headnodehost:8080/api/v1/clusters/$CLUSTERNAME/services/ZOOKEEPER/components/ZOOKEEPER_SERVER | jq -r '["\(.host_components[].HostRoles.host_name):2181"] | join(",")' | cut -d',' -f1,2`
    

    Tip

    此命令直接查询群集头节点上的 Ambari 服务。 也可以使用公用地址 https://$CLUSTERNAME.azurehdinsight.cn:80/ 访问 ambari。 某些网络配置可以阻止访问公用地址。 例如,使用网络安全组 (NSG) 限制对虚拟网络中的 HDInsight 的访问。

    出现提示时,请输入群集登录帐户(不是 SSH 帐户)的密码。

    Note

    此命令检索所有 Zookeeper 主机,然后仅返回前两个条目。 这是由于某个主机无法访问时,需要一些冗余。

  4. 若要验证是否已正确设置了环境变量,请使用以下命令:

     echo '$KAFKAZKHOSTS='$KAFKAZKHOSTS
    

    此命令返回类似于以下文本的信息:

    zk0-kafka.eahjefxxp1netdbyklgqj5y1ud.ex.internal.chinacloudapp.cn:2181,zk2-kafka.eahjefxxp1netdbyklgqj5y1ud.ex.internal.chinacloudapp.cn:2181

  5. 若要使用 Kafka 代理主机信息来设置环境变量,请使用以下命令:

    export KAFKABROKERS=`curl -sS -u admin -G http://headnodehost:8080/api/v1/clusters/$CLUSTERNAME/services/KAFKA/components/KAFKA_BROKER | jq -r '["\(.host_components[].HostRoles.host_name):9092"] | join(",")' | cut -d',' -f1,2`
    

    出现提示时,请输入群集登录帐户(不是 SSH 帐户)的密码。

  6. 若要验证是否已正确设置了环境变量,请使用以下命令:

    echo '$KAFKABROKERS='$KAFKABROKERS
    

    此命令返回类似于以下文本的信息:

    wn1-kafka.eahjefxxp1netdbyklgqj5y1ud.cx.internal.chinacloudapp.cn:9092,wn0-kafka.eahjefxxp1netdbyklgqj5y1ud.cx.internal.chinacloudapp.cn:9092

管理 Kafka 主题

Kafka 在主题中存储数据流。 可以使用 kafka-topics.sh 实用工具来管理主题。

  • 若要创建主题,请在 SSH 连接中使用以下命令:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --create --replication-factor 3 --partitions 8 --topic test --zookeeper $KAFKAZKHOSTS
    

    此命令使用存储在 $KAFKAZKHOSTS 中的主机信息连接到 Zookeeper, 然后创建名为 test 的 Kafka 主题。 可以通过使用以下脚本列出主题,来验证是否已创建该 test 主题:

    • 本主题中存储的数据已分区到八个分区。

    • 每个分区在群集中的三个辅助角色节点上进行复制。

      Important

      如果在 Azure 区域中已创建提供三个容错域的群集,则复制因子使用 3。 否则,复制因子使用 4.

      在具有三个容错域的区域中,复制因子为 3 可让副本分布在容错域中。 在具有两个容错域的区域中,复制因子为 4 可将副本均匀分布在域中。

      有关区域中容错域数的信息,请参阅 Linux 虚拟机的可用性文档。

      Important

      Kafka 不识别 Azure 容错域。 在创建主题的分区副本时,它可能未针对高可用性正确分发副本。

      若要确保高可用性,请使用 Kafka 分区重新均衡工具。 必须通过 SSH 连接运行此工具,以便连接到 Kafka 群集的头节点。

      为确保 Kafka 数据的最高可用性,应在出现以下情况时为主题重新均衡分区副本:

      • 创建新主题或分区

      • 纵向扩展群集

  • 若要列出主题,请使用以下命令:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --list --zookeeper $KAFKAZKHOSTS
    

    此命令列出 Kafka 群集上可用的主题。

  • 若要删除主题,使用以下命令:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --delete --topic topicname --zookeeper $KAFKAZKHOSTS
    

    此命令删除名为 topicname 的主题。

    Warning

    如果删除了之前创建的 test 主题,则必须重新创建。 稍后会在本文档中使用此主题。

有关适用于 kafka-topics.sh 实用工具的命令的详细信息,请使用以下命令:

/usr/hdp/current/kafka-broker/bin/kafka-topics.sh

生成和使用记录

Kafka 将记录存储在主题中。 记录由生成者生成,由使用者使用。 生产者与使用者通过 Kafka 代理服务通信。 HDInsight 群集中的每个工作节点都是 Kafka 代理主机。

若要将记录存储到之前创建的测试主题,并通过使用者对其进行读取,请使用以下步骤:

  1. 若要为该主题写入记录,请从 SSH 连接使用 kafka-console-producer.sh 实用工具:

    /usr/hdp/current/kafka-broker/bin/kafka-console-producer.sh --broker-list $KAFKABROKERS --topic test
    

    此命令之后是一个空行。

  2. 在空行中键入文本消息,然后点击 Enter。 以这种方式输入一些消息,然后使用 Ctrl + C 返回到正常的提示符处。 每行均作为单独的记录发送到 Kafka 主题。

  3. 若要读取该主题的记录,请从 SSH 连接使用 kafka-console-consumer.sh 实用工具:

    /usr/hdp/current/kafka-broker/bin/kafka-console-consumer.sh --bootstrap-server $KAFKABROKERS --topic test --from-beginning
    

    此命令从主题中检索并显示记录。 使用 --from-beginning 告知使用者从流的开头开始,以检索所有记录。

    Note

    如果使用的是较旧版本的 Kafka,请将 --bootstrap-server $KAFKABROKERS 替换为 --zookeeper $KAFKAZKHOSTS

  4. 使用 Ctrl + C 阻止使用者。

还可以以编程方式创建生产者和使用者。 有关如何使用此 API 的示例,请参阅将 Kafka 生产者和使用者 API 与 HDInsight 配合使用文档。

清理资源

若要清理本快速入门创建的资源,可以删除资源组。 删除资源组也会删除相关联的 HDInsight 群集,以及与资源组相关联的任何其他资源。

若要使用 Azure 门户删除资源组,请执行以下操作:

  1. 在 Azure 门户中展开左侧的菜单,打开服务菜单,然后选择“资源组”以显示资源组的列表。
  2. 找到要删除的资源组,然后右键单击列表右侧的“更多”按钮 (...)。
  3. 选择“删除资源组”,然后进行确认。

Warning

创建群集后便开始 HDInsight 群集计费,删除群集后停止计费。 群集以每分钟按比例收费,因此无需再使用群集时,应始终将其删除。

删除 Kafka on HDInsight 群集会删除存储在 Kafka 中的任何数据。

后续步骤