在具有企业安全性套餐的 Azure HDInsight 群集中运行 Apache Oozie

Apache Oozie 是一个管理 Apache Hadoop 作业的工作流和协调系统。 Oozie 与 Hadoop 堆栈集成,并支持以下作业:

  • Apache MapReduce
  • Apache Pig
  • Apache Hive
  • Apache Sqoop

还可以使用 Oozie 来计划特定于某系统的作业,例如 Java 程序或 shell 脚本

先决条件

具有企业安全性套餐 (ESP) 的 Azure HDInsight Hadoop 群集。 请参阅配置具有 ESP 的 HDInsight 群集

注意

有关在非 ESP 群集中使用 Oozie 的详细说明,请参阅在基于 Linux 的 Azure HDInsight 中使用 Apache Oozie 工作流

连接到 ESP 群集

有关安全外壳 (SSH) 的详细信息,请参阅使用 SSH 连接到 HDInsight (Hadoop)

  1. 使用 SSH 连接到 HDInsight 群集:

    ssh [DomainUserName]@<clustername>-ssh.azurehdinsight.cn
    
  2. 若要验证 Kerberos 身份验证是否成功,请使用 klist 命令。 如果不成功,请使用 kinit 启动 Kerberos 身份验证。

  3. 登录到 HDInsight 网关,注册访问 Azure Data Lake Storage 所需的 OAuth 标记:

    curl -I -u [DomainUserName@Domain.com]:[DomainUserPassword] https://<clustername>.azurehdinsight.cn
    

    状态响应代码 200 OK 表示注册成功。 如果收到未经授权的响应(如 401),请检查用户名和密码。

定义工作流

Oozie 工作流定义是用 Apache Hadoop 过程定义语言 (hPDL) 编写的。 hPDL 是一种 XML 过程定义语言。 按照以下步骤定义工作流:

  1. 设置域用户的工作区:

    hdfs dfs -mkdir /user/<DomainUser>
    cd /home/<DomainUserPath>
    cp /usr/hdp/<ClusterVersion>/oozie/doc/oozie-examples.tar.gz .
    tar -xvf oozie-examples.tar.gz
    hdfs dfs -put examples /user/<DomainUser>/
    

    DomainUser 替换为域用户名。 将 DomainUserPath 替换为域用户的主目录路径。 将 ClusterVersion 替换为群集数据平台版本。

  2. 使用以下语句创建并编辑新文件:

    nano workflow.xml
    
  3. 打开 nano 编辑器后,输入以下 XML 作为文件内容:

    <?xml version="1.0" encoding="UTF-8"?>
    <workflow-app xmlns="uri:oozie:workflow:0.4" name="map-reduce-wf">
       <credentials>
          <credential name="metastore_token" type="hcat">
             <property>
                <name>hcat.metastore.uri</name>
                <value>thrift://<active-headnode-name>-<clustername>.<Domain>.com:9083</value>
             </property>
             <property>
                <name>hcat.metastore.principal</name>
                <value>hive/_HOST@<Domain>.COM</value>
             </property>
          </credential>
          <credential name="hs2-creds" type="hive2">
             <property>
                <name>hive2.server.principal</name>
                <value>${jdbcPrincipal}</value>
             </property>
             <property>
                <name>hive2.jdbc.url</name>
                <value>${jdbcURL}</value>
             </property>
          </credential>
       </credentials>
       <start to="mr-test" />
       <action name="mr-test">
          <map-reduce>
             <job-tracker>${jobTracker}</job-tracker>
             <name-node>${nameNode}</name-node>
             <prepare>
                <delete path="${nameNode}/user/${wf:user()}/examples/output-data/mrresult" />
             </prepare>
             <configuration>
                <property>
                   <name>mapred.job.queue.name</name>
                   <value>${queueName}</value>
                </property>
                <property>
                   <name>mapred.mapper.class</name>
                   <value>org.apache.oozie.example.SampleMapper</value>
                </property>
                <property>
                   <name>mapred.reducer.class</name>
                   <value>org.apache.oozie.example.SampleReducer</value>
                </property>
                <property>
                   <name>mapred.map.tasks</name>
                   <value>1</value>
                </property>
                <property>
                   <name>mapred.input.dir</name>
                   <value>/user/${wf:user()}/${examplesRoot}/input-data/text</value>
                </property>
                <property>
                   <name>mapred.output.dir</name>
                   <value>/user/${wf:user()}/${examplesRoot}/output-data/mrresult</value>
                </property>
             </configuration>
          </map-reduce>
          <ok to="myHive2" />
          <error to="fail" />
       </action>
       <action name="myHive2" cred="hs2-creds">
          <hive2 xmlns="uri:oozie:hive2-action:0.2">
             <job-tracker>${jobTracker}</job-tracker>
             <name-node>${nameNode}</name-node>
             <jdbc-url>${jdbcURL}</jdbc-url>
             <script>${hiveScript2}</script>
             <param>hiveOutputDirectory2=${hiveOutputDirectory2}</param>
          </hive2>
          <ok to="myHive" />
          <error to="fail" />
       </action>
       <action name="myHive" cred="metastore_token">
          <hive xmlns="uri:oozie:hive-action:0.2">
             <job-tracker>${jobTracker}</job-tracker>
             <name-node>${nameNode}</name-node>
             <configuration>
                <property>
                   <name>mapred.job.queue.name</name>
                   <value>${queueName}</value>
                </property>
             </configuration>
             <script>${hiveScript1}</script>
             <param>hiveOutputDirectory1=${hiveOutputDirectory1}</param>
          </hive>
          <ok to="end" />
          <error to="fail" />
       </action>
       <kill name="fail">
          <message>Oozie job failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
       </kill>
       <end name="end" />
    </workflow-app>
    
  4. clustername 替换为群集的名称。

  5. 若要保存该文件,请选择“Ctrl+X”。 输入“Y”。然后选择 Enter。

    工作流分为两部分:

    • 凭据。 此部分接收用于验证 Oozie 操作的凭据:

      此示例对 Hive 操作进行身份验证。 若要了解详细信息,请参阅操作身份验证

      凭据服务允许 Oozie 操作模拟用户访问 Hadoop 服务。

    • 操作。 此部分包含三个操作:map-reduce、Hive server 2 和 Hive server 1:

      • map-reduce 操作针对输出聚合字数统计的映射化简运行来自 Oozie 包的示例。

      • Hive server 2 和 Hive server 1 操作在随 HDInsight 提供的示例 Hive 表上执行查询。

      Hive 操作借助操作元素中的关键字 cred,使用凭据部分中定义的凭据进行身份验证。

  6. 使用以下命令将 workflow.xml 文件复制到 /user/<domainuser>/examples/apps/map-reduce/workflow.xml

    hdfs dfs -put workflow.xml /user/<domainuser>/examples/apps/map-reduce/workflow.xml
    
  7. domainuser 替换为你的域用户名。

定义 Oozie 作业的属性文件

  1. 使用以下语句为作业属性创建并编辑新文件:

    nano job.properties
    
  2. 打开 nano 编辑器后,使用以下 XML 作为该文件的内容:

    nameNode=adl://home
    jobTracker=headnodehost:8050
    queueName=default
    examplesRoot=examples
    oozie.wf.application.path=${nameNode}/user/[domainuser]/examples/apps/map-reduce/workflow.xml
    hiveScript1=${nameNode}/user/${user.name}/countrowshive1.hql
    hiveScript2=${nameNode}/user/${user.name}/countrowshive2.hql
    oozie.use.system.libpath=true
    user.name=[domainuser]
    jdbcPrincipal=hive/<active-headnode-name>.<Domain>.com@<Domain>.COM
    jdbcURL=[jdbcurlvalue]
    hiveOutputDirectory1=${nameNode}/user/${user.name}/hiveresult1
    hiveOutputDirectory2=${nameNode}/user/${user.name}/hiveresult2
    
    • 如果主群集存储是 Azure Data Lake Storage Gen1,则将 adl://home URI 用于 nameNode 属性。 如果使用的是 Azure Blob 存储,则更改为 wasb://home。 如果使用的是 Azure Data Lake Storage Gen2,则更改为 abfs://home
    • domainuser 替换为你的域用户名。
    • ClusterShortName 替换为群集的短名称。 例如,如果群集名称为 https:// [示例链接] sechadoopcontoso.azurehdinsight.cn,则 clustershortname 为群集的前 6 个字符:sechad。
    • jdbcurlvalue 替换为 Hive 配置中的 JDBC URL。 例如,jdbc:hive2://headnodehost:10001/;transportMode=http。
    • 若要保存文件,请按 Ctrl+X,输入 Y,再按 Enter

    运行 Oozie 作业时,必须在本地提供此属性文件。

为 Oozie 作业创建自定义 Hive 脚本

可以为 Hive server 1 和 Hive server 2 创建这两个 Hive 脚本,如以下各节中所示。

Hive server 1 文件

  1. 创建和编辑 Hive server 1 操作文件:

    nano countrowshive1.hql
    
  2. 创建脚本:

    INSERT OVERWRITE DIRECTORY '${hiveOutputDirectory1}'
    ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
    select devicemake from hivesampletable limit 2;
    
  3. 将文件保存到 Apache Hadoop 分布式文件系统 (HDFS):

    hdfs dfs -put countrowshive1.hql countrowshive1.hql
    

Hive server 2 文件

  1. 创建和编辑 Hive server 2 操作字段:

    nano countrowshive2.hql
    
  2. 创建脚本:

    INSERT OVERWRITE DIRECTORY '${hiveOutputDirectory1}' 
    ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' 
    select devicemodel from hivesampletable limit 2;
    
  3. 将文件保存到 Hdfs:

    hdfs dfs -put countrowshive2.hql countrowshive2.hql
    

提交 Oozie 作业

为 ESP 群集提交 Oozie 作业与在非 ESP 群集中提交 Oozie 作业类似。

有关详细信息,请参阅在基于 Linux 的 Azure HDInsight 中将 Apache Oozie 与 Apache Hadoop 配合使用以定义和运行工作流

Oozie 作业提交结果

Oozie 作业为用户而运行。 因此,Apache Hadoop YARN 和 Apache Ranger 审核日志会显示正在以被模拟用户身份运行的作业。 Oozie 作业的命令行界面输出如以下代码所示:

Job ID : 0000015-180626011240801-oozie-oozi-W
------------------------------------------------------------------------------------------------
Workflow Name : map-reduce-wf
App Path      : adl://home/user/alicetest/examples/apps/map-reduce/wf.xml
Status        : SUCCEEDED
Run           : 0
User          : alicetest
Group         : -
Created       : 2018-06-26 19:25 GMT
Started       : 2018-06-26 19:25 GMT
Last Modified : 2018-06-26 19:30 GMT
Ended         : 2018-06-26 19:30 GMT
CoordAction ID: -

Actions
------------------------------------------------------------------------------------------------
ID                        Status    Ext ID            ExtStatus                 ErrCode
------------------------------------------------------------------------------------------------
0000015-180626011240801-oozie-oozi-W@:start:    OK    - OK             -
------------------------------------------------------------------------------------------------
0000015-180626011240801-oozie-oozi-W@mr-test    OK    job_1529975666160_0051    SUCCEEDED      -
------------------------------------------------------------------------------------------------
0000015-180626011240801-oozie-oozi-W@myHive2    OK    job_1529975666160_0053    SUCCEEDED      -
------------------------------------------------------------------------------------------------
0000015-180626011240801-oozie-oozi-W@myHive    OK     job_1529975666160_0055    SUCCEEDED      -
------------------------------------------------------------------------------------------------
0000015-180626011240801-oozie-oozi-W@end       OK     - OK             -
-----------------------------------------------------------------------------------------------

Hive server 2 操作的 Ranger 审核日志显示 Oozie 为用户运行操作。 Ranger 和 YARN 视图仅对群集管理员可见。

在 Oozie 中配置用户授权

Oozie 本身具有用户授权配置,可以阻止用户停止或删除其他用户的作业。 若要启用此配置,请将 oozie.service.AuthorizationService.security.enabled 设置为 true

有关详细信息,请参阅 Apache Oozie Installation and Configuration(Apache Oozie 安装和配置)。

对于不提供或不支持 Ranger 插件的组件(如 Hive server 1),只能进行粗粒度的 HDFS 授权。 细粒度授权只能通过 Ranger 插件进行。

获取 Oozie Web UI

Oozie Web UI 提供基于 Web 的视图来显示群集上 Oozie 作业的状态。 若要获取 Web UI,请在 ESP 群集中执行以下步骤:

  1. 添加边缘节点并启用 SSH Kerberos 身份验证

  2. 按照 Oozie Web UI 步骤启用 SSH 隧道以连接到边缘节点并访问 Web UI。

后续步骤