使用 Apache Spark History Server 的扩展功能调试和诊断 Spark 应用程序
本文演示如何使用 Apache Spark History Server 的扩展功能调试和诊断已完成和正在运行的 Spark 应用程序。 扩展包括“数据”选项卡、“图形”选项卡和“诊断”选项卡。使用“数据”选项卡检查 Spark 作业的输入和输出数据。 在“图形”选项卡中,可以检查数据流和重播作业图形。 在“诊断”选项卡中,可以参阅“数据倾斜”、“时间偏差”和“执行程序使用情况分析”功能。
获取 Spark History Server 的访问权限
Spark History Server 是已完成和正在运行的 Spark 应用程序的 Web UI。 可以从 Azure 门户或 URL 打开它。
从 Azure 门户打开 Spark History Server Web UI
在“群集仪表板”中选择“Spark History Server”。 出现提示时,输入 Spark 群集的管理员凭据。
Azure 门户。" border="true":::
通过 URL 打开 Spark History Server Web UI
通过浏览到 https://CLUSTERNAME.azurehdinsight.cn/sparkhistory
来打开 Spark History Server,其中 CLUSTERNAME 是 Spark 群集的名称。
Spark History Server Web UI 可能类似于下图:
使用 Spark History Server 中的“数据”选项卡
选择作业 ID,然后选择工具菜单上的“数据”以查看数据视图。
选择“输入”、“输出”和“表操作”选项卡,以查看各个选项卡中的信息。
选择“复制”按钮复制所有行。
选择“csv”按钮将所有数据保存为 .CSV 文件。
在“搜索”字段中输入关键字,以搜索数据。 搜索结果会立即显示。
选择列标题对表进行排序。 选择加号可展开行以显示更多详细信息。 选择减号可折叠行。
通过选择右侧的“部分下载”按钮来下载单个文件。 所选文件会在本地下载。 如果该文件不再存在,则这会打开新选项卡以显示错误消息。
通过选择“复制完整路径”或“复制相对路径”选项(可从下载菜单展开)来复制完整路径或相对路径 。 对于 Azure Data Lake Storage 文件,选择“在 Azure 存储资源管理器中打开”以启动 Azure 存储资源管理器,并在登录后找到相应文件夹。
如果行太多而无法显示在单个页面上,请选择表底部的页码进行导航。
有关详细信息,请将鼠标悬停在“Spark 应用程序数据”上方或选择旁边的问号以显示工具提示。
若要发送有关问题的反馈,请选择“向我们提供反馈”。
使用 Spark History Server 中的“图形”选项卡
选择作业 ID,然后选择工具菜单上的“图形”以查看作业图。 默认情况下,该图会显示所有作业。 使用“作业 ID”下拉菜单筛选结果。
默认情况下会选择“进度”。 可通过在“显示”下拉菜单中选择“已读取”或“已写入”来检查数据流 。
每个任务的背景色都对应于一个热度地图。
Color 说明 绿色 作业已成功完成。 橙色 任务失败,但这不会影响作业的最终结果。 这些任务包括可能稍后会成功的重复或重试实例。 蓝色 任务正在运行。 White 任务正在等待运行或已跳过该阶段。 Red 任务失败。 跳过的阶段以白色显示。
注意
播放可用于已完成的作业。 选择“播放”按钮可播放作业。 选择停止按钮可随时停止作业。 播放作业时,每个任务都会按颜色显示其状态。 未完成的作业不支持播放。
在作业图上滚动以放大和缩小,或者选择“缩放到合适大小”使图形适合屏幕大小。
当任务失败时,将鼠标悬停在图节点上方以查看工具提示,然后选择阶段以在新页面中打开它。
在 Spark 应用程序和作业图页上,如果任务满足以下条件,则阶段会显示工具提示和小图标:
数据倾斜:数据读取大小 > 此阶段内所有任务的平均数据读取大小 * 2 并且数据读取大小 > 10 MB。
时间偏差:执行时间 > 此阶段内所有任务的平均执行时间 * 2 并且执行时间 > 2 分钟。
作业图节点将显示有关每个阶段的以下信息:
ID
名称或说明
总任务数
读取的数据:输入大小和随机读取大小之和
写入的数据:输出大小和随机写入大小之和
执行时间:从第一次尝试的开始时间到最后一次尝试的完成时间的时间和
行计数:输入记录、输出记录、随机读取记录和随机写入记录的总和
进度
注意
默认情况下,作业图节点会显示每个阶段最后一次尝试的相关信息(阶段执行时间除外)。 但在播放期间,作业图节点会显示有关每次尝试的信息。
注意
对于读取和写入的数据大小,我们使用 1MB = 1000 KB = 1000 * 1000 字节。
选择“向我们提供反馈”发送有关问题的反馈。
使用 Spark History Server 中的“诊断”选项卡
选择作业 ID,然后选择工具菜单中的“诊断”以查看作业诊断视图。 “诊断”选项卡包括“数据倾斜”、“时间偏差”和“执行程序使用情况分析” 。
通过选择相应的选项卡来查看“数据偏斜”、“时间偏斜”和“执行程序使用情况分析”。
数据倾斜
选择“数据倾斜”选项卡,根据指定的参数显示相应的倾斜任务。
指定参数
“指定参数”部分显示用于检测数据倾斜的参数。 默认规则如下:读取的任务数据大于读取的平均任务数据的三倍,读取的任务数据超过 10 MB。 若要为倾斜任务定义自己的规则,可以选择参数。 “偏斜阶段”和“倾斜图表”部分会相应地进行更新 。
偏斜阶段
“偏斜阶段”部分显示其倾斜任务满足指定条件的阶段。 如果某个阶段有多个倾斜任务,则“偏斜阶段”部分仅显示最倾斜的任务(即,数据倾斜对应的最大数据)。
倾斜图表
选择“偏斜阶段”表中的行时,“倾斜图表”会根据数据读取和执行时间显示更多任务分布详细信息 。 倾斜任务标记为红色,普通任务标记为蓝色。 出于性能方面的考虑,图表显示最多 100 个示例任务。 任务详细信息显示在右下方面板中。
时间倾斜
“时间倾斜”选项卡根据任务执行时间显示倾斜任务。
指定参数
“指定参数”部分显示用于检测时间偏差的参数。 默认规则如下:任务执行时间大于平均执行时间的三倍,任务执行时间大于 30 秒。 可以按需更改相关参数。 与“数据倾斜”选项卡一样,“偏斜阶段”和“倾斜图表”显示相应的阶段和任务信息 。
选择“时间偏差”后,筛选结果会根据在“指定参数”部分中设置的参数,显示在“偏斜阶段”部分中 。 在“偏斜阶段”部分中选择一项后,相应的图表会在第三部分中进行绘制,任务详细信息会显示在右下方面板中。
执行程序使用情况分析图
“执行程序使用情况图”显示作业实际执行程序分配和运行状态。
选择“执行程序使用情况分析”后,系统会绘制四种有关执行程序使用情况的不同曲线:“已分配的执行程序”、“正在运行的执行程序”、“空闲执行程序”以及“最大执行程序实例数” 。 每个“已添加执行程序”或“已删除执行程序”事件都将增加或减少分配的执行程序 。 可以在“作业”选项卡中选中“事件时间线”以进行更多比较 。
选择彩色图标即可选中或取消选中所有草稿中的相应内容。
常见问题解答
如何还原到社区版本?
若要还原到社区版本,请执行以下步骤。
在 Ambari 中打开群集。
导航到“Spark2”>“配置” 。
选择“自定义 spark2-defaults”。
选择“添加属性...”。
添加 spark.ui.enhancement.enabled=false,然后保存。
现在,该属性设置为 false。
选择“保存” 以保存配置。
在左侧面板中选择“Spark2”。 然后,在“摘要”选项卡上,选择“Spark2 History Server” 。
若要重新启动 Spark History Server,请选择“Spark2 History Server”右侧的“已启动”按钮,然后从下拉菜单中选择“重启” 。
刷新 Spark History Server Web UI。 它会还原到社区版本。
如何上传 Spark History Server 事件以将它报告为问题?
如果在 Spark History Server 中遇到错误,请执行以下步骤来报告该事件。
在 Spark History Server Web UI 中选择“下载”以下载事件。
从“Spark 应用程序和作业图”页中选择“向我们提供反馈”。
提供错误的标题和说明。 然后,将 .zip 文件拖动到编辑字段并选择“ 提交新问题”。
如何在修补程序方案中升级 .jar 文件?
如果要使用修补程序进行升级,请使用以下脚本,该脚本会升级 spark-enhancement.jar*
。
upgrade_spark_enhancement.sh:
#!/usr/bin/env bash
# Copyright (C) Microsoft Corporation. All rights reserved.
# Arguments:
# $1 Enhancement jar path
if [ "$#" -ne 1 ]; then
>&2 echo "Please provide the upgrade jar path."
exit 1
fi
install_jar() {
tmp_jar_path="/tmp/spark-enhancement-hotfix-$( date +%s )"
if wget -O "$tmp_jar_path" "$2"; then
for FILE in "$1"/spark-enhancement*.jar
do
back_up_path="$FILE.original.$( date +%s )"
echo "Back up $FILE to $back_up_path"
mv "$FILE" "$back_up_path"
echo "Copy the hotfix jar file from $tmp_jar_path to $FILE"
cp "$tmp_jar_path" "$FILE"
"Hotfix done."
break
done
else
>&2 echo "Download jar file failed."
exit 1
fi
}
jars_folder="/usr/hdp/current/spark2-client/jars"
jar_path=$1
if ls ${jars_folder}/spark-enhancement*.jar 1>/dev/null 2>&1; then
install_jar "$jars_folder" "$jar_path"
else
>&2 echo "There is no target jar on this node. Exit with no action."
exit 0
fi
使用情况
upgrade_spark_enhancement.sh https://${jar_path}
示例
upgrade_spark_enhancement.sh https://${account_name}.blob.core.chinacloudapi.cn/packages/jars/spark-enhancement-${version}.jar
从 Azure 门户使用 bash 文件
启动 Azure 门户,然后选择自己的群集。
使用以下参数完成脚本操作。
属性 Value 脚本类型 - Custom 名称 UpgradeJar Bash 脚本 URI https://hdinsighttoolingstorage.blob.core.chinacloudapi.cn/shsscriptactions/upgrade_spark_enhancement.sh
节点类型 头节点、工作器节点 参数 https://${account_name}.blob.core.chinacloudapi.cn/packages/jars/spark-enhancement-${version}.jar
已知问题
目前,Spark History Server 仅适用于 Spark 2.3 和 2.4。
使用 RDD 的输入和输出数据不会显示在“数据”选项卡中。
后续步骤
建议
如有任何反馈,或使用此工具时遇到任何问题,请向 hdivstool@microsoft.com 发送电子邮件。