使用人脸检测器预设查找和编修(模糊处理)人脸

媒体服务徽标 v3


警告

Azure 媒体服务将于 2024 年 6 月 30 日停用。 有关详细信息,请参阅 AMS 停用指南

重要

正如 Microsoft 负责任 AI 标准所概述的,Microsoft 致力于实现 AI 系统的公平性、隐私性、安全性和透明度。 为了符合这些标准,Azure 媒体服务将于 2023 年 9 月 14 日停用视频分析器预设 此预设当前允许从视频文件中提取多个视频和音频见解。 客户可以使用 Azure 视频索引器提供的更高级功能集替换其当前工作流。

Azure 媒体服务 v3 API 包含一个人脸检测器预设,该预设在云中提供可缩放的人脸检测和编修(模糊处理)功能。 使用面部修订,可对视频进行修改,使所选个人的面部模糊显示。 用户可能想要在公共安全和新闻媒体场景中使用面部修订服务。 对于时长仅几分钟但包含多张人脸的镜头,进行手动人脸编修可能需要几个小时,但使用此预设仅需几个简单步骤即可完成该过程。

符合性、隐私和安全性

作为一项重要提醒,在 Azure 媒体服务中使用分析时必须遵守所有适用的法律。 不得以违反他人权利的方式使用 Azure 媒体服务或任何其他 Azure 服务。 在将任何视频(包括任何生物特征数据)上传到 Azure 媒体服务进行处理和存储之前,必须拥有所有适当的权利,包括获得视频中个人的所有适当同意。 若要了解 Azure 媒体服务中的合规性、隐私和安全性,请参阅 Azure 认知服务条款。 有关 Azure 的隐私义务和数据处理,请查看 Azure 的隐私声明在线服务条款 (OST)。 使用 Azure 媒体服务即表示你同意接受认知服务条款、OST、DPA 和隐私声明的约束

面部修订模式

面部修订的工作方式是:检测每一帧视频中的面部,并跟踪之前和之后的面部对象,以便同一个人在其他角度也模糊显示。 自动编修过程比较复杂,不能 100% 保证始终能对每张人脸进行模糊处理。 出于此原因,能够以双阶段模式使用该预设,以通过编辑阶段改善模糊处理的质量和准确度,然后提交文件以完成最终的模糊处理两阶段。

除了全自动化的“组合”模式外,双阶段工作流还允许通过人脸 ID 列表选择要模糊处理(或不模糊处理)的人脸。 为了按帧进行任意调整,该预设将使用 JSON 格式的元数据文件作为第二个阶段的输入。 此工作流拆分为“分析”和“修订”模式。

还可以轻松将这两个模式组合为在一个作业中运行两项任务的单个阶段;此模式称为“组合”。 本文中的示例代码将演示如何对示例源文件使用简化的单阶段“组合”模式。

组合模式

这会在单个阶段中生成一个经过编修的 MP4 视频文件,而无需对 JSON 文件进行任何手动编辑。 作业的资产文件夹中的输出将是单个 .mp4 文件,其中包含使用选定模糊效果模糊处理的人脸。 使用设置为 SourceResolution 的 resolution 属性可以实现最佳编修效果。

阶段 文件名 说明
输入资产 "ignite-sample.mp4" WMV、MOV 或 MP4 格式的视频
预设配置 人脸检测器配置 mode:FaceRedactorMode.Combined,blurType:BlurType.Med,resolution:AnalysisResolution.SourceResolution
输出资产 "ignite-redacted.mp4 包含应用于人脸的模糊效果的视频

分析模式

双阶段工作流的“分析”阶段采用视频输入并生成一个 JSON 文件,其中包含检测到的每张人脸的人脸位置、人脸 ID 和 jpg 图像列表。 请注意,在后续运行分析传递时,不保证人脸 ID 的相同。

阶段 文件名 说明
输入资产 "ignite-sample.mp4" WMV、MPV 或 MP4 格式的视频
预设配置 人脸检测器配置 mode:FaceRedactorMode.Analyze,resolution:AnalysisResolution.SourceResolution
输出资产 ignite-sample_annotations.json JSON 格式的面部位置批注数据。 在后续运行分析传递时,不保证人脸 ID 的相同。 用户可编辑此数据,以修改模糊边界框。 请查看以下示例。
输出资产 foo_thumb%06d.jpg [foo_thumb000001.jpg, foo_thumb000002.jpg] 裁剪后的 jpg 文件,显示每个检测到的面部,其中的数字指示面部的标签 ID

输出示例

{
  "version": 1,
  "timescale": 24000,
  "offset": 0,
  "framerate": 23.976,
  "width": 1280,
  "height": 720,
  "fragments": [
    {
      "start": 0,
      "duration": 48048,
      "interval": 1001,
      "events": [
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [],
        [
          {
            "index": 13,
            "id": 1138,
            "x": 0.29537,
            "y": -0.18987,
            "width": 0.36239,
            "height": 0.80335
          },
          {
            "index": 13,
            "id": 2028,
            "x": 0.60427,
            "y": 0.16098,
            "width": 0.26958,
            "height": 0.57943
          }
        ],

    ... truncated

编修(模糊处理)模式

工作流的第二步使用更大数量的输入,这些输入必须合并为单个资产。

这包括要模糊处理的 ID 的列表、原始视频和批注 JSON。 此模式使用批注来对输入视频进行模糊处理。

“分析”步骤的输出不包括原始视频。 需要将该视频上传到“修订”模式任务的输入资产中,并将其选作主文件。

阶段 文件名 说明
输入资产 "ignite-sample.mp4" WMV、MPV 或 MP4 格式的视频。 与步骤 1 中相同的视频。
输入资产 "ignite-sample_annotations.json" 完成第一阶段后生成的注释元数据文件,如果你想要更改已模糊处理的人脸,可以选择性地进行修改。 必须在外部应用程序、代码或文本编辑器中进行这种编辑。
输入资产 "ignite-sample_IDList.txt"(可选) 要进行修订的可选面部 ID 列表,以新行进行分隔。 如果留空,则会对源中的所有人脸应用模糊处理。 可以使用列表有选择地选择不要模糊处理的特定人脸。
人脸检测器预设 预设配置 mode:FaceRedactorMode.Redact,blurType:BlurType.Med
输出资产 "ignite-sample-redacted.mp4" 基于批注进行了模糊处理的视频

示例输出

这是来自选择了一个 ID 的 ID 列表的输出。 在后续运行分析传递时,不保证人脸 ID 的相同。

示例 foo_IDList.txt

1
2
3

模糊类型

在“组合”或“编修”模式下,可通过 JSON 输入配置在五种不同的模糊处理模式中选择:“低”、“中”、“高”、“盒”和“黑色” 。 默认情况下使用“中”

可以查找以下模糊类型的示例。

低分辨率模糊处理设置示例。

中分辨率模糊处理设置示例。

高分辨率模糊处理设置示例。

Box

在调试输出时使用的盒模式。

黑色

黑盒模式包括带有黑盒的所有人脸。

输出 JSON 文件中的元素

修订 MP 提供高精确度的面部位置检测和跟踪功能,可在一个视频帧中检测到最多 64 张人脸。 正面的面部可提供最佳效果,而检测和跟踪侧面的面部和较小的面部(小于或等于 24x24 像素)可能具有一定难度。

作业将生成一个 JSON 输出文件,其中包含有关检测到的和跟踪的面部的元数据。 元数据包括指示面部位置的坐标,以及指示正在跟踪该人员的面部 ID 编号。 在正面面部长时间于帧中消失或重叠的情况下,面部 ID 编号很容易重置,导致某些人员被分配多个 ID。

输出 JSON 包含以下元素:

根 JSON 元素

元素 说明
版本 这是指视频 API 的版本。
时间刻度 视频每秒的“刻度”数。
offset 这是时间戳的时间偏移量。 在版本 1.0 的视频 API 中,此属性始终为 0。 在我们将来支持的方案中,此值可能会更改。
宽度、高度 输出视频帧的宽度和高度,以像素为单位。
帧速率 视频的每秒帧数。

片段 JSON 元素

元素 说明
start 第一个事件的开始时间(以“刻度”为单位)。
duration 片段的长度,以“时钟周期”为单位。
索引 (仅适用于 Azure 媒体编修器)定义当前事件的帧索引。
interval 片段中每个事件条目的间隔(以“时钟周期”为单位)。
活动 每个事件包含在该持续时间内检测到并跟踪的面部。 它是事件的数组。 外部数组代表一个时间间隔。 内部数组包含在该时间点发生的 0 个或多个事件。 空括号 [] 代表没有检测到人脸。
ID 正在跟踪的面部的 ID。 如果某个面部后来未被检测到,此编号可能会意外更改。 给定人员在整个视频中应该拥有相同的 ID,但由于检测算法的限制(例如受到阻挡等情况),我们无法保证这一点。
x, y 规范化 0.0 到 1.0 比例中面部边框左上角的 X 和 Y 坐标。
-X 和 Y 坐标总是相对于横向方向,因此如果视频是纵向(或使用 iOS 时上下颠倒),便需要相应地变换坐标。
宽度、高度 规范化 0.0 到 1.0 比例中面部边框的宽度和高度。
facesDetected 位于 JSON 结果的末尾,汇总在生成视频期间算法所检测到的面部数。 由于 ID 可能在面部无法检测时(例如面部离开屏幕、转向别处)意外重置,此数字并不一定与视频中的实际面部数相同。