情感 API

欢迎使用 Microsoft 情感 API,它可以让你借助 Microsoft 前沿的基于云的情感识别算法生成更具个性化的应用。

情感识别

情感 API beta 版使用图像作为输入,通过人脸 API 针对图像中的每张人脸返回情感集的检测置信度以及人脸的范围框。 检测到的情感包括快乐、悲伤、意外、愤怒、恐惧、蔑视、厌恶或中性。 这些情感通过相同的基本面部表情在各种文化环境中全球传递,然后由情感 API 识别。

解释结果:

解释情感 API 生成的结果时,应该将检测到的情感解释为具有最高评分的情感,因为规范化后的评分累加为 1。 用户可以根据需要,在其应用程序中设置较高的置信度阈值。

有关情感检测的详细信息,请参阅“API 参考”:

  • 基本:如果用户已调用人脸 API,则可以提交人脸矩形作为输入,并使用基本层。 API 参考
  • 标准:如果用户未提交人脸矩形,则应使用标准模式。 API 参考

视频中的情感

视频情感 API 使用视频作为输入,针对一段时间内图像中的人脸组返回情感集的检测置信度。 检测到的情感包括快乐、悲伤、惊讶、愤怒、恐惧、蔑视、厌恶或中性。 这些情感通过相同的基本面部表情在各种文化环境中全球传递,然后由情感 API 识别。

解释结果:

视频情感 API 针对帧中人脸的情感提供两种类型的聚合结果。 API 首先计算视频中每张人脸的情感评分,将一段时间内的结果平滑化,以提高准确性。 它返回两种类型的聚合:windowMeanScores 提供在帧中检测到的所有人脸的每种情感的平均评分。 应该将检测到的情感解释为具有最高评分的情感,因为规范化后的评分累加为 1。 用户可以根据需要,在其应用程序中设置较高的置信度阈值。 windowFaceDistribution 提供作为主导情感的每种情感所在人脸的分布。 每张人脸的主导情感已根据该人脸的最高分情感确定。

由于情感会随着时间的变化而变得平缓,因此,如果曾经生成了一个视觉对象用于将结果层叠在原始视频的顶层,请从提供的时间戳中减去 250 毫秒。

有关如何分析视频情感 API 结果格式的详细信息,另请查看。有关视频中情感检测的更详细信息,请参阅 API 参考