Compartilhar via

了解 Azure Stream Analytics 的数据输入

Azure 流分析作业连接到一个或多个数据输入。 每个输入定义与现有数据源的连接。 流分析接受来自多种事件源的数据,包括事件中心、IoT 中心和 Blob 存储。 输入在为每个作业编写的流式处理 SQL 查询中通过名称进行引用。 在查询中,可以联接多个输入来混合数据,或将流数据与查找进行比较以引用参考数据,并将结果传递到输出端。

流分析与四种资源作为输入进行了一流的集成:

这些输入资源可以位于与流分析作业相同的Azure订阅中,也可以位于不同的订阅中。

可以使用 Azure 门户Azure PowerShell.NET APIREST API 创建、编辑和测试流分析作业输入。

流输入和引用输入

将数据推送到数据源时,流分析作业会使用这些数据并实时处理。 输入分为两种类型:

  • 数据流输入
  • 参考数据输入。

数据流输入

数据流是一段时间内未绑定的事件序列。 流分析作业必须至少包含一个数据流输入。 事件中心、IoT 中心、Azure Data Lake Storage Gen2 和 Blob 存储作为数据流输入源受支持。 事件中心用于从多个设备和服务收集事件流。 这些流可能包括社交媒体活动源、股票交易信息或来自传感器的数据。 IoT 中心经过优化,可从物联网(IoT)方案中连接的设备收集数据,Blob 存储可用作引入大容量数据的输入源,例如日志文件。

有关流式数据输入的详细信息,请参阅 将流数据作为输入引入流分析

参考数据输入

流分析还支持称为 引用数据的输入。 引用数据要么是完全静态的,要么是变化缓慢的。 它通常用于执行数据关联和查找。 例如,可以将数据流输入中的数据联接到引用数据中的数据,就像执行 SQL 联接来查找静态值一样。 Azure Blob 存储、Azure Data Lake Storage Gen2 和 Azure SQL 数据库目前支持作为参考数据的输入源。 引用数据源 Blob 的大小上限为 300 MB,具体取决于查询复杂性和分配的流单元。 有关详细信息,请参阅参考数据文档的 “大小限制 ”部分。

有关引用数据输入的详细信息,请参阅 在流分析中使用参考数据进行查找

后续步骤