集成概述

许多数据连接器、工具和集成可与平台无缝协作,用于引入、业务流程、输出和数据查询。 本文简要概述了可用的连接器、工具和集成。 对于每个连接器,可以找到其完整文档的详细信息和链接。

对于特定集成类型的概述页面,请选择以下按钮之一。

比较表

以下各表汇总了每个项目的功能。 选择对应于连接器或工具和集成的选项卡。 每个项名称都链接到其 详细说明

下表汇总了可用连接器及其功能:

Name Ingest Export Orchestrate Query
Apache Kafka ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Azure IoT Hubs ✔️
Azure Monitor ✔️
Cribl Stream ✔️
Fluent Bit ✔️
JDBC ✔️
逻辑应用程序 ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
打开遥测 ✔️
Serilog ✔️
Splunk ✔️
Splunk 通用转发器 ✔️
Telegraf ✔️

详细说明

以下部分提供了连接器、工具和集成的详细说明。 选择对应于连接器或工具和集成的选项卡。

Apache Kafka

Apache Kafka是一个分布式流式处理平台,用于构建实时流数据管道,以便可靠地在系统或应用程序之间传输数据。 Kafka Connect 是一个工具,用于在 Apache Kafka 和其他数据系统之间以可缩放且可靠的方式流式传输数据。 Kafka Sink 充当来自 Kafka 的连接器,无需编写代码。 此连接器是 Confluent 认证的金牌,这意味着它通过全面审查和测试质量、功能完整性、符合标准和性能。

Apache Log4J 2

Log4J 是适用于 Java 应用程序的流行日志记录框架,由 Apache 基金会维护。 Log4j 开发人员可以根据记录器的名称、记录器级别和消息模式,以任意粒度控制哪些日志语句输出。 通过使用 Apache Log4J 2 接收器,可以将日志数据流式传输到数据库,可以在其中实时分析和可视化日志。

Apache Spark

Apache Spark 是用于大规模数据处理的统一分析引擎。 Spark 连接器是可在任何 Spark 群集上运行的open source project。 它实现数据源和数据接收器,以便将数据移出或移入 Spark 群集。 通过使用 Apache Spark 连接器,可以构建面向数据驱动方案的快速且可缩放的应用程序。 例如,机器学习(ML)、提取-转换-加载(ETL)和日志分析。 通过使用连接器,您的数据库将成为一种有效的数据存储,用于标准 Spark 源和汇操作,例如读取、写入和 writeStream。

Azure Cosmos DB

Azure Cosmos DB 是一个引入管道,用于侦听 Cosmos DB 更改馈送并将数据引入数据库。

Azure Data Factory

Azure Data Factory(ADF)是基于云的数据集成服务,可用于集成不同的数据存储并对数据执行活动。

  • 功能:引入、导出
  • 支持的引入类型:批处理
  • 用例:数据编排
  • Documentation:通过使用 Azure Data Factory 将数据复制到您的数据库

Azure Event Grid

事件网格数据传输是一个管道,它侦听 Azure 存储,并在订阅事件发生时更新您的数据库以获取信息。 可以通过使用 Azure Event Grid 订阅获取 blob 被创建或重命名的通知,从而配置对 Azure 存储(Blob storage 和 ADLSv2)的持续引入,并通过 Azure Event Hubs 流式传输这些通知。

  • 功能:引入
  • 支持的引入类型:批处理、流式处理
  • 用例:事件处理
  • 文档:事件网格数据连接

Azure Event Hubs

Azure Event Hubs是大数据流式处理平台和事件引入服务。 您可以配置从客户管理的事件中心持续引入。

Azure Functions

Azure Functions允许按计划或在响应事件时在云中运行无服务器代码。 通过使用Azure Functions的输入和输出绑定,可以将数据库集成到工作流中,以引入数据并针对数据库运行查询。

Azure IoT中心

Azure IoT Hub是托管在云中的托管服务,充当 IoT 应用程序与所管理设备之间的双向通信的中心消息中心。 可以配置从客户管理的 IoT 中心持续引入,使用其与事件中心兼容的设备到云消息内置终结点。

  • 功能:引入
  • 支持的引入类型:批处理、流式处理
  • 用例:IoT 数据
  • Documentation:IoT Hub数据连接

Azure监视器

Azure Monitor 代理可以使用数据收集规则将以下虚拟机数据发送到Azure Data Explorer:

  • 性能计数器
  • IIS 日志
  • Windows 事件日志
  • Linux 系统日志
  • 自定义文本日志
  • 自定义 JSON 日志

Cribl流

Cribl Stream 是一个处理引擎,可安全地从任何源收集、处理和流式传输计算机事件数据。 它允许你解析并处理这些数据,以用于任何目的的分析。

Fluent Bit

Fluent Bit 是一种开源代理,用于从各种源收集日志、指标和跟踪。 它允许在将事件数据发送到storage之前对其进行筛选、修改和聚合。

JDBC

Java 数据库连接 (JDBC) 是用于连接数据库和执行查询的 Java API。 可以使用 JDBC 连接到Azure Data Explorer。

Logic Apps

通过使用 Microsoft 逻辑应用连接器,可以在计划或触发的任务中自动运行查询和命令。

Logstash

Logstash 插件使你能够将 Logstash 中的事件处理到 Azure Data Explorer 数据库中以供以后分析。

Matlab

MATLAB 是一个编程和数值计算平台,用于分析数据、开发算法和创建模型。 可以在 MATLAB 中获取授权令牌,以便在 Azure Data Explorer 中查询数据。

NLog

NLog 是各种.NET平台(包括.NET标准)的灵活免费日志记录平台。 借助 NLog,可以写入多个目标,例如数据库、文件或控制台。 通过使用 NLog,可以实时更改日志记录配置。 NLog 接收器是 NLog 的目标,可用于将日志消息发送到数据库。 该插件提供了将日志高效传送到集群的方法。

ODBC

Open Database Connectivity(ODBC)是被广泛接受的用于数据库访问的应用程序编程接口(API)。 Azure Data Explorer与SQL Server通信协议(MS-TDS)子集兼容。 此兼容性允许将 ODBC 驱动程序用于SQL Server和Azure Data Explorer。

开放遥测

OpenTelemetry 连接器支持将多个接收器的数据引入数据库。 它可以根据你的需求自定义导出数据的格式,以此充当将 Open Telemetry 生成的数据引入数据库的桥梁。

Serilog

Serilog 是.NET应用程序的常用日志记录框架。 通过使用 Serilog,开发人员可以根据记录器的名称、记录器级别和消息模式,以任意粒度控制哪些日志语句输出。 Serilog 接收器也称为追加器,可将你的日志数据流式传输到数据库,你可以在其中对日志进行实时分析和可视化。

Splunk

Splunk Enterprise 是一个软件平台,可用于同时从多个源引入数据。 Azure Data Explorer加载项将数据从 Splunk 发送到群集中的表。

Splunk 通用转发器

Telegraf

Telegraf 是一个open source轻型代理,内存占用最少,用于收集、处理和写入遥测数据,包括日志、指标和 IoT 数据。 Telegraf 支持数百个输入和输出插件。 它得到了open source社区的广泛使用和支持。 输出插件充当 Telegraf 的连接器,并支持从许多类型的输入插件将数据引入数据库。