将 MCP 服务器与 Azure 数据资源管理器配合使用(预览版)

将模型上下文协议(MCP)与 Azure 数据资源管理器(ADX)群集集成,可以实时获取 AI 驱动的见解和作。 MCP 服务器通过 MCP 接口提供工具,允许 AI 代理或 AI 应用程序与 ADX 交互,以便可以轻松查询和分析数据。

模型上下文协议 (MCP)是一种协议,允许 AI 模型(如 Azure OpenAI 模型)与外部工具和资源交互。 MCP 使代理能够更轻松地查找、连接和使用企业数据。

注释

此功能处于预览状态。

使用 RTI 或 Azure MCP 服务器的最常见方案是从现有 AI 客户端(如 Cline、Claude 和 GitHub copilot)连接到它。 然后,AI 客户端可以使用可用的工具来使用自然语言访问 ADX 资源并与之交互。

例如,可以将 GitHub Copilot 代理模式与 RTI MCP 服务器配合使用来列出 KQL 数据库或在 ADX 群集上运行自然语言查询。

生成 AI 代理

MCP 对 Azure 数据资源管理器的支持是一个完整的开源 MCP 服务器集成。 它支持自然语言查询,并允许代理动态发现架构和元数据。 MCP 服务器可用于各种 AI 客户端,例如 GitHub Copilot、Cline 或 Claude Desktop。

可以使用以下 MCP 服务器将 AI 代理与 Azure 数据资源管理器集成和生成:

  • Fabric RTI MCP 服务器 (预览版) - 此服务器设计用于 ADX 群集或 Fabric Real-Time Intelligence (RTI) Eventhouse。 它为 AI 代理提供统一的接口,用于查询、推理和处理实时数据。

  • Azure MCP 服务器 (预览版) - Azure MCP 服务器允许你使用自然语言提示管理 Azure 数据资源管理器资源。 可以列出群集、查看数据库、查询数据等,而无需记住复杂的 Kusto 查询语言 (KQL) 语法。

建筑

MCP 服务器是系统的核心,充当 AI 代理和 ADX 数据源之间的桥梁。 代理将请求发送到 MCP 服务器,将请求转换为 ADX 查询。

显示 MCP 体系结构的一个关系图。

通过此体系结构,可以构建模块化、可缩放且安全的智能应用程序,以响应实时信号。 MCP 使用客户端-服务器体系结构,因此 AI 应用程序可以有效地与外部工具进行交互。 该体系结构包括以下组件:

  • MCP 主机:AI 模型运行的主机环境(如 GPT-4、Claude 或 Gemini)。
  • MCP 客户端:中介服务将 AI 模型的请求转发到 MCP 服务器,如 GitHub Copilot、Cline 或 Claude Desktop。
  • MCP 服务器:轻型应用程序通过自然语言 API、数据库公开特定功能。 例如,若要执行 KQL 查询,以便从 ADX 群集进行实时数据检索。

主要功能

Real-Time 数据访问:以秒为单位从 ADX 群集检索数据。

自然语言界面:用户或代理以纯英语或其他语言提问,系统将其转换为优化的查询(NL2KQL)。

架构发现:MCP 服务器显示架构和元数据,因此代理可以动态学习数据结构。

即插即用集成:由于标准化 API 和发现机制,MCP 客户端(如 GitHub Copilot、Claude 和 Cline)通过最少的设置连接到 RTI。

本地语言推理:使用首选语言处理数据。