AI 与 Azure 容器应用集成

Azure 容器应用是一个无服务器容器平台,可简化微服务和 AI 支持的应用程序的部署和缩放。 借助对 GPU 工作负载的本机支持、与 Azure AI 服务的无缝集成以及灵活的部署选项,它是构建智能云原生解决方案的理想平台。

GPU 驱动的推理

使用 GPU 加速工作负荷配置文件来满足各种 AI 工作负载需求,包括:

  • 专用 GPU:最适合连续、低延迟推理方案。
  • 缩放到零:自动缩减空闲的 GPU 资源,以最大程度地降低成本。

部署 Azure AI Foundry 模型

Azure 容器应用与 Azure AI Foundry 集成,使你可以将特选的 AI 模型直接部署到容器化环境中。 此集成简化了模型部署和管理,使在容器应用上生成智能应用程序变得更加容易。

示例项目

下面是一些示例,演示了 AI 与 Azure 容器应用的集成。 这些示例展示了多种 AI 功能,包括 OpenAI 集成、多智能体协调和使用 Azure AI 搜索的检索增强生成(RAG)。 有关更多示例,请访问 模板库

Sample Description
托管 MCP 服务器 演示在容器应用中将 MCP 协议与 Azure OpenAI 和 GitHub 模型配合使用的多代理协调。
MCP 客户端和服务器 基于 .NET 的 MCP 代理应用程序使用 Azure OpenAI 和 TypeScript MCP 服务器,均托管在 ACA 上。
远程 MCP 服务器 适用于容器应用的基于 TypeScript 的 MCP 服务器模板,非常适合用于生成自定义 AI 工具链。