AIFoundry MCPConnector FabricGraphQL

AIFoundry MCPConnector FabricGraphQL

🚀 集成 AI 代理与微软 Fabric 数据仓库的 MCP 连接器:使用模型上下文协议(MCP)

本项目展示了如何借助模型上下文协议(MCP),将由 Azure OpenAI 支持的 AI 代理与 Microsoft Fabric 数据仓库集成。MCP 是 Anthropic 开发的开放整合标准,它允许动态发现工具、数据资源和提示模板(后续还会推出更多功能),实现与 AI 代理的统一集成。同时,GraphQL 提供了一个抽象层,可对企业数据进行双向访问。下面将详细介绍如何结合 MCP 和 GraphQL,让您的 AI 代理能够访问企业数据。

⚠️ 重要提示

在 MCP 服务器脚本中,部分查询参数值在本示例中是硬编码的。在实际应用中,这些值应动态生成或检索。

🚀 快速开始

目录

  • 第 1 部分:配置 Microsoft Fabric 后端
  • 第 2 部分:配置本地客户端环境
  • 第 3 部分:用户体验 - Gradio UI
  • 第 4 部分:YouTube 上的演示视频

📦 安装指南

第 1 部分:配置 Microsoft Fabric 后端

  1. 在 Microsoft Fabric 中,创建一个新的数据仓库并使用示例数据预填充:
  2. 接着,创建一个 GraphQL API 端点:
  3. 在 GraphQL API 的数据配置中,选择 Trip (dbo.Trip) 表:
  4. 复制 GraphQL API 端点 URL:

第 2 部分:配置本地客户端环境

  1. 安装所需的 Python 包,如提供的 requirements.txt 所示:
    pip install -r requirements.txt
    
  2. 配置 MCP 客户端的环境变量:
属性 详情
AOAI_API_BASE Azure OpenAI 端点的基础 URL
AOAI_API_VERSION Azure OpenAI 端点的 API 版本
AOAI_DEPLOYMENT Azure OpenAI 模型的部署名称
  1. 将变量 AZURE_FABRIC_GRAPHQL_ENDPOINT 的值设为第 1 步中的 GraphQL 端点 URL。它将被 MCP 服务器脚本用于连接到 Microsoft Fabric:
属性 详情
AZURE_FABRIC_GRAPHQL_ENDPOINT Microsoft Fabric 的 GraphQL API 端点

💻 使用示例

第 3 部分:用户体验 - Gradio UI

  1. 在命令提示符中启动 MCP 客户端:
    python MCP_Client_Gradio.py
    
  2. 点击 Initialise System 按钮以启动 MCP 服务器并连接您的 AI 代理到 Microsoft Fabric 的 GraphQL API 端点:
  3. 现在,您可以使用 GraphQL 的 查询变异 使用此 MCP 连接器将数据拉取和推送到您的数据仓库:

📚 详细文档

第 4 部分:YouTube 上的演示视频

有关于此 MCP 连接器的实用演示可以在此 YouTube 视频 中找到。

  • 0 关注
  • 0 收藏,8 浏览
  • system 提出于 2025-09-23 20:24

相似服务问题

相关AI产品