Mcp Vertexai Search

Mcp Vertexai Search

🚀 使用Vertex AI搜索的MCP服务器

这是一个借助Vertex AI进行文档搜索的MCP服务器。它利用Vertex AI的数据资源,为用户提供高效准确的文档搜索服务,能有效提升信息检索的效率和质量。

🚀 快速开始

此MCP服务器提供了便捷的使用方式,可通过不同途径快速启动并使用。

✨ 主要特性

  • 先进技术结合:本解决方案将Gemini与Vertex AI的Grounding功能相结合,利用Vertex AI数据仓库中的私有数据进行文档搜索。Grounding技术能够提升Gemini回答的质量,使其基于存储在Vertex AI数据仓库中的数据生成更准确的结果。
  • 可扩展性:可以通过集成一个或多个Vertex AI数据仓库到MCP服务器中,灵活满足不同的使用需求。

有关Grounding的更多详细信息,请参考Vertex AI Grounding官方文档

📦 安装指南

1. 克隆仓库

# 克隆仓库
git clone git@github.com:ubie-oss/mcp-vertexai-search.git

# 创建虚拟环境
uv venv
# 安装依赖项
uv sync --all-extras

# 查看运行命令
uv run mcp-vertexai-search

2. 安装Python包

该包尚未发布到PyPI,但可以通过仓库安装它。由于需要使用从config.yml.template导出的配置文件来运行MCP服务器,因此必须修改此模板文件。

# 安装包
pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git

# 查看帮助命令
mcp-vertexai-search --help

💻 使用示例

基础用法

有两种方式可以使用这个MCP服务器。如果您想在Docker上运行,第一种方法会更方便,因为项目中已经提供了Dockerfile。

高级用法

开发环境设置

先决条件
  • uv
  • Vertex AI数据仓库
    • 请参考官方文档了解更多关于数据仓库的信息
设置本地环境
# 可选:安装uv
python -m pip install -r requirements.setup.txt

# 创建虚拟环境
uv venv
uv sync --all-extras
运行MCP服务器

此实现支持两种传输协议,分别是SSE(Server-Sent Events)和stdio(标准输入输出)。可以通过设置--transport标志来选择不同的传输方式。 可以使用YAML文件配置MCP服务器。config.yml.template是一个配置文件的模板。请参考附录A:配置文件了解详细信息,以便根据需要修改配置文件。

uv run mcp-vertexai-search serve \
--config config.yml \
--transport 
测试Vertex AI搜索

可以使用mcp-vertexai-search search命令(无需运行MCP服务器)来测试Vertex AI搜索功能。

uv run mcp-vertexai-search search \
--config config.yml \
--query 

📚 详细文档

附录A:配置文件

config.yml.template是一个配置文件的模板。

属性 详情
server.server.name MCP服务器的名称
model.model_name Vertex AI模型的名称
model.project_id Vertex AI模型所属的项目ID
model.location 模型的位置(例如us-central1)
model.impersonate_service_account 要模拟的服务账户
model.generate_content_config 生成内容的配置参数
data.vertex_ai_project_id Vertex AI项目的项目ID
data.vertex_ai_location Vertex AI项目的位置(例如us-central1)
data.content_dataset_id 内容数据集的ID

请根据实际情况填写上述字段,以完成配置。

  • 0 关注
  • 0 收藏,35 浏览
  • system 提出于 2025-09-19 05:03

相似服务问题

相关AI产品