这是一个借助Vertex AI进行文档搜索的MCP服务器。它利用Vertex AI的数据资源,为用户提供高效准确的文档搜索服务,能有效提升信息检索的效率和质量。
此MCP服务器提供了便捷的使用方式,可通过不同途径快速启动并使用。
有关Grounding的更多详细信息,请参考Vertex AI Grounding官方文档。
# 克隆仓库
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
# 创建虚拟环境
uv venv
# 安装依赖项
uv sync --all-extras
# 查看运行命令
uv run mcp-vertexai-search
该包尚未发布到PyPI,但可以通过仓库安装它。由于需要使用从config.yml.template导出的配置文件来运行MCP服务器,因此必须修改此模板文件。
# 安装包
pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git
# 查看帮助命令
mcp-vertexai-search --help
有两种方式可以使用这个MCP服务器。如果您想在Docker上运行,第一种方法会更方便,因为项目中已经提供了Dockerfile。
# 可选:安装uv
python -m pip install -r requirements.setup.txt
# 创建虚拟环境
uv venv
uv sync --all-extras
此实现支持两种传输协议,分别是SSE(Server-Sent Events)和stdio(标准输入输出)。可以通过设置--transport标志来选择不同的传输方式。
可以使用YAML文件配置MCP服务器。config.yml.template是一个配置文件的模板。请参考附录A:配置文件了解详细信息,以便根据需要修改配置文件。
uv run mcp-vertexai-search serve \
--config config.yml \
--transport
可以使用mcp-vertexai-search search命令(无需运行MCP服务器)来测试Vertex AI搜索功能。
uv run mcp-vertexai-search search \
--config config.yml \
--query
config.yml.template是一个配置文件的模板。
| 属性 | 详情 |
|---|---|
server.server.name |
MCP服务器的名称 |
model.model_name |
Vertex AI模型的名称 |
model.project_id |
Vertex AI模型所属的项目ID |
model.location |
模型的位置(例如us-central1) |
model.impersonate_service_account |
要模拟的服务账户 |
model.generate_content_config |
生成内容的配置参数 |
data.vertex_ai_project_id |
Vertex AI项目的项目ID |
data.vertex_ai_location |
Vertex AI项目的位置(例如us-central1) |
data.content_dataset_id |
内容数据集的ID |
请根据实际情况填写上述字段,以完成配置。