Higress AI-Search MCP 服务器是一个提供 AI 搜索工具的模型上下文协议(MCP)服务器。它借助 Higress 的 ai-search 功能,能够实时从多个搜索引擎获取信息,从而增强 AI 模型的响应能力。
使用 uvx 将自动从 PyPI 安装包,无需本地克隆仓库。
{
"mcpServers": {
"higress-ai-search-mcp-server": {
"command": "uvx",
"args": [
"higress-ai-search-mcp-server"
],
"env": {
"HIGRESS_URL": "http://localhost:8080/v1/chat/completions",
"MODEL": "qwen-turbo",
"INTERNAL_KNOWLEDGE_BASES": "员工手册、公司政策、内部流程文档"
}
}
}
}
使用 uv 需要本地克隆仓库并指定源代码路径。
{
"mcpServers": {
"higress-ai-search-mcp-server": {
"command": "uv",
"args": [
"--directory",
"path/to/src/higress-ai-search-mcp-server",
"run",
"higress-ai-search-mcp-server"
],
"env": {
"HIGRESS_URL": "http://localhost:8080/v1/chat/completions",
"MODEL": "qwen-turbo",
}
}
}
}
https://github.com/user-attachments/assets/60a06d99-a46c-40fc-b156-793e395542bb
https://github.com/user-attachments/assets/5c9e639f-c21c-4738-ad71-1a88cc0bcb46
服务器可通过环境变量进行配置:
HIGRESS_URL(可选):Higress 服务的 URL(默认值为 http://localhost:8080/v1/chat/completions)。MODEL(必填):使用的 LLM 模型。INTERNAL_KNOWLEDGE_BASES(可选):内部知识库的描述。