本项目是一个具备演示性质的 MCP(机器上下文协议)服务器,其主要功能是与 Paychex 开发者 API 文档进行交互。该服务器支持多种大语言模型(LLM),可高效处理针对 Paychex 文档的查询需求。
若要使用本项目,可按照以下步骤操作:
npm install
.env.example 创建 .env 文件:cp .env.example .env
.env 文件。之后,你可以选择以下模式启动项目:
npm run dev
npm start
将项目仓库克隆到本地:
git clone [仓库地址]
在项目根目录下执行以下命令安装依赖:
npm install
根据 .env.example 创建 .env 文件,并使用你的 API 密钥进行编辑:
cp .env.example .env
在 .env 文件中需要配置以下环境变量:
# 服务器配置
PORT=3000
# Paychex API密钥
PAYCHEX_API_KEY=你的API密钥
PAYCHEX_CLIENT_ID=你的客户端ID
PAYCHEX_CLIENT_SECRET=你的客户端秘密
# LLM配置
LLM_TYPE=openai # 选项:openai、anthropic、azure等
LLM_API_KEY=你的LLM API密钥
OPENAI_API_KEY=你的OpenAI密钥
ANTHROPIC_API_KEY=你的Anthropic密钥
在开发模式下启动服务器:
npm run dev
在生产模式下启动服务器:
npm start
使用 API 端点进行数据查询:
GET /api/paychex/data?endpoint=可选端点路径
此请求将返回来自 Paychex API 文档的原始数据。
POST /api/paychex/query
请求体示例:
{
"query": "有哪些可用的Paychex API?",
"endpoint": "可选端点路径"
}
该请求将使用配置的 LLM 对 Paychex 文档进行查询。
GET /api/paychex/data?endpoint=可选端点路径
返回来自 Paychex API 文档的原始数据。
POST /api/paychex/query
请求体:
{
"query": "有哪些可用的Paychex API?",
"endpoint": "可选端点路径"
}
使用配置的 LLM 对 Paychex 文档进行查询。
若要添加对新 LLM 供应商的支持,可按以下步骤操作:
services/llm.js 中添加一个新的服务类。getLLMService() 函数以处理新的供应商。.env.example。这是一个演示项目,仅用于说明用途。它与佩查克斯公司无任何官方关联或认可。