一个基于模型上下文协议的服务器,借助Deepseek推理(R1)提供AI驱动的第二意见功能。它能助力LLM代理实现代码审查、设计批评、写作反馈和创意头脑风暴等能力,利用Deepseek API的强大功能,为LLM代理提供专家级指导与可操作的见解。
本服务器基于模型上下文协议,通过Deepseek推理(R1)为LLM代理提供AI-powered第二意见功能。以下是快速使用的步骤:
# 下载项目
git clone https://github.com/cyanheads/mentor-mcp-server.git
# 进入目录
cd mentor-mcp-server
# 安装依赖项
npm install
# 启动开发服务器
npm run dev
# 创建配置文件
touch config.json
# 添加以下内容到config.json
{
"api_key": "your_deepseek_api_key",
"model_version": "latest",
"max_context_tokens": 2048,
"temperature": 0.7
}
src/
├── api/ # API接口模块
├── tools/ # 工具实现
│ ├── second-opinion/
│ ├── code-review/
│ ├── design-critique/
│ ├── writing-feedback/
│ └── brainstorm-enhancements/
├── types/ # TypeScript类型定义
├── utils/ # 工具函数
├── config.ts # 服务器配置
├── index.ts # 入口文件
└── server.ts # 主服务实现
# 构建TypeScript代码
npm run build
# 启动服务器
npm run start
# 监视模式开发
npm run dev
# 清理构建文件
npm run clean
<request>
<tool>second-opiniontool>
<input>
实现一个用户认证系统,需要支持以下功能:
- 用户注册
- 用户登录
- 密码重置
- 第三方登录(GitHub、Google)
- 权限管理
input>
request>
<request>
<tool>code-reviewtool>
<input>
提供一段typescript代码,需要进行安全性和性能检查。
input>
request>
<request>
<tool>design-critiquetool>
<input>
请分析这个仪表盘的设计方案,并提供建议。
input>
request>
模型上下文协议(MCP)使以下组件之间能够通信:
本项目采用Apache License 2.0许可协议。更多内容请查看LICENSE。