本项目提供了多个设置 MCP 服务器的示例。MCP(模型上下文协议)是一个强大的框架,能让 AI 模型存储数据、运行工具,还能借助提示完成特定任务,为 AI 开发带来了极大便利。
我们精心准备了四个示例,能帮助您在不同环境中轻松设置 MCP 服务器。以下表格总结了每个配置的关键信息:
| 示例 | 服务器类型 | 传输方式 | 环境 | Docker | 教程链接 |
|---|---|---|---|---|---|
| 1 | 终端服务器(标准输入输出) | 标准输入输出 | 本地 | 无 | 教程 1 |
| 2 | 终端服务器(标准输入输出) | 标准输入输出 | 本地 | 是 | 教程 2 |
| 3 | 终端服务器(SSE) | SSE | 本地 | 是 | 教程 3 |
| 4 | 终端服务器(SSE) | SSE | 谷歌云平台(Web) | 是 | 教程 3 |
如果您热衷于 AI、编码和自动化相关学习,欢迎点赞和订阅我们的频道,您的支持将助力我们创作出更多优质内容!
订阅
MCP(模型上下文协议) 是一种功能强大的协议,它允许 AI 模型实现以下重要功能:
此选项将演示如何在不使用 Docker 的情况下,在本地通过 Python 设置 MCP 服务器。您可以参考视频教程:教程 1
该选项会展示如何使用 Docker 对 MCP 服务器进行容器化并运行。请参考视频教程:教程 2
此选项将演示如何在本地环境中通过 Docker 使用 SSE 运行 MCP 服务器。请参考视频教程:教程 3
该选项会详细说明如何将 SSE 服务器部署到谷歌云平台 (GCP),并使用 Docker。请参考视频教程:教程 3
当服务器成功运行后,您可以在 Claude 中使用以下提示语来测试它:
在我的工作区运行 ls 命令。执行 echo Hello from Claude.执行后,您将直接从终端服务器看到输出🎉
恭喜!您已经成功构建了一个可以执行终端命令的 MCP 服务器。您可以根据自己的偏好选择在本地或 Docker 中运行它。
如果您有任何问题或改进建议,欢迎随时在该仓库中提交问题或拉取请求!
目前,此项目不接受外部代码贡献。这是为了保持许可简单并避免任何共享版权问题。不过,您可以:
✅ 报告错误或请求功能(通过 GitHub 问题)
✅ 分叉仓库并在您的分支中工作
✅ 提交拉取请求帮助改进