MCP LLM Sample

MCP LLM Sample

🚀 使用LangChain的MCP示例设置

本项目提供了使用LangChain的MCP示例设置,可帮助您快速搭建MCP服务器和客户端,实现与聊天机器人的互动。

🚀 快速开始

📦 启动MCP服务器

mcp_servers 文件夹中,我们准备了3个示例MCP服务器,每个服务器具备一个或两个功能,并分别监听三个不同的端口:8000、8001 和 8002。

cd mcp_servers
nohup python math_mcp_server.py > math.log 2>&1 &
nohup python weather_mcp_server.py > weather.log 2>&1 &
nohup python which_llm_to_use_mcp_server.py > which_llm.log 2>&1 &

💻 启动MCP客户端

MCP客户端充当用户与MCP服务器之间的接口桥梁。

export OPENAI_API_KEY=sk-svcacct-Tn_rKHd............................your_key_please
streamlit run my_chat_bot_app.py

执行上述命令后,Streamlit将启动一个Web界面,默认监听端口为8501。您可以通过该地址与聊天机器人进行互动。

  • 0 关注
  • 0 收藏,33 浏览
  • system 提出于 2025-10-02 09:54

相似服务问题

相关AI产品