Streamlit As An MCP Host

Streamlit As An MCP Host

🚀 维基百科摘要器 MCP 服务器

本项目是一个借助 Ollama LLM 模型,通过 Model Client Protocol(MCP)协议实现的 Wikipedia 文章摘要服务器,能高效为 Wikipedia 文章生成摘要。

🚀 快速开始

本项目涵盖三个核心部分:

  • Ollama Server:作为 MCP 服务器,利用 Ollama LLM 模型为 Wikipedia 文章生成摘要。
  • 命令行客户端:可连接 MCP 服务器,请求文章摘要的客户端工具。
  • Streamlit 界面:基于 Web 的用户界面,为与 MCP 服务器交互提供直观途径。

✨ 主要特性

  • 借助 Ollama LLM 模型,为 Wikipedia 文章生成高质量摘要。
  • 提供命令行客户端与基于 Web 的 Streamlit 界面,满足不同用户的使用需求。

📦 安装指南

先决条件

  • Python 3.8 及以上版本。
  • 已安装并在本地运行 Ollama,且带有 deepseek - r1:1.5b 模型(也可更新 ollama_server.py 中的模型)。
  • 具备网络连接,以便获取 Wikipedia 文章内容。

安装步骤

  1. 克隆此仓库。
  2. 安装所需的包:
uv pip install -r requirements.txt

💻 使用示例

运行服务器

启动 MCP 服务器:

uv run -- ollama_server.py

服务器将在 http://localhost:8000/sse 上可用。

使用命令行客户端

uv run -- updated_client.py http://localhost:8000/sse https://en.wikipedia.org/wiki/Python_(programming_language)

使用 Streamlit 界面

启动 Streamlit 应用:

uv run -- streamlit run streamlit_new.py

然后在浏览器中打开 Streamlit 提供的 URL(通常为 http://localhost:8501),并按以下步骤操作:

  1. 输入 MCP 服务器 URL(默认:http://localhost:8000/sse)。
  2. 输入 Wikipedia 文章 URL。
  3. 点击“获取并摘要文章”。

📚 详细文档

组件说明

ollama_server.py

实现 MCP 服务器,具备使用 Ollama LLM 模型进行 Wikipedia 文章摘要的功能。它会抓取文章内容、将其转换为 Markdown 格式,并使用 Ollama 生成摘要。

updated_client.py

命令行客户端,可连接到 MCP 服务器并调用 summarize_wikipedia_article 工具。

streamlit_new.py

基于 Streamlit 的网络界面,为与 MCP 服务器交互提供用户友好的方式。

📄 许可证

本项目采用 MIT 许可证。

版权 (c) 2025

准许任何人免费使用、复制、修改、合并、发布、分发、 sublicense 和 / 或出售该软件及其关联文档文件(“软件”),并允许个人向获得该软件的人提供副本,前提是:

上述版权声明和本许可声明包含在所有副本或大量份中。

软件按“原样”提供,不做任何明示或暗示的保证,包括但不限于对适销性、适用性和非侵权性的保证。在任何情况下,作者或版权持有人均不对因使用或操作或其他方式与该软件有关的任何索赔、损害或其他责任负责。

  • 0 关注
  • 0 收藏,33 浏览
  • system 提出于 2025-09-19 11:42

相似服务问题

相关AI产品