本项目是一个借助 Ollama LLM 模型,通过 Model Client Protocol(MCP)协议实现的 Wikipedia 文章摘要服务器,能高效为 Wikipedia 文章生成摘要。
本项目涵盖三个核心部分:
deepseek - r1:1.5b 模型(也可更新 ollama_server.py 中的模型)。uv pip install -r requirements.txt
启动 MCP 服务器:
uv run -- ollama_server.py
服务器将在 http://localhost:8000/sse 上可用。
uv run -- updated_client.py http://localhost:8000/sse https://en.wikipedia.org/wiki/Python_(programming_language)
启动 Streamlit 应用:
uv run -- streamlit run streamlit_new.py
然后在浏览器中打开 Streamlit 提供的 URL(通常为 http://localhost:8501),并按以下步骤操作:
实现 MCP 服务器,具备使用 Ollama LLM 模型进行 Wikipedia 文章摘要的功能。它会抓取文章内容、将其转换为 Markdown 格式,并使用 Ollama 生成摘要。
命令行客户端,可连接到 MCP 服务器并调用 summarize_wikipedia_article 工具。
基于 Streamlit 的网络界面,为与 MCP 服务器交互提供用户友好的方式。
本项目采用 MIT 许可证。
版权 (c) 2025
准许任何人免费使用、复制、修改、合并、发布、分发、 sublicense 和 / 或出售该软件及其关联文档文件(“软件”),并允许个人向获得该软件的人提供副本,前提是:
上述版权声明和本许可声明包含在所有副本或大量份中。
软件按“原样”提供,不做任何明示或暗示的保证,包括但不限于对适销性、适用性和非侵权性的保证。在任何情况下,作者或版权持有人均不对因使用或操作或其他方式与该软件有关的任何索赔、损害或其他责任负责。