这是一个基于模型上下文协议(MCP)的服务器,借助 Tavily 的搜索 API,提供 AI 驱动的网络搜索功能。特别之处在于,它增加了对 HTTP/HTTPS 代理配置的支持,允许大语言模型(LLM)通过代理服务器执行复杂的网络搜索、直接回答问题,还能搜索最新新闻文章并提取相关内容。
本服务器能让大语言模型利用代理服务器实现强大的网络搜索功能。你可以按照以下步骤完成安装和配置,开始使用。
pippip install mcp-tavily-proxy
若你安装了 uv,也可以使用以下命令:
uv pip install mcp-tavily-proxy
克隆此仓库并构建然后安装程序:
git clone https://github.com/tulong66/mcp-tavily-proxy.git
cd mcp-tavily-proxy
uv build
uv pip install .
import mcp_server_tavily as tavily
# 创建一个 MCP 服务器实例,使用预设的上下文和代理配置
server = tavily.createServer()
# 使用自定义的上下文初始化服务器
context = {
"temperature": 0.7,
"max_tokens": 2048,
"model_name": "gpt-3.5-turbo",
}
server = tavily.createServer(context)
# 处理一个查询
response = server.process_query("告诉我关于人工智能的内容")
print(response)
tavily_web_search执行全面的网络搜索并提取 AI 驱动的内容。
| 参数 | 详情 |
|---|---|
query (字符串,必需) |
搜索查询 |
max_results (整数,可选) |
要返回的最大结果数(默认值:5,最大值:20) |
search_depth (字符串,可选) |
设置为 "basic" 或 "advanced" 的搜索深度(默认值:"basic") |
tavily_answer_search执行网络搜索并生成直接答案及支持证据。
| 参数 | 详情 |
|---|---|
query (字符串,必需) |
搜索查询 |
max_results (整数,可选) |
要返回的最大结果数(默认值:5,最大值:20) |
search_depth (字符串,可选) |
设置为 "basic" 或 "advanced" 的搜索深度(默认值:"advanced") |
tavily_news_search搜索带有发布日期的最新新闻文章。
| 参数 | 详情 |
|---|---|
query (字符串,必需) |
搜索查询 |
max_results (整数,可选) |
要返回的最大结果数(默认值:5,最大值:20) |
days (整数,可选) |
回溯的天数(默认值:3) |
服务器需要 Tavily API 密钥,并支持通过环境变量配置代理:
# Tavily API 密钥
export TAVILY_API_KEY=your_api_key_here
# 代理设置(如果需要)
export HTTP_PROXY=http://your-proxy:port
export HTTPS_PROXY=http://your-proxy:port
python -m mcp_server_tavily --api-key=your_api_key_here
要将此库用作 Cloudflare Worker,请参考 CLOUDFLARE.md。
# 启用详细日志记录以进行调试
export MCP_DEBUG=true
如需贡献,请参考 CONTRIBUTING.md。
本项目采用 MIT 许可证。请参阅 LICENSE 以获取详细信息。