本项目是一个由 AI 驱动的浏览器自动化服务器,实现了模型上下文协议 (MCP),可用于自然语言浏览器控制。它基于 browser-use/web-ui 构建,核心浏览器自动化逻辑和配置模式均源自原始项目。
这是一个基于浏览器自动化技术实现的 MCP 服务器,支持多种大语言模型 (LLM) 提供商。只需通过环境变量即可完成 API 配置,适用于需要自然语言交互的浏览器自动化场景。
# 克隆仓库
git clone https://github.com/your-repository.git
cd browser-use-server
# 安装依赖
npm install
# 启动服务
node index.js
在项目根目录创建 .env 文件:
MCP_MODEL_PROVIDER=anthropic # 支持:anthropic、openai、azure_openai 等
ANTHROPIC_API_KEY=your-key # 必填:Anthropic API 密钥
OPENAI_ENDPOINT=https://api.example.com # 可选:OpenAI 自定义域名
服务器支持通过以下提供商进行大语言模型调用:
| 提供商 | 值 | 需要的环境变量 |
|---|---|---|
| Anthropic | anthropic |
ANTHROPIC_API_KEYANTHROPIC_ENDPOINT(可选) |
| OpenAI | openai |
OPENAI_API_KEYOPENAI_ENDPOINT(可选) |
| Azure OpenAI | azure_openai |
AZURE_OPENAI_API_KEYAZURE_OPENAI_ENDPOINT |
| DeepSeek | deepseek |
DEEPSEEK_API_KEYDEEPSEEK_ENDPOINT(可选) |
| Gemini | gemini |
GOOGLE_API_KEY |
| Mistral | mistral |
MISTRAL_API_KEYMISTRAL_ENDPOINT(可选) |
| Ollama | ollama |
OLLAMA_ENDPOINT(可选,默认 localhost:11434) |
| OpenRouter | openrouter |
OPENROUTER_API_KEYOPENROUTER_ENDPOINT(可选) |
⚠️ 重要提示
- 对于标记为可选的端点,如果未指定将使用默认值。
- 温度可以通过
MCP_TEMPERATURE配置,默认值为 0.3。- 模型名称可以使用
MCP_MODEL_NAME自定义。- Ollama 模型支持额外上下文设置如
num_ctx和num_predict。
💡 使用建议
- 若遇到 API 错误,请检查环境变量是否正确配置,确保与 LLM 提供商的 API 接口一致。
- 若要启用截图分析功能,需确保
MCP_USE_VISION=true。
感谢 browser-use/web-ui 项目的原始作者为浏览器自动化领域做出的贡献。本项目在此基础上进行扩展,版权归原作者所有。
MIT - 详细信息请参阅 LICENSE。