一个用于将AI助手与Langfuse工作区集成的Model Context Protocol (MCP)服务器实现,可让AI模型通过时间范围查询LLM指标。
此包提供的MCP服务器,允许AI助手与Langfuse工作区进行交互。
# 从npm安装
npm install shouting-mcp-langfuse
# 或者全局安装
npm install -g shouting-mcp-langfuse
您可以在npm上找到该包:shouting-mcp-langfuse
在使用服务器之前,需要创建一个Langfuse项目并获取项目的公钥和私钥。您可以在Langfuse控制面板中找到这些密钥。具体步骤如下:
服务器需要以下环境变量:
LANGFUSE_DOMAIN:Langfuse域(默认:https://api.langfuse.com)LANGFUSE_PUBLIC_KEY:您的Langfuse项目公钥LANGFUSE_PRIVATE_KEY:您的Langfuse项目私钥# 设置环境变量
export LANGFUSE_DOMAIN="https://api.langfuse.com"
export LANGFUSE_PUBLIC_KEY="your-public-key"
export LANGFUSE_PRIVATE_KEY="your-private"
# 运行服务器
mcp-server-langfuse
import { Server } from "@modelcontextprotocol/sdk/server/index.js";
import { langfuseClient } from "shouting-mcp-langfuse";
// 初始化服务器和客户端
const server = new Server({...});
const langfuseClient = new LangfuseClient(process.env.LANGFUSE_DOMAIN, process.env.LANGFUSE_PUBLIC_KEY, process.env.LANGFUSE_PRIVATE_KEY);
// 注册自定义处理程序
// ...
服务器提供了以下Langfuse集成工具:
getLLMMetricsByTimeRange:通过时间范围获取LLM指标ISC
shouting.hsiao@gmail.com
https://github.com/z9905080/mcp-langfuse