本项目为 Transcripter 项目实现了一个 Model Context Protocol (MCP) 服务器。此包提供了基于 MCP 标准开展 AI 驱动功能的工具与资源,助力项目在相关领域高效运作。
本 MCP 服务器能为 Transcripter 项目提供 AI 驱动功能。使用前需确保满足相应需求,并完成安装、构建等操作。
npm install
# 同时为 ESM 和 CommonJS 构建
npm run build
# 仅为 ESM 构建
npm run build:esm
# 仅为 CommonJS 构建
npm run build:cjs
# 在默认端口 (3500) 上启动 MCP 服务器
npm run server
# 使用自定义端口启动 MCP 服务器
npm run server 4000
npm test
import { Client } from "@modelcontextprotocol/sdk/client";
import { SSEClientTransport } from "@modelcontextprotocol/sdk/client/sse";
async function testApiEndpoint() {
// 连接到 MCP 服务器
const transport = new SSEClientTransport("http://localhost:3500/sse", "http://localhost:3500/message");
const client = new Client();
await client.connect(transport);
// 使用 test-api 工具
const result = await client.tools.execute("test-api", {
endpoint: "transcriptions",
method: "GET",
});
console.log(result);
}
import { Client } from "@modelcontextprotocol/sdk/client";
import { SSEClientTransport } from "@modelcontextprotocol/sdk/client/sse";
async function getTranscription(id: number) {
// 连接到 MCP 服务器
const transport = new SSEClientTransport("http://localhost:3500/sse", "http://localhost:3500/message");
const client = new Client();
await client.connect(transport);
// 访问转录资源
const transcription = await client.resources.get(`transcription://${id}`);
console.log(transcription);
}
此 MCP 服务器与 Transcripter 项目集成,提供用于转录和分析的 AI 驱动功能。它作为标准化接口为 AI 模型交互服务。
src/cli.ts:启动 MCP 服务器的命令行界面。src/tools/:MCP 工具的实现代码。src/resources/:MCP 资源提供程序的实现代码。src/tests/:工具和资源的测试代码。本项目采用 MIT 许可证。