Fast Whisper MCP Server

Fast Whisper MCP Server

🚀 基于Faster Whisper的高性能语音识别MCP服务器

一款基于Faster Whisper的高效语音识别MCP服务器,提供强大的音频转录功能,能够快速、准确地将音频内容转换为文本。

🚀 快速开始

本服务器集成了Faster Whisper,能实现高效语音识别。你可以按照以下步骤启动服务器并配置Claude桌面,开启音频转录之旅。

✨ 主要特性

  • 集成Faster Whisper实现高效的语音识别
  • 批处理加速提升转录速度
  • 自动化CUDA加速(若有可用GPU)
  • 支持多种模型规模(从tiny到large-v3)
  • 输出格式包括VTT字幕、SRT和JSON
  • 支持文件夹内音频文件的批量转录
  • 模型实例缓存避免重复加载
  • 根据GPU内存动态调整批量大小

📦 安装指南

依赖项

  • Python 3.10+
  • faster-whisper>=0.9.0
  • torch==2.6.0+cu126
  • torchaudio==2.6.0+cu126
  • mcp[cli]>=1.2.0

安装步骤

  1. 克隆或下载此仓库
  2. 创建并激活虚拟环境(推荐)
  3. 安装依赖项:
pip install -r requirements.txt

PyTorch安装指南

根据你的CUDA版本安装合适的PyTorch版本:

  • CUDA 12.6:
pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126
  • CUDA 12.1:
pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cu121
  • CPU版本:
pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

你可以通过 nvcc --versionnvidia-smi 检查CUDA版本。

💻 使用示例

启动服务器

在Windows系统中,直接运行 start_server.bat。 在其他平台运行:

python whisper_server.py

配置Claude桌面

  1. 打开Claude桌面配置文件:
    • Windows: %APPDATA%\Claude\claude_desktop_config.json
    • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  2. 添加Whisper服务器的配置:
{
"mcpServers": {
"whisper": {
"command": "python",
"args": ["-m", "whisper_server"],
"env": {}
}
}
}
  1. 启动Claude桌面后,转录功能将可用。

🔧 技术细节

转录流程

  1. 音频输入:支持多种格式(如wav、mp3)
  2. 模型加载:动态加载Faster Whisper模型
  3. 语音识别:实现高效的语音转录
  4. 结果输出:返回标准的JSON格式

性能优化建议

  • 使用GPU加速以提升处理速度
  • 合理设置批量大小以平衡资源使用
  • 定期更新模型保持最佳性能

📚 详细文档

项目依赖

特别鸣谢

感谢以下工具和团队的支持:

  • VS Code
  • OpenAI的Whisper项目
  • GuillaumeKln的Faster Whisper实现
  • 0 关注
  • 0 收藏,34 浏览
  • system 提出于 2025-10-07 06:48

相似服务问题

相关AI产品