需求人群
该产品适合音乐创作者、音频工程师、研究人员以及任何需要通过文字生成音乐或对音乐生成模型进行研究和开发的人群。创作者可以利用其文本到音乐的功能快速生成灵感音频,研究人员可以基于其开源代码和模型进行进一步的算法优化和功能拓展。
使用场景
使用文本提示生成舒缓的爵士乐,适用于餐厅或水疗中心背景音乐基于一段爵士乐音频片段,继续生成后续音乐内容通过模型生成 48kHz 高采样率的高质量古典音乐
产品特色
支持文本到音乐生成,可根据文本描述生成对应风格的音乐支持音乐续写任务,可基于已有音频片段继续生成音乐支持多种音频采样率(24kHz 和 48kHz),满足不同质量需求提供长音频生成能力,可生成超过 5 分钟的音乐支持混合精度训练(FP16、BF16、FP32),提高训练效率提供方便的微调和推理脚本,简化模型调整和部署流程
使用教程
11. 克隆仓库:`git clone --recursive https://github.com/FunAudioLLM/InspireMusic.git`22. 安装依赖:创建 Conda 环境并安装 Python 3.8 和 PyTorch 2.0.1,运行 `pip install -r requirements.txt`33. 下载预训练模型:从 ModelScope 或 HuggingFace 下载 InspireMusic 模型44. 运行推理脚本:使用 `python -m inspiremusic.cli.inference` 命令进行文本到音乐的生成55. 自定义生成参数:通过命令行参数调整生成任务、模型、文本提示、音频时长等