Skip to content

THUDM/GLM-4-Voice

Repository files navigation

GLM-4-Voice

GLM-4-Voice 是智谱 AI 推出的端到端语音模型。GLM-4-Voice 能够直接理解和生成中英文语音,进行实时语音对话,并且能够根据用户的指令改变语音的情感、语调、语速、方言等属性。

Model List

Model Type Download
GLM-4-Voice-Tokenizer Speech Tokenizer 🤗 Huggingface
GLM-4-Voice-9B Chat Model 🤗 Huggingface
GLM-4-Voice-Decoder Speech Decoder 🤗 Huggingface

我们提供了 GLM-4-Voice 的三个部分:

  • GLM-4-Voice-Tokenizer: 通过在 Whisper 的 encoder 部分增加 vector quantization 训练得到,将连续的语音输入转化为离散的 token。每秒音频转化为 12.5 个离散 token。
  • GLM-4-Voice-9B: 在 GLM-4-9B 的基础上进行语音模态的预训练和对齐,从而能够理解和生成离散化的语音
  • GLM-4-Voice-Decoder: 基于 CosyVoice 重新训练的支持流式推理的语音解码器,将离散化的语音 token 转化为连续的语音输出。最少只需要 10 个音频 token 即可开始生成,降低对话延迟。

更详细的技术报告将在之后公布。

Usage

我们提供了可以直接启动的 Web Demo。用户可以输入语音或文本,模型会同时给出语音和文字回复。

Preparation

首先下载仓库

git clone --recurse-submodules https://github.com/THUDM/GLM-4-Voice
cd GLM-4-Voice

然后安装依赖。也可以使用我们提供的镜像 `` 以跳过安装依赖。

pip install -r requirements.txt

由于 Decoder 模型不支持通过 transformers 初始化,因此 checkpoint 需要单独下载。

# git 模型下载,请确保已安装 git-lfs
git clone https://huggingface.co/THUDM/glm-4-voice-decoder

Launch Web Demo

首先启动模型服务

python model_server.py --model-path glm-4-voice-9b

然后启动 web 服务

python web_demo.py

即可在 http://127.0.0.1:8888 访问 web demo。

Known Issues

  • Gradio 的流式音频播放效果不稳定。在生成完成后点击对话框中的音频质量会更高。

Cases

我们提供了 GLM-4-Voice 的部分对话案例,包括控制情绪、改变语速、生成方言等。

  • 用轻柔的声音引导我放松
default.mov
  • 用激动的声音解说足球比赛
default.mov
  • 用哀怨的声音讲一个鬼故事
default.mov
  • 用东北话介绍一下冬天有多冷
default.mov
  • 用重庆话念“吃葡萄不吐葡萄皮”
default.mov
  • 用北京话念一句绕口令
-.mov
  • 加快语速
-.mov
  • 再快一点
-.mov

Acknowledge

本项目的部分代码来自:

About

GLM-4-Voice | 端到端中英语音对话模型

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages