Files
Fun-ASR/docs/fintune_zh.md
2026-01-08 13:40:20 +08:00

3.5 KiB
Raw Blame History

微调

「简体中文」|「English

安装训练环境

pip install funasr>=1.3.0

数据准备

数据格式需要包括如下几个字段:

head -n1 data/train_example.jsonl | jq

{
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant."
    },
    {
      "role": "user",
      "content": "语音转写:<|startofspeech|>!https://modelscope.cn/datasets/FunAudioLLM/funasr-demo/resolve/master/audios/IT0011W0002.wav<|endofspeech|>"
    },
    {
      "role": "assistant",
      "content": "几点了?"
    }
  ],
  "speech_length": 145,
  "text_length": 3
}

详细可以参考:data/train_example.jsonl

数据准备细节介绍:

  • system 的 content 固定为 You are a helpful assistant.
  • user 的 content 包含了 prompt 和音频文件的路径(位于 <|startofspeech|>!<|endofspeech|>之间)
    • prompt 默认为语音转写:Speech transcription:
    • 可以结合对应的语种为语音转写成英文:Transcribe speech into Chinese:
    • 当音频文件对应的文本标注不含阿拉伯数字或者标点符号时,可以使用语音转写,不进行文本规整:Speech transcription without text normalization:
  • assistant 的 content 对应音频文件对应的文本标注
  • speech_length音频文件的 fbank 帧数(一帧 10ms
  • text_length音频文件标注文本的 token 数 (用 Qwen/Qwen3-0.6B 编码)

我们提供了数据格式转换工具 scp2jsonl.py,可以将常见的语音识别训练数据格式 wav scp 和 transcription 转成 ChatML 格式。

train_wav.scp

左边为数据唯一 ID需与 train_text.txt 中的 ID 一一对应 右边为音频文件的路径,格式如下

BAC009S0764W0121 https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/test_audio/BAC009S0764W0121.wav
BAC009S0916W0489 https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/test_audio/BAC009S0916W0489.wav

train_text.txt

左边为数据唯一 ID需与 train_wav.scp 中的 ID 一一对应 右边为音频文件标注文本,格式如下:

BAC009S0764W0121 甚至出现交易几乎停滞的情况
BAC009S0916W0489 湖北一公司以员工名义贷款数十员工负债千万
python tools/scp2jsonl.py \
  ++scp_file=data/train_wav.scp \
  ++transcript_file=data/train_text.txt \
  ++jsonl_file=data/train_example.jsonl

启动训练

修改 finetune.sh 中的 audio_encoder_conf.freeze, audio_adaptor_conf.freezellm_conf.freeze

将需要微调的模块 freeze 设置成 false(默认只微调 llm

更多参数细节参考:SenseVoice 模型训练与测试

bash finetune.sh

推荐配置

  • 训练数据少于 1000 小时,建议微调 audio_adaptor
  • 训练数据少于 5000 小时,建议微调 audio_encoder 和 audio_adaptor
  • 训练数据大于 10000 小时,建议全量参数微调

模型评测

当模型微调结束后,可以使用 decode.py 脚本对模型进行解码:

python decode.py \
  ++model_dir=/path/to/finetuned \
  ++scp_file=data/val_wav.scp \
  ++output_file=output.txt

解码结束后,需要对标注和识别结果做文本逆归一化,然后计算 WER

python tools/whisper_mix_normalize.py data/val_text.txt data/val_norm.txt
python tools/whisper_mix_normalize.py output.txt output_norm.txt
compute-wer data/val_norm.txt output_norm.txt cer.txt
tail -n8 cer.txt