科技 > 人工智能 > 语音识别

深入了解 Whisper 的架构、用法以及在语音识别领域的应用和性能特征

92人参与 2024-08-01 语音识别

whisper: 通用语音识别模型详解

概述

whisper 是一个基于 transformer 序列到序列模型的通用语音识别系统,经过训练可以执行多语种语音识别、语音翻译和语言识别任务。本文将深入介绍 whisper 的工作原理、设置方法、可用模型及其性能评估。

方法

whisper 使用 transformer 序列到序列模型,同时支持多语种语音识别、语音翻译、语种识别和语音活动检测等任务。这些任务被联合表示为解码器需要预测的一系列标记,使得单个模型可以替代传统语音处理流水线的多个阶段。多任务训练格式使用一组特殊的标记作为任务标识符或分类目标。

设置

我们使用 python 3.9.9 和 pytorch 1.10.1 对模型进行训练和测试,但代码库预计与 python 3.8-3.11 和最近的 pytorch 版本兼容。依赖于一些 python 包,尤其是 openai 的 tiktoken 用于快速的分词器实现。您可以通过以下命令下载安装或更新到最新版本的 whisper:

pip install -u openai-whisper

如果需要安装到最新的提交版本,请使用以下命令:

pip install --upgrade --no-deps --force-reinstall git+https://github.com/openai/whisper.git

此外,whisper 还依赖于命令行工具 ffmpeg,您可以通过以下方式在不同平台上安装:

# ubuntu 或 debian
sudo apt update && sudo apt install ffmpeg

# arch linux
sudo pacman -s ffmpeg

# macos 使用 homebrew
brew install ffmpeg

# windows 使用 chocolatey
choco install ffmpeg

# windows 使用 scoop
scoop install ffmpeg

在某些情况下,您可能需要安装 rust,以便于 tiktoken 为您的平台提供预构建的轮子。如果在安装过程中出现错误,请参考 rust 开发环境的安装指南。

可用模型与语言

whisper 提供了五种模型尺寸,其中四种是仅英文的版本,提供了速度和准确性之间的平衡。以下是可用模型的名称及其对应的内存需求和相对于大型模型的推理速度:

对于英文应用,特别是对于 tiny.en 和 base.en 模型,性能表现更优。然而,对于 small.en 和 medium.en 模型,性能差距较小。

whisper 的性能

whisper 的性能因语言而异。下图显示了在 common voice 15 和 fleurs 数据集上评估的大型-v3 和大型-v2 模型的词错误率(wer)或字符错误率(以斜体显示)。其他模型和数据集的评估指标可以在论文的附录中找到。

命令行用法

以下命令将使用 medium 模型转录音频文件:

whisper audio.flac audio.mp3 audio.wav --model medium

默认设置(选择 small 模型)适用于英文转录。如果要转录包含非英语言音频的文件,可以使用 --language 选项指定语言:

whisper japanese.wav --language japanese

添加 --task translate 将语音翻译为英文:

whisper japanese.wav --language japanese --task translate

运行以下命令查看所有可用选项:

whisper --help
python 使用示例

您也可以在 python 中执行转录:

import whisper

model = whisper.load_model("base")
result = model.transcribe("audio.mp3")
print(result["text"])

内部地,transcribe() 方法会读取整个文件,并在每个 30 秒的滑动窗口上执行自回归序列到序列预测。

使用 whisper.detect_language() 和 whisper.decode() 提供了更低级别的访问方式,可以访问模型的功能。

import whisper

model = whisper.load_model("base")

# 加载音频并填充/修剪以适合 30 秒
audio = whisper.load_audio("audio.mp3")
audio = whisper.pad_or_trim(audio)

# 生成对数梅尔频谱图并移动到与模型相同的设备
mel = whisper.log_mel_spectrogram(audio).to(model.device)

# 检测语音的语种
_, probs = model.detect_language(mel)
print(f"detected language: {max(probs, key=probs.get)}")

# 解码音频
options = whisper.decodingoptions()
result = whisper.decode(model, mel, options)

# 打印识别的文本
print(result.text)

通过上述介绍,您可以深入了解 whisper 的架构、用法以及在语音识别领域的应用和性能特征。这些信息将帮助您更好地理解和应用 whisper 项目。

(0)
打赏 微信扫一扫 微信扫一扫

您想发表意见!!点此发布评论

推荐阅读

微软Azure AI服务中的Speech Studio:实现自动语音识别ASR与高效AI字幕生成

08-02

CodeWhisperer:编码世界中的声音启迪者

07-28

支持向量机在语音识别中的卓越表现

08-03

猜你喜欢

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论