paddlespeech asr 使用教程
作者:互联网
我试了一下paddlespeech里面用的模型效果很好,但是本身缺少方便使用的教程。所以还是写一下,并分享出来,让这个工具使用的人更多些。
安装
paddle框架安装
conda install paddlepaddle==2.3.0 --channel https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/Paddle/
软件源安装
pip install paddlespeech -i https://pypi.tuna.tsinghua.edu.cn/simple
源码安装
git clone https://github.com/PaddlePaddle/PaddleSpeech.git
cd PaddleSpeech
pip install . -i https://pypi.tuna.tsinghua.edu.cn/simple
快速使用
下载测试使用的音频
wget -c https://paddlespeech.bj.bcebos.com/PaddleAudio/zh.wav
wget -c https://paddlespeech.bj.bcebos.com/PaddleAudio/en.wav
非流式命令行接口(CLI)
使用默认模型
paddlespeech asr --input zh.wav
指定模型
paddlespeech asr --model conformer_online_wenetspeech --input zh.wav
非流式Server服务
切换路径进入speech_server目录
cd PaddleSpeech/demos/speech_server
启动服务
paddlespeech_server start --config_file ./conf/application.yaml
通过客户端程序访问
paddlespeech_client asr --server_ip 127.0.0.1 --port 8090 --input ./zh.wav
流式Server服务
切换路径进入streaming_asr_server目录
cd PaddleSpeech/demos/streaming_asr_server
启动服务
paddlespeech_server start --config_file ./conf/ws_conformer_wenetspeech_application.yaml
通过客户端程序访问
paddlespeech_client asr_online --server_ip 127.0.0.1 --port 8090 --input ./zh.wav
指令详解
打印paddlespeech_server支持的命令
paddlespeech_server help
输出:
Usage:
paddlespeech_server <command> <options>
Commands:
help Show help for commands.
start Start the service
stats Get the models supported by each speech task in the service.
paddlespeech_server启动服务
只有两个可配置的参数--config_file和--log_file,分别指定了server应当加载的配置和产生log存放的位置。
paddlespeech_server start --config_file <path> --log_file <path>
paddlespeech_server查看支持的预训练模型
通过参数--task选择当前任务所支持的预训练模型
paddlespeech_server stats --task asr
输出
Here is the table of ASR pretrained models supported in the service.
+--------------------------------+----------+-------------+
| Model | Language | Sample Rate |
+--------------------------------+----------+-------------+
| conformer_wenetspeech | zh | 16k |
| conformer_online_wenetspeech | zh | 16k |
| conformer_online_multicn | zh | 16k |
| conformer_aishell | zh | 16k |
| conformer_online_aishell | zh | 16k |
| transformer_librispeech | en | 16k |
| deepspeech2online_wenetspeech | zh | 16k |
| deepspeech2offline_aishell | zh | 16k |
| deepspeech2online_aishell | zh | 16k |
| deepspeech2offline_librispeech | en | 16k |
+--------------------------------+----------+-------------+
Here is the table of ASR static pretrained models supported in the service.
+----------------------------+----------+-------------+
| Model | Language | Sample Rate |
+----------------------------+----------+-------------+
| deepspeech2offline_aishell | zh | 16k |
+----------------------------+----------+-------------+
可以看到模型asr的模型支持动态图模型和静态图模型,但是deepspeech2offline_aishell即属于动态又属于静态,看起来有些歧义了,并且这两个模型的md5码是相同的,具体是如何区分的,要更加详细的阅读源码了
标签:asr,教程,zh,paddlespeech,16k,--,server 来源: https://www.cnblogs.com/chenkui164/p/16296941.html