其他分享
首页 > 其他分享> > Deep Speaker: an End-to-End Neural Speaker Embedding System

Deep Speaker: an End-to-End Neural Speaker Embedding System

作者:互联网

实现流程:
在这里插入图片描述

Front Processing:
语音输入被转换为64维fbank,并且含有零均值与单位方差。

DNN:有两种DNN:
* ResCNN
* GRU

ResCNN:
在这里插入图片描述

GRU:
在这里插入图片描述

Average Sentence:
在这里插入图片描述

将帧级输入聚合为整段语音的输入

Affine:将其转换成512维的embedding。

计算相似度:
在这里插入图片描述

最后用triplet loss为目标进行训练

实验
使用softmax和交叉熵损失来预训练整个模型,即用一个classification layer来代替length normalization和triplet loss层。
在这里插入图片描述

可见与训练提高了模型准确率
在这里插入图片描述

可见实验结果很好,且ResCNN效果好于GRU。
在这里插入图片描述

将两种网络的score相加,可以看到表现得到了提升,其中score fusion表示把两个模型输出的cos score相加。
在这里插入图片描述

在文本无关的说话人验证任务上,训练数据集越大,模型的训练越充分,效果越好
在这里插入图片描述

deep speaker具有比较好的跨语言能力

标签:loss,GRU,End,训练,Neural,模型,score,Speaker,ResCNN
来源: https://blog.csdn.net/qq_41048571/article/details/119298939