基于内容的x-vector 文本相关SV 研究

2020-10-23 06:37陈亚峰
数据采集与处理 2020年5期
关键词:语料神经网络数字

陈亚峰,郭 武

(中国科学技术大学语音及语言信息处理国家工程实验室,合肥,230027)

引 言

说话人确认(Speaker verification, SV)是判断一段测试语音与其所声明身份是否一致的过程。SV 又分为文本相关的SV(Text‑dependent SV)和文本无关的SV(Text‑independent SV)。从目前的SV 技术水平来看,相对于文本无关的SV 的低准确率,文本相关的SV 将内容与声纹特征结合起来,有效地提高了识别准确率,从而在商业应用中获得了广泛的应用[1]。

近几年来,基于因子分析的全变量(Total variability, TV)系统的i‑vector[2]算法一直是文本无关的SV 中主流的方法。首先通过将一段语料映射到一个低维的子空间中,得到表征该说话人的特征矢量i‑vector,再进行低维空间的信道补偿算法和得分判决算法以获得更优的SV 性能。该方法在大数据集上训练和测试取得了不错效果,同样也被用于文本相关的SV 中[3]。

文本相关的SV 一般将语音内容限制为:(1)固定短语;(2)一组预定义短语;(3)特定的随机内容组合。典型的如数字串,在测试中由系统生成需要判断的语音内容并进行声纹确认[4]。经典的文本相关SV应用中,注册和验证通常都使用一个固定短语或者一组预定义短语,如果文本信息被泄露,则安全性会大大降低。在文献[5]中,针对随机内容组合的这种应用,提出基于音素的i‑vector 系统,其对语料中的22 个音素分别建模,提取每个音素的i‑vector,再结合后端算法判决得分。在文献[6]中,在对10 数字分别建模的i‑vector系统的基础上,提出了一种新的后端信道补偿算法,进一步提高了识别的准确率。

随着深度学习的在图像、自然语言处理以及语音识别[7]等领域上取得优异的效果,其强大的特征提取能力可以帮助声纹系统获得更具有说话人区分性的信息。因此,基于深度神经网络的SV 方法被广泛使用,最主流的算法是提取出表征说话人特征矢量x‑vector[8],再结合后端处理算法进行信道补偿和得分判决。但针对文本相关的SV 任务,存在因训练数据过少导致深度神经网络的过拟合问题,提取出来的x‑vector区分性不够。本文中,采用不同的网络结构以及网络预训练等策略解决该问题。

本文针对文本内容为随机数字序列的SV 任务提出并构建了一个基于内容建模的x‑vector 系统。首先,利用语音识别模型将语料分割成不同的内容(10 个数字),然后分别针对每个数字微调一个预训练好的深度神经网络,得到不同数字的特征提取器,使用这些特征提取器提取对应内容(数字)的x‑vector。后端处理算法也分别针对不同的内容(数字)单独训练,最后将测试语料中各个内容(数字)的得分求和的平均计算最终得分。实验在RSR2015 数据库上进行,由于Part Ⅲ语料内容是数字串,因此后面的描述中用“数字”来代表内容。若语料内容不是数字,本文提出的方法依旧适用:先语音识别文本内容,再分词建模提取说话人特征,最后运用后端算法计算最终得分。从结果上来看,提出的算法可以明显提升系统性能。

1 x-Vector/PLDA

1.1 x-vector

x‑vector 系统所使用的深度神经网络结构主要分为帧处理层(Frame‑level layers)、池化层(Pooling layer)、段处理层(Segment‑level layer)3 部分[9],如图1 所示。

(1)帧处理层

传统的x‑vector 系统帧处理层由5 层时延神经网络(Time delay neural network, TDNN)[10]组成,以帧为单位对低层输入特征进行非线性映射获得帧级别的表示。 对于一段输入语料X ={ x1,x2,…,xT} (T 为帧数),那么每一帧处理层输出为

式 中 ,fti为 第i 层 第t 帧 输 出 矢 量 ,xtc为 第t 帧 附 近的输入特征拼接起来的矢量,来学习第t 帧附近的信息,w 和b 为权重矩阵和偏置矢量,f 为非线性激活函数,这里取ReLU 函数。

图1 深度神经网络示意图Fig.1 Diagram of the deep neural network

(2)池化层

图1 网络中的池化层为统计池化层(Statistics pooling layer),是由帧处理层的输出分别计算均值和标准差拼接而成,以此得到一段语料的统计特性作为表示。统计池化层的输出为

式中,s 表示统计池化层输出矢量,ft表示帧处理层的第t 帧输出矢量,mean 表示对所有帧求均值,std 表示对所有帧求标准差。

(3)段处理层

段处理层用统计池化层的输出s 作为输入,通过若干层前向DNN 网络提取段级别的矢量来表征说话人。x‑vector 中采用2 层DNN,表示为

式中σl为段处理层第l 层输出。

段级别的矢量经过段处理层的进一步处理,最后通过Softmax 分类器进行分类,来预测目标说话人的类别以进行区分性训练。训练采用交叉熵损失函数[11]

式中,第n 段语料如果属于第k 个说话人,则dnk为1,否则为0;P ( spkr|xn1:T)为Softmax 分类器对给定第n段语料特征的预测输出。神经网络利用批量BP 算法进行训练,更新网络参数。

(4)x‑vector 提取

在段处理层中,第1,2 层的输出都可以用来作为一段语料的低维矢量表示,一般采用第1 层的线性部分输出(Embedding‑a)作为最终的说话人矢量表示,即x‑vector,其优异的性能在近些年获得了广泛应用。

1.2 概率线性判别式分析

在获得语音的低维矢量表示之后,采用当前主流的后端判别概率线性判别式分析(Probabilities lin‑ear discriminant analysis, PLDA)进行SV。给定一条语料u,PLDA 模型可以写成

式中,μ 是所有数据x‑vector 的均值,V 是载荷矩阵,它的每一列是说话人子空间的基。y ( u )是ω( u )映射在说话人子空间的隐变量,ε( u )是残余噪声项。高斯PLDA 模型是建立在观测值服从高斯分布这一基础上建立的。但是在实际应用中,x‑vector 分布是不满足高斯条件的,为了提高PLDA 算法效果,需要对x‑vector 做如下均值方差归一化[12]

式中,Σ 是所有训练数据x‑vector 协方差矩阵。在测试阶段,利用PLDA 模型计算两端语料相似度得分。假设H1表示两段语料来自于同一个说话人,假设H0表示2 段语料来自于不同的说话人,2 段语料对应的x‑vector 分别为ω( u1)和ω( u2),那么最终的似然度得分计算如下

2 基于内容的x-vector / PLDA 模型

在文本相关的SV 中,内容是很重要的一个区分性信息。前面所述的x‑vector 系统都是对一段语音进行统一的矢量提取,没有考虑内容对x‑vector 的影响。本文针对这种情况采用不同的数字分别训练残差神经网络并分别提取x‑vector。基于内容的x‑vector 系统包含训练阶段和测试阶段,图2 为说话人识别流程图。在说话人模型注册阶段,首先进行数据预处理:提取训练语料的30 维梅尔频率倒谱系数(Mel frequency cepstral coefficient,MFCC)特征,并利用端点检测算法除去静音帧;再进行语料切分:利用语音识别模型将每条语料切割成若干数字,由于声音信噪比高,采用高斯混合模型与隐马尔科夫模型(Gaussian mixture models and hidden markov model,GMM‑HMM)模型已经能够获得很好的语音识别准确率;利用训练好的深度神经网络模型分别提取每个数字的x‑vector,完成模型的注册。在测试阶段,数据预处理与训练阶段相同,提取注册语料和测试语料中各数字相应的x‑vector,使用线性判别式分析(Linear discriminant analysis,LDA)、PLDA 后端信道补偿算法获取各数字的得分,最后将测试语料各数字得分求和平均计算最终得分。

图2 基于内容的x-vector 系统流程图Fig.2 Block diagram of digit-dependent x-vector system

图2 中提取x‑vector 神经网络首先使用大量数据预训练得到一个初始网络,然后用训练集的每个不同的数字来训练得到10 个与数字相关的神经网络。由于x‑vector 是与数字相关的,因此也用训练集的不同数字的x‑vector 来单独训练LDA、PLDA 模型。

2.1 语音内容切分

在训练阶段,本文中采用RSR2015 Part Ⅲ中的bkg+dev 中Part Ⅲ数据训练GMM‑HMM 模型,采用单音素声学模型,每个音素采用三状态建模,用得到的语音识别模型对语音做识别后,并对每个数字做强制对齐可以得到其起始和终止时间,并以此作为后续说话人训练和测试实验所用。

2.2 x-vector 模型选择与训练

传统的x‑vector 系统在帧处理层采用的是TDNN 结构,这种结构在数据量较大时,性能优异,但声纹表征的提取能力依旧不足。本文采用改进的34 层深度残差网络(ResNet‑34)[12]代替TDNN,如图3所示。与标准ResNet‑34 相比,除去第1 个卷积层后的池化层,并修改各个卷积层中各卷积核大小,具体参数见图3。其以帧为单位对低层输入特征进行非线性映射获得帧级别的表示。与普通DNN 不同的是,ResNet‑34 引入残差学习模块[13],解决了随着网络层数的加深,准确率不升反降的问题。池化层为统计池化层,段处理层由2 个具有512 节点数的fc 层和softmax 层组成,输出节点为对应的目标说话人。

传统的x‑vector 系统是训练一个神经网络,既然采用每个字来分别建模,最好的方式是每个不同的字都建立一个神经网络分别提取x‑vector,这样具有更高的区分性。不可回避的是,采用每个字建立一个x‑vector 的提取网络面临着数据不足的问题。为解决训练数据过少导致深度神经网络的过拟合问题,采用网络预训练策略。首先用大量数据训练一个相对稳健的模型,本文中使用Voxceleb 中的开发集[14]和Voxceleb2 中的开发集[15]训练一个深度神经网络,然后将输出节点替换,固定除最后一个隐层外的所有底层参数,然后分别用各个字的特征语料训练最后一个隐层参数,待网络收敛后,只固定BN(Batch normalization)层[16]参数,重新训练网络至收敛。

当10 个数字的深度神经网络训练完毕,将注册语料和测试语料中的各数字特征作为网络输入来提取对应数字的x‑vector,再分别进行信道补偿和得分判决。

2.3 基于数字的PLDA 模型

当基于字的深度神经网络训练完毕,将注册语料和测试语料中的各个字特征作为网络输入来提取对应数字的x‑vector。在得到每个数字的表征说话人的矢量x‑vector 之后,采用基于字的PLDA 模型。

给定一条语料x,基于字的PLDA 模型如下

与式(5)不同的是,上式所有变量都是针对特定数字d,{μd,Vd,Σd}这些参数都是由其对应数字的归一化的x‑vector 训练,归一化过程如式(9)所示

图3 深度残差网络Fig.3 A deep residual network

式中,μd和Σd是所有关于数字d的x‑vector 的均值和协方差矩阵。

然后,对注册语料和测试语料中的各个数字进行得分判决,如式(10)所示

式中,假设H1表示对于数字d,ωd(u1),ωd(u2)是来自于相同的说话人,假设H0表示对于数字d,它们来自不同的说话人。最后,将不同数字的得分进行合并,统计出每条语料的判决得分如下

式中,Dx表示测试语料中含有的数字集合,|Dx|表示测试语料中包含数字的个数,sd(utest,uenroll)的计算如式(10)所示。式(11)是不同数字得分求和平均的过程。

3 仿真实验与结果分析

3.1 实验数据与评价指标

本次实验是RSR2015 数据库上进行的,RSR2015 是一个针对文本相关的SV 任务的英文数据库,其中包含300 个说话人(男157 人,女143 人)。按照不同说话人进行分类,分为:background(bkg),development(dev)和evaluation(eval)[17],具 体 如 表1 所示。 按照语料内容分为PartⅠ、PartⅡ、PartⅢ这3 部分。PartⅠ语料是固定短语,PartⅡ语料是家用电器控制命令,Part Ⅲ语料是随机数字串语音。本文在Part Ⅲ进行SV 实验。Part Ⅲ语料中,10 数字串平均时长5.19 s,5 数字串平均时长3.06 s,除去静音帧后,其有效时长分别为2.07,1.09 s。

表1 RSR2015 数据库分类Table 1 Partitioning of RSR2015 人

本文采用等错误率(Equal error rate,EER)和最小错误代价函数(Minimal detection cost function,MinDCF(p‑target)=0.01)作为评价指标[18]。

3.2 实验系统

在RSR2015 数据集上分性别训练和测试,注册和测试数据全部来自Eval,10 数字串的语料注册,5数字串的语料测试[5]。构建了914 688 个测试:其中男性有526 167 个,目标说话人的个数有9 231 个,非目标说话人的个数有516 936 个,女性有388 521 个,目标说话人有7 929 个,非目标说话人有380 592个。除本文提出的算法之外,另外还采用了7 个主流的系统进行对比。

GMM i‑vector 系统:UBM 模型分性别训练,UBM 模型的训练数据分别是男性说话人和女性说话人的bkg+dev 数据。UBM 高斯数为1 024,对应i‑vector 系统的T 矩阵训练数据同UBM 模型,i‑vector取400 维。后端LDA 算法进行信道补偿,将维度降到128,再利用PLDA 算法得分判决。LDA、PLDA模型训练数据为bkg+dev 中Part Ⅲ语音。

基于内容的i‑vector 系统:这是文献[8]提出的一种算法。GMM‑HMM 模型也是分性别训练,训练数据分别是男性说话人和女性说话人的bkg+dev 中Part Ⅲ数据。UBM 按不同数字建模,训练数据与GMM‑HMM 模型相同,UBM 高斯数为16,对应i‑vector 系统的T 矩阵训练数据同UBM 模型,i‑vector取100 维,LDA 降维至60,PLDA 得分判决。LDA、PLDA 模型训练数据与GMM i‑vector 系统相同。

RSR‑TN‑xvector 系统:5 层TDNN 作为帧处理层,各层节点数分别为512,512,512,512,1 536。池化层为统计池化层;段处理层由2 个具有512 节点数的fc 层和softmax 层组成。整个神经网络训练数据是RSR2015 Part Ⅲ中bkg+dev 中所有语音数据。

RSR‑RN‑xvector 系统:改进的ResNet‑34 网络作为帧处理层,如图3 所示;其他所有配置与TN‑xvector 相同。

TN‑xvector 系统:网络结构和RSR‑TN‑xvector 系统完全相同。网络训练数据是Voxceleb 中的开发集和Voxceleb2 中的开发集,x‑vector 取512 维,LDA、PLDA 配置和GMM i‑vector 系统相同。

基于内容的TN‑xvector 系统:网络结构与TN‑xvector 系统相同,深度神经网络预训练数据与TN‑xvector 系统训练数据相同。当网络预训练完成后,将RSR2015 Part Ⅲ中bkg+dev 中Part Ⅲ数据作为训练数据重新对网络进行微调。LDA、PLDA 配置和GMM i‑vector 系统相同。

RN‑xvector 系统:改进的ResNet‑34 网络作为帧处理层,如图3 所示;其他所有配置与TN‑xvector相同。

基于内容的RN‑xvector 系统:网络结构与RN‑xvector 系统相同,其他所有配置与基于内容的TN‑xvector 系统相同。

3.3 实验结果与分析

表2 列出了6 个系统在测试集上的实验结果。

由RSR‑TN‑xvector 和RSR‑RN‑xvector 系统在男女测试集上性能可知,仅使用RSR2015 数据库中的数据训练深度神经网络,说话人识别性能会大幅降低。因网络参数过多,而训练数据不足导致出现过拟合,参数量越大,过拟合现象越严重,识别率越低。故本文采用预训练等策略提高识别性能。

传统的x‑vector 系统帧处理层为5 层TDNN 构成,但特征提取能力与ResNet‑34 相比依旧不足。RN‑xvector 系统相较于TN‑xvector 系统在男性和女性测试集上EER 分别相对提升31.79%、22.31%,MinDCF 相对提升15.57%、26.81%。表明网络层次的加深,会进一步增强声纹特征的提取能力,说明帧处理层的替换对于提取声学特征中的说话人信息有一定的作用。

表2 Part Ⅲ测试集实验结果Table 2 Experimental results on test set of Part Ⅲ

文本内容作为辅助信息的应用在文本相关的SV 实验中也取得了一定的效果。基于内容的i‑vector系统相较于GMM i‑vector 系统在男性和女性测试集上EER 分布分别提升24.09%、42.95%,MinDCF相对提升33.24%、46.25%。基于内容的TN‑xvector 系统相较于TN‑xvector 系统在男性和女性测试集上EER 分布分别提升21.66%、20.67%,MinDCF 相对提升26.53%、34.3%。基于内容的RN‑xvector 系统相较于RN‑xvector 系统在男性和女性测试集上EER 分别提升15.34%、19.7%,MinDCF 相对提升17.08%、24.66%。充分验证了内容建模的有效性,体现了基于内容的说话人信息提取的鲁棒性。

RN‑xvector 系统是将x‑vector 系统应用到文本相关的SV 任务中,并且使用性能更优的ResNet‑34替换传统的TDNN 网络,并针对文本内容分别建模。相较于其他7 个主流系统,在男性和女性测试集上都获得了一致的性能提升。

4 结束语

本文提出并构建了基于内容的x‑vector 系统,该系统针对一句话中的不同字分别利用深度神经网络进行前端建模,取代了传统方法中对整句话的建模。在RSR2015 数据集Part Ⅲ上的SV 实验结果表明:基于内容的x‑vector 系统相对于x‑vector 系统在测试集上的性能有很大提升,说明了本文所提出方法的有效性。进一步与基于内容的i‑vector 系统相比,性能提升更加明显。下一步准备改进传统的后端信道补偿算法以及得分规整来进一步提高实验性能。

猜你喜欢
语料神经网络数字
基于归一化点向互信息的低资源平行语料过滤方法*
神经网络抑制无线通信干扰探究
基于神经网络的中小学生情感分析
答数字
数字看G20
基于神经网络的拉矫机控制模型建立
基于支持向量机回归和RBF神经网络的PID整定
《苗防备览》中的湘西语料
国内外语用学实证研究比较:语料类型与收集方法
成双成对