张小峰,谢 钧,罗健欣,杨 涛
1.中国人民解放军陆军工程大学 指挥控制工程学院,南京210007
2.中国人民解放军31121部队
语音合成是将文本转化成语音的技术,在日常生活中有着广泛的应用,比如智能客服、虚拟助手、智能阅读等[1-2]。目前,常见的语音合成方法有拼接法(concatenative speech synthesis)、参数法(parametric speech synthesis)、统计参数法(Statistical Parametric Speech Synthesis,SPSS)以及深度学习法(deep learning)等。其中,拼接法和参数法也叫传统语音合成方法。
文献[3]从前端文本处理、语音生成角度对语音合成技术进行综述,首先综述语音合成中前端文本处理技术,然后综述语音合成技术,文献[3]综述的语音合成技术有拼接法、参数法以及前馈神经网络等。文献[4]则首先简述了传统的语音合成方法,然后从深度神经网络在语音合成技术中的应用角度综述语音合成技术,比如受限玻尔兹曼机、深度置信网、循环神经网络等在语音合成中的应用,最后介绍了基于Wavenet[5]和Tacotron的语音合成技术。
不同于上述的语音合成技术综述,文章从声学模型和声码器角度,系统综述基于深度学习的语音合成技术进行,包括各种基于深度学习声学模型、声码器和端到端语音合成系统等,并分析了各自的特点、优势、劣势,以及适应的场景。文章涉及了上述综述中基于深度学习的语音合成技术,但没有涉及到传统的语音合成技术。
自2016年谷歌公司提出Wavenet声码器至今,涌现出多种基于深度学习的语音合成技术,这些技术从合成语音质量、合成速度以及模型复杂度等方面提高语音合成技术性能。基于深度学习的语音合成系统主要有两种,一种是将深度学习应用到传统语音合成系统各个模块中建模,这种方法可以有效地合成语音,但系统有较多的模块且各个模块独立建模,系统调优比较困难,容易出现累积误差。这种系统的代表是百度公司提出的Deep Voice-1[6]和Deep Voice-2[7]。
另一种是端到端语音合成系统,这种系统旨在利用深度学习强大的特征提取能力和序列数据处理能力,摒弃各种复杂的中间环节,利用声学模型将文本转化中间表征,然后声码器将中间表征还原成语音。声学模型和声码器是端到端语音合成系统的重要组成部分,一些语音合成系统会在声学模型之前加上文本分析模块,文本分析模块对输入的文本进行预处理,比如词性标注、分词以及韵律生成等。由于文本分析是自然语言处理的内容,所以文章不进行综述。
图1是语音合成系统分类示意图,端到端语音合成系统由声学模型和声码器两个部分组成,声学模型实现文本和语音在时间上的对齐,声码器将声学模型输出还原成语音波形。由于声码器不仅可以在端到端语音合成系统中,也可以单独作为语音合成的模型,所以文章首先对基于深度学习的声码器进行综述,详细介绍经典的声码器这些工作原理,分析声码器的优缺点。然后对声学模型进行综述,在声码器和声学模型的基础上对语音合成系统进行综述。最后对基于深度学习的语音合成技术发展做出展望。
图1 语音合成系统分类
图2 是近几年基于深度学习的语音合成技术发展历程,包括声码器、声学模型和端到端语音合成系统,还有一些衍生的声码器、声学模型和端到端语音合成系统没有列出。
图2 基于深度学习的语音合成技术发展历程
声码器单独作为语音合成模型时需要和预处理模型结合使用,预处理模型为声码器提供语言学特征或声学特征等控制条件。基于深度学习的声码器按照其生成语音原理可以分为自回归式和并行式。自回归式声码器按照时间顺序生成语音,生成每一时刻的语音都依赖之前所有时刻的语音。并行式声码器并行生成语音,不再按照时间顺序。并行式声码器主要有基于概率密度蒸馏[8]声码器和基于流[9]声码器两种。基于概率密度蒸馏声码器是在自回归模型基础上结合逆自回归流[10]和概率密度蒸馏方法,采用教师学生模式训练模型,教师模型是预训练好的自回归模型,学生模型用逆自回归流方法训练,损失函数一般是教师模型和学生模型输出之间的相对熵(Kullback-Leibler 散度,KL 散度)。基于流的生成式模型最初用于生成图像,但基于流的声码器也可以较好地生成语音。基于流的声码器只需要一个模型、一个损失函数就可以高速生成语音,而基于概率密度蒸馏的声码器需要两个阶段训练和多个辅助损失函数。图3是声码器按照工作原理的分类,图中所列的是经典声码器,没有包含衍生的声码器。
图3 基于深度学习的声码器分类
自回归声码器是较早研究的声码器,按其网络模型主要有基于卷积神经网络声码器和基于循环神经网络声码器两种。基于卷积神经网络声码器利用卷积神经网络建模,通过因果卷积、带洞卷积等达到按时序生成语音的目的。基于卷积神经网络声码器能够充分利用GPU等并行计算资源,训练速度比基于循环神经网络的声码器快。基于循环神经网络的声码器利用循环神经网络建模,比如长短时记忆网络(LSTM)[11]、门循环单元(GRU)[12]等。
Wavenet[5]是谷歌DeepMind提出的由卷积神经网络构成的生成式模型,该模型不仅可以生成语音也可以生成图像、音乐等。Wavenet 作为声码器时有Wavenet 声码器[13]和条件Wavenet 声码器两种模式。Wavenet 声码器需要语言学模型或声学模型等提供控制条件,比如声谱图、F0 基频等。图4 是Wavenet 结构示意图,训练前将语音序列联合概率x={x1,x2,…,xT} 分解为各时刻条件概率的乘积,如公式(1)所示:
x是语音波形值序列,xt是一个时刻波形值。训练过程中利用因果卷积和带洞卷积逐点生成语音的波形。因果卷积和带洞卷积保证模型按照时间顺序生成语音。生成阶段,模型采用逐采样点自回归方式,按公式(1)计算每个时刻的波形值。
图4 Wavenet
条件Wavenet声码器在Wavenet声码器基础上接收额外的输入条件进行建模,如公式(2)所示:
h是额外的输入条件。比如在合成多说话人语音时,说话人编码就可以作为额外的输入,在文本转语音任务中,文本也可以作为额外的输入。条件Wavenet声码器有两种建模方法:全局方法和局部方法。全局方法是指模型接收单额外输入条件h,该条件在所有的时间点上影响模型的输出。局部条件建模方法是指模型有第二种时间序列ht,ht是通过对原始数据的低采样率获得。局部条件建模效果比全局建模的效果要差一些。
Wavenet 全卷积神经网络的设计可以充分利用GPU 并行计算资源,训练速度比较快且合成语音质量高。但是由于采用逐点自回归方式生成语音,所以生成语音速度慢。对于16 kHz采样率,16 bit采样位的语音,每秒需要计算16 000个采样点,每个采样点有65 536种可能,这需要较大的计算量和计算耗时。虽然Wavenet采用了μ律压扩[14]将16 bit的采样位降低成8 bit的采样位,但是生成语音速度仍然达不到实时的要求。
虽然Wavenet存在模型较为复杂、计算量大及合成速度慢等问题,但Wavenet是基于深度学习声码器的重要组成部分,对语音合成技术的发展有着重要影响,基于Wavenet衍生出多种声码器。
对于Wavenet 声码器需要额外的模型提供控制条件,文献[15]提出直接使用现有的声学特征作为Wavenet的输入特征,这样不需要对原始语音建模,从而避免了语音分析和生成过程各种先验的假设。文献[16]在文献[15]基础上研究多说话人的语音合成。
对于Wavenet 合成语音有噪音的问题,文献[17]通过在Wavenet 模型之前引入基于感知权重的噪音整形技术,减少Wavenet因为卷积神经网络难以捕捉语音信号动态信息而产生的噪音,但是这种做法会造成合成语音的质量下降。Excitnet[18]结合LPC(Linear Predictive Coding,LPC)声码器和Wavenet 声码器优点,使用自适应预测器将与共振峰相关的频谱结构从输入语音信号解耦,然后通过Wavenet对激励信号的概率分布进行建模,实现了高效训练和生成语音。
针对Wavenet 训练复杂,计算量大的问题,Fast-Wavenet[19]在Wavenet基础上通过引入缓存,将因果卷积和带洞卷积计算过程中不变的结果保存在缓存中,需要时直接使用,这样可以节约计算的时间,提高训练和生成语音的速度。FFTNet[20]则对Wavenet 结构进行调整,通过多通道卷积的结构,提高合成语音的速度同时减小模型规模且合成语音的质量较高。
不同于上述基于卷积神经网络的声码器,SampleRNN[21]采用处理序列数据常用的循环神经网络建模,SampleRNN有多层循环神经网络组成,最低层叫采样层,其余层叫帧层。各层以不同时钟速率运行,学习不同抽样级别。采样层一个时间步只学习一帧样本,而最高的帧层一个时间步可以学习较多帧样本。帧层对语音非重复帧做处理,每个帧层都是一个循环神经网络,循环神经网络可以由LSTM、GRU等组成,也可以是其他循环神经网络变体组成。采样层对单个样本数据进行处理,直接计算出语音波形。
SampleRNN和Wavenet都是直接对原始语音建模,Wavenet 利用卷积神经网络学习语音前后特征的关系,而SampleRNN 从循环神经网络的角度,利用多层循环神经网络学习语音不同时间维特征。SampleRNN生成语音速度比Wavenet快,模型也比Wavenet简单,合成语音质量和Wavenet 相当。但是由于SampleRNN 采用循环神经网络,所以训练过程中并不能充分利用计算资源,需要采用较多的技巧加速模型训练。
不论是Wavenet 还是SampleRNN 都很难达到实时语音合成,WaveRNN[22]针对生成式语音合成中耗时较大的模块进行了专门分析和改进,达到超实时语音合成速度且合成语音质量也没有大的下降。WaveRNN认为生成式语音合成模型生成语音速度可以用公式(3)表示:
T(u)是生成语音的总时间,语音有 |u |个采样点,N 表示模型神经网络层数,c(opi)代表每层神经网络计算耗时,d(opi) 表示硬件执行程序时间。对于以上几点,WaveRNN 分别使用单层循环神经网络和两层softmax层简单模型减少神经网络层数,采用裁剪法[23-24]减少每一层神经网络计算耗时,使用折叠法减少因为语音较长而需要的时间。
WaveRNN 通过上述方法达到了提高语音生成速度、降低模型规模的效果。WaveRNN 合成语音速度比Wavenet 和SampleRNN 快很多且可以部署在移动端等计算资源较少的设备上。LPCNet[25-26]在WaveRNN基础上结合线性预测模块,进一步提高了语音合成的效率,在同等大小模型的情况下,LPCNet合成语音的质量更高。
自回归式声码器按照时间顺序构建语音,每一点语音值都需要依赖历史语音值,合成语音质量高,但实时性不足。不同于自回归式逐点生成语音,并行式声码器同时生成整段语音,每个语音点之间没有依赖关系。并行式声码器按其原理主要有两种:一种是基于概率密度蒸馏,利用逆自回归流和概率密度蒸馏训练和生成语音,比如Parallel Wavenet[27]和Clarinet[28]。逆自回归流是一种每个可逆函数都基于自回归神经网络的特殊的标准化流[29-30]。逆自回归流最大似然估计是自回归式,因此逆自回归流模型会和概率密度蒸馏模型结合使用。概率密度蒸馏原本是模型压缩的方法,通过优化学生模型和教师模型输出之间的误差,得到规模较小的学生模型。另一种是基于流,通过一系列可逆函数,利用简单的分布在中间表征的控制下生成语音波形,基于流的模型是目前研究的热点。
自回归模型并行输入训练数据逐点输出预测结果,特点是训练速度快但生成速度慢。逆自回归流模型相反,逐点输入训练数据并行输出预测结果,所以基于逆自回归流模型的训练速度慢,但是生成速度快。Parallel Wavenet结合逆自回归流和概率密度蒸馏方法,首先训练好自回归的教师模型,然后从教师模型中蒸馏学习出学生模型,学生模型用逆自回归流的方法训练。Parallel Wavenet 损失函数是学生模型和教师模型输出之间的KL散度,通过优化KL散度使学生模型输出不断逼近教师模型输出。公式(4)是模型损失函数,H(PS,PT)是学生模型和教师模型输出的交叉熵,H(PS)是学生模型输出的熵。
仅优化KL散度,学生模型还不能很好地生成语音,Parallel Wavenet 增加了感知损失、对比损失、能量损失等辅助损失函数提高学生模型生成语音质量。感知损失可以防止产生不好的发音,对比损失可以消除噪音,而能量损失协助匹配人类语音的能量。
Parallel Wavenet极大提高了语音合成速度,但实践中发现很难有效实现该模型,因为Parallel Wavenet 首先假设教师和学生模型的输出均服从混合逻辑斯特分布,然后对混合逻辑斯特分布进行蒙特卡洛采样后计算两者的KL 散度。蒙特卡洛采样会导致训练过程不稳定。对此,Clarinet 采用高斯分布取代教师学生模型输出的混合逻辑斯特分布,两个高斯分布可以直接计算KL散度,公式(5)所示:
q 是学生模型输出的高斯分布,p 是教师模型输出的高斯分布,uq和σq为q 均值和标准差,up和σp是p 均值和标准差。为了保证训练过程中数值计算的稳定性,Clarinet还对σq和σp增加了正则项,如公式(6)所示:
Parallel Wavenet和Clarinet通过逆自回归流和概率密度蒸馏的方法实现了高速训练和生成语音目的,但在实际中这两种方法使用并不多,因为这两种模型训练过程比较复杂且合成效果也不稳定。
不同于Parallel Wavenet 和Clarinet 需要两个阶段训练和多个辅助损失函数。基于流的声码器只需要一个模型和一个损失函数就可以高速生成语音。标准化流是通过一系列可逆函数用简单分布模拟复杂分布的一种生成式模型。在语音合成中,对于原始音频x,假设存在可逆函数f(x):x →z,则可以直接将x 映射到先验Pz,则x 的对数概率分布函数可用公式(7)表示,这样就可以用一个已知的简单分布计算一个复杂的分布的似然估计。
基于流的模型的优势是训练过程简单,不需要多次训练和多个损失函数且结果稳定。WaveGlow[31]结合Glow 和Wavenet 以均值为0 的高斯球形分布作为先验分布,以梅尔频谱作为控制条件,通过挤压层、1×1可逆卷积和仿射耦合层[32]等拟合语音波形。FloWavenet[33]的原理和WaveGlow 相似,FloWavenet 认为基于流的生成式模型要实现高效训练和生成需要满足两点:(1)计算公式(7)的雅克比矩阵的公式f应该简单易于计算;(2)将噪音点z转化成语音信号点x的逆函数x=f -1(z)应该容易计算。如要并行生成和易于计算,第二点必须满足。为了满足上述两点,FloWavenet 使用类似文献[32]的仿射耦合层中,并在每一个模块中使用了多层流。
WaveGlow 和FloWavenet 实现了高速生成语音,降低了训练的难度和复杂度。但是基于可逆流的模型通常有较多的神经网络层和大量的参数,这使得基于流的模型很大,比如Wavenet 和Clarinet 只有1.7×106个的参数,而WaveGlow有200×106个的参数。
MCNN[34]通过多头卷积网络重建语音波形,该模型虽然不需要如Parallel Wavenet 那样多次训练,但模型仍需要四个辅助损失函数,训练过程比较复杂,且由于MCNN是在完整的声谱图上还原波形,所以并不清楚能否在梅尔频谱这样的声谱图上还原波形。
文献[35]从人类发音角度建模,模型由三个部分组成,一个是源模块,用于生成基于正弦的信号,作为激励源。另一个是基于非自回归带动卷积的过滤器,过滤器将激励转化成语音波形。最后一个是条件模块,这个模块将输入的声学特征进行预处理,然后输入到前两个模块。通过这三个模型,文献[35]避免了基于概率密度蒸馏复杂的训练环节。
表1是几种声码器性能参数表,Wavenet合成语音质量高,但模型较为复杂,生成语音速度慢。SampleRNN和WaveRNN是基于循环神经网络的声码器,这两个模型比Wavenet 小,合成语音质量和Wavenet 相当。WaveRNN速度最快,模型最小。WaveGlow 和FloWavenet 是结合Wavenet和流的并行式声码器,两者的工作原理相近,结构不同。表中合成速度以实时为基准,实时是指合成一秒的语音需要一秒的时间,不足是指合成一秒语音需要超过一秒的时间。在实际应用中一般会要求语音合成系统具有超实时性,因为部署在服务器端的语音合成需要考虑网络时延问题,5G 的发展会在一定程度上缓解这个问题,但不能从根本上解决问题,所以实用的语音合成系统需要可以实时合成语音。
经典的语音合成系统中语言学模型和声学模型通常分开建模,这会导致模型比较复杂且需要研究人员具有专业的语言知识。随着深度学习的发展,特别是基于注意力机制[36-38]的序列到序列(seq2seq)模型[39]的提出,使得将语言学模型嵌入到声学模型中成为可能。文献[40]首次提出基于序列到序列加注意力机制[41]的声学模型,其原理是通过输入文本序列生成梅尔频谱。文献[40]声学模型可以很好地生成梅尔频谱,但需要预训练的隐马尔科夫模型辅助学习,因此文献[40]只能合成较短的语音。
和声码器相似,基于深度学习的声学模型的发展也经历了自回归式和并行式两个阶段。自回归式声学模型出现较早,生成的中间表征质量高、速度慢。并行式声学模型生成中间表征速度快,但质量会有所下降,且训练过程比较复杂。本章节从自回归和并行式两种声学模型综述。
自回归式声学模型在语音合成中用的比较多,其基础是seq2seq加注意力机制的编码解码模型。编码器将文本转化成上下文矢量,解码器根据上下文矢量直接解码出结果。注意力机制建立起上下文矢量与输入文本之间的联系,这样可以更好地利用输入的信息。在语音合成声学模型中,注意力机制可以将解码器的注意力集中在输入的相关文本上。由于注意力机制在声学模型有着重要的作用,所以这里介绍一下注意力机制。
图5 是seq2seq 加注意力机制的示意图,对于输入序列x=(x1,x2,…,xL)和与之对应的输出序列y=(y1,y2,…,yT),首先将输入序列编码成(h1,h2,…,hTx) 嵌入特征,st为循环神经网络的隐层状态,如公式(8)所示,ct为第t时间步的上下文矢量,如公式(9)所示。公式(10)是解码器解码的结果。
表1 基于深度学习的声码器总结
公式(9)中,上下文矢量ct每次计算都和输入h有关,这种方式称为基于内容的注意力机制[41],这种方式没有考虑输入文本之间的位置关系,相同的输入具有相似的权重值。另一种基于位置的注意力机制将输入文本之间的位置关系代入计算,上下文矢量计算公式如式(11)所示,这种称注意力机制为基于位置的注意力机制[37]。
图5 循环神经网络加注意力机制示意图
2.1.1 编码器
编码器提取输入文本的特征,将输入文本转化成上下文矢量,编码器的结构一般比较简单。Tacotron-1[42-43]的编码器采用了预处理网络和CBHG[44]模块。预处理网络是一系列非线性转换层,将文本转化成嵌入矢量,CBHG 模块结合注意力机制将嵌入矢量转化成上下文矢量,CBHG 模块可以减少过拟合以及误发音等情况。Tacotron-2[45]编码器在Tacotron-1 编码器基础上进行了简化,仅使用普通的LSTM 和卷积网络,没有使用复杂的CBHG 模块。Deep Voice-3[46-47]的编码器则采用全卷积进行建模,全卷积的编码器可以并行训练。
2.1.2 解码器
解码器是声学模型的关键,后期对于声学模型的改进也是集中在解码器。解码器根据上下文矢量直接解码出结果,解码的结果需要根据声码器选择。解码器可以解码出原始的声谱图,也可以解码出梅尔频谱。原始的声谱图可以保留更多的语音信息但是会有大量的冗余信息增加训练过程的不稳定性,梅尔频谱虽然会丢失大量的信息,但是通过良好设计的声码器可以还原出丢失的信息,因此解码器通常会以梅尔频谱为解码结果。
Tacotron-1 采用基于内容注意力机制解码器[36],每一个时间步每一循环层都会生成一个注意力询问。Tacotron-2的解码器和Tacotron-1结构相似,但是采用基于位置的注意力机制[37],以更好地适应输入文本有重复字的情况。Deep Voice-3 解码器则是由带洞卷积和基于Transformer[38]注意力机制构成,基于卷积的解码器比基于循环神经网络的声码器解码的速度要快一些。由于在合成语音过程中,对于注意力机制的错误较为敏感,所以Deep Voice-3进一步采用了[48]注意力机制。
上述的解码器可以高质量地生成中间表征,但是都存在曝光偏差[49]问题。曝光偏差是由于在训练过程中,解码器使用真实值作为每一个解码步的输入,而在预测时使用上一个解码步的输出作为本次解码步的输入,这种训练和预测的输入会造成不一致性。曝光偏差会导致合成语音出现漏词、重复词以及不完全合成等现象。
并行式声学模型并行解码出结果,并行解码的两个难点是根据输入的文本需要解码出多少帧中间表征以及并行解码出的各帧之间的依赖关系如何界定。目前常用的办法仍是概率密度蒸馏,通过预训练的教师模型指导学生模型。Fastspeech[50]通过从预训练好的自回归模型中提取文本语音对齐信息,结合Transformer、一维卷积网络[51]以及概率密度蒸馏等方法并行生成中间表征。Fastspeech解决了自回归声学模型合成速度慢、合成结果不稳定以及合成过程难以控制等问题。Paranet[52]则采用软注意力机制从自回归的教师模型中学习,并行生成中间表征。
不同于Fastspeech 需要对齐模型或者Paranet 依赖自回归的教师模型。GlowTTS[53]通过流和单调对齐搜索方法可以高速生成中间表征。基于流的声学模型是研究的热点,比起基于概率密度蒸馏的声学模型,基于流的声学模型结构更加简单,模型也更加稳定。
将深度学习引入到经典语音合成各个模块中建模是一种有效的语音合成方法,Deep Voice-1是这种方法的代表。Deep Voice-1合成速度快,合成语音质量也较高。但系统由多个模块组成,容易产生累积误差且误差难以定位。
Deep Voice-2 在Deep Voice-1 基础上改进了多说话人语音合成系统,方法是将说话人矢量引入到模型中训练。目前直接将深度学习引入到经典语音合成系统各个模块中建模的研究已经不多了,Deep Voice 系列的第三代Deep Voice-3 已经转为采用端到端语音合成方法。
文献[40]是首个端到端语音合成系统,开启了端到端语音合成系统的研究。该系统需要一个预训练的隐马尔科夫对齐模块辅助声学模型学习文本与语音在时间上的对齐,其次该系统采用一些辅助的训练技巧会影响合成语音质量。
Char2Wav[54]有阅读器和声码器两部分。阅读器有编码器和解码器组成,编码器是一个双向的循环神经网络,解码器是基于注意力机制的循环神经网络,声码器是SampleRNN。
Tacotron-1语音合成系统声学模型是基于内容注意力机制的声学模型,声码器是Griffin-Lim 算法,Griffin-Lim算法不是深度学习模型,文献[42]提出可以将Griffin-Lim算法替换为基于深度学习的声码器。Tacotron-2在Tacotron-1的基础上采用了Wavenet作为声码器。
Tacotron 系列语音合成系统架构简单,合成语音质量高。WaveTTS[55]在Tacotron系列原有频域损失函数基础上引入时域的损失函数,这样可以提高合成语音的质量。针对Tacotron 解码器采用的强制教学模式会造成曝光偏差问题,文献[56]提出用概率密度蒸馏的方法,训练教师解码器时采用强制教学方法,而训练学生解码器采用常规的自回归方式,通过优化学生解码器和教师解码器的输出误差提高学生解码器的准确性,从而减少曝光误差。文献[57]则采用对抗生成网络的方式避免曝光误差。
文献[58]使用Tacotron 声学模型和Excitnet 声码器组成端到端语音合成系统,该系统可以合成具有特定风格的语音。
Deep Voice-3是全卷积语音合成系统,声学模型可以生成多种中间表征,对应也有多种声码器。Deep Voice-3 可以学习多说话人语音且训练时间短、合成语音速度快。
VoiceLoop[59]在文本到中间表征过程中在编码解码的基础上添加了固定大小的缓存机制,这样可以减少模型的复杂度,VoiceLoop声码器是WORLD[60]。
Clarinet是在Parallel Wavenet和Deep Voice-3基础上改进的可以高速训练和并行生成的完全意义上端到端的语音合成系统。Clarinet通过单个神经网络直接将文本转换为语音波形。Tacotron、Deep Voice-3 等语音合成系统是先将文本转换为频谱,然后将频谱转换成语音。Clarinet 完全从文本到原始语音波形的端到端训练,实现了对整个语音合成系统的联合优化。比起分别训练的模型,Clarinet 在语音合成的自然度上有大幅提升。
文献[61]提出使用Transformer替代Tacotron-2中的注意力机制,这样编码器和解码器可以同时工作,提高了合成语音速度,基于Transform 的自注意力机制更好地适应长序列依赖问题。
声码器是语音合成技术的基础,声码器的发展历经了自回归式到并行式两个阶段。目前声码器已经可以满足不同场景的需求,但是高质量的声码器模型规模比较大,这意味着训练和部署模型需要较多的资源,而这些资源往往不是很充沛。所以如何在较少的资源上提高声码器的性能是研究的一个方向,目前很多研究是在声码器性能和模型复杂度之间做权衡。
端到端语音合成系统有漏发音和误发音的问题。这其中的一个原因是声学模型生成中间表征不稳定,特别是采用序列到序列加注意力机制的声学模型有曝光偏差等问题。如何解决声学模型结果不稳定是一个研究热点。一些解决的方法有将注意力机制由位置敏感改为相关位置敏感[62],采用蒸馏学习[56],增加时长控制和自适应优化策略[63]或者将改变注意力策略[64]以及应用额外的注意力机制辅助学习[65-66]等。
现阶段语音合成系统虽然可以实现高质量的语音合成,但是难以控制合成语音的风格:不同人会有不同风格,同一个人在不同状态下也会有不同的语音特点。目前常用的办法有预先从语音中提出可以表征韵律变化的隐变量,将隐变量代入语音合成模型中[67-69]训练、引入新的文本特征[70]或者引入句法、语义结构等信息[71]。
现有的语音合成系统都需要大量的语音文本数据,但现实中这些数据往往很难获得,所以如何能在较小的数据集上训练出高质量语音合成模型是一个研究方向。现有的方法有基于迁移学习[72]和半监督学习方法[73]等。
合成的语音仔细识别仍可以区分出自然语言和合成语音,这是因为合成语音过程中存在声学模型不准确、过度平滑以及声码器不准确等问题。所以如何能降低这些问题对合成语音的影响是研究的一个方向,文献[74-75]提出在合成语音过程中增加语音增强的模块,比如声学特征增强、语音增强等。
一句话中可能会包含多种语言,比如汉语和英语。这种跨语种的语音合成也是一个研究方向,一些做法是找到一种可以表示相关语种特征的矢量,然后将特征矢量嵌入语音合成模型[76]中训练。
基于深度学习的语音合成技术无论是在合成语音质量上还是速度上都取得了重大的进展。声码器是语音合成技术的基础,基于深度学习的声码器历经了自回归式和并行式两个阶段。自回归式可以生成高质量的语音,但速度慢,并行式可以快速生成语音,但存在着模型较大,训练过程比较复杂等问题。声学模型将文本转化成中间表征,和声码器相似,声学模型也经历了自回归式和并行式两个阶段。端到端语音合成系统将声学模型和声码器结合建模,直接建立起从文本到语音的合成,降低了语音合成研究对专业知识的要求,是目前研究较多的语音合成方法。
语音合成应用场景丰富,不同场景对语音合成的要求也不尽相同。满足在不同场景下的要求将是语音合成发展的一大考验。