方鹏,李贤,汪增福
(1.中国科学技术大学 信息科学技术学院,安徽 合肥 230027; 2.中国科学院 合肥智能机械研究所,安徽 合肥 230031; 3.语音及语言信息处理国家工程实验室,安徽 合肥 230027)
运用核聚类和偏最小二乘回归的歌唱声音转换
方鹏1,2,3,李贤1,3,汪增福1,2,3
(1.中国科学技术大学 信息科学技术学院,安徽 合肥 230027; 2.中国科学院 合肥智能机械研究所,安徽 合肥 230031; 3.语音及语言信息处理国家工程实验室,安徽 合肥 230027)
摘要:语音转换是计算机听觉领域的热点问题之一,将歌声运用于语音转换是一种新的研究方向,同时拓宽了语音转换的应用范围。经典的高斯混合模型的方法在少量训练数据时会出现过拟合的现象,而且在转换时并未有效利用音乐信息。为此提出一种歌唱声音转换方法以实现少量训练数据时的音色转换,并且利用歌曲的基频信息提高转换歌声的声音质量。该方法使用核聚类和偏最小二乘回归进行训练得到转换函数,采用梅尔对数频谱近似(MLSA)滤波器对源歌唱声音的波形直接进行滤波来获得转换后的歌唱声音,以此提高转换歌声的声音质量。实验结果表明,在少量训练数据时,该方法在相似度和音质方面都有更好的效果,说明在少量训练数据时该方法优于传统的高斯混合模型的方法。
关键词:计算机视觉;语音转换;歌唱声音;核聚类;偏最小二乘回归;高斯混合模型;MLSA
中文引用格式:方鹏,李贤,汪增福.运用核聚类和偏最小二乘回归的歌唱声音转换[J]. 智能系统学报, 2016, 11(1): 55-60.
英文引用格式:FANG Peng, LI Xian, WANG Zengfu. Conversion of singing voice based on kernel clustering and partial least squares regression[J]. CAAI Transactions on Intelligent Systems, 2016, 11(1): 55-60.
语音转换是一项非常热门的技术,在近20年间开始涌现,它可以通过修饰一个源说话者的声音,在不改变语义信息的情况下,使其声音听起来像是另一个特定的人所说的。由于每个人生理特征的限制,使得我们在发音的时候不能自由的转换音色,只能在某种程度上轻微地改变自己的音色,但是当说话者想要使其声音变成另一个人的音色时存在很大的难度。然而语音转换技术可以突破这一限制,实现任意人之间的音色转换。在语音转换方面,科研工作者已经做了大量的工作,因此很多人开始寻找新的研究方向,将歌唱声音运用到语音转换中将会成为一门热门课题,而且这也是和音乐相关技术运用的一种创新[1]。本文针对歌唱声音提出了一种转换的方法,以实现不同歌唱者音色之间的转换。
到目前为止,已经有了很多种语音转换的方法,其中一个非常经典的方法就是码本匹配[2],它通过对源声音特征的码本中心进行线性加权来实现转换。可是由于码本中心的数量限制,这样转换得到的声音特征被限制在一定范围内,使得转换后的声音特征缺少多样性。针对这一问题,很多人都提出了解决方法,其中基于高斯混合模型(GMM)的统计方法[3-4]是最为经典的方法,也是目前最前沿的方法。此方法通过使用GMM来对声音特征进行统计建模,并使用多个局部回归函数的线性组合来作为转换函数。不过这种方法存在2个问题:帧间的不连续和过平滑,这是由于在这个模型中未对帧间的关联性进行建模,从而导致在转换时出现帧与帧之间的不连续;另外由于统计模型经常会忽略频谱的细节信息,细节信息的缺失就自然导致了过平滑的出现。为了解决高斯混合模型中出现的2个问题,Toda[5]提出了频谱参数轨迹的最大似然估计法。一方面,通过增加帧间的动态变量来描述帧间的相关性,动态变量的引入成功地解决了帧间不连续的问题;另一方面通过构建频谱包络的全局变量来缓和过平滑问题。
尽管基于GMM方法的帧间不连续以及过平滑问题在某种程度上被解决了,但是此转换方法依然存在过拟合的问题。过拟合的出现是由于系统过于复杂而训练数据不足所导致的,在基于GMM的方法中过拟合是在计算协方差矩阵时被引入的。为了在训练数据过少时避免过拟合问题,可以采用对角阵来计算协方差矩阵。可是对角阵的使用又使得输入矢量的各维之间相互独立,从而导致了语音质量的下降。为了克服对角阵导致的变量独立性和过拟合问题,E.Helander提出了使用偏最小二乘回归(PLS)[6]来计算转换函数的方法,这一方法在少量训练数据的时将会得到比基于GMM方法具有更高的精确性。
这两年随着神经网络的迅速崛起,也有一些人开始使用神经网络相关方法来做语音转换[7-9]。尽管这些方法都取得了比较好的成果,但是与Toda的方法相比并未有显著的提升,而且都较为复杂,效率偏低。在歌唱声音转换的实际应用中,由于歌唱声音的数据相比普通语音数据会少很多(有时候只有一首歌),在很多情况下不能获得大量的歌唱声音数据,因此针对歌唱声音转换的实际应用,本文采用偏最小二乘法来计算转换函数。另一方面为了提高数据统计的精度,采用核模糊聚类来对歌唱声音特征进行聚类,以此来获得高精度的聚类结果。
当语音的频谱被转换完成之后,下一步要进行的是对语音进行合成。传统的合成方法是使用一个声码器对转换后的频谱和基频进行合成,以此来合成转换后的声音。可是相对于普通的语音来说,歌唱声音的音质是一个更为重要的指标,因此需要采用一些新的方法来提高歌唱声音的声音质量。为了减小合成的误差,提高歌唱声音的音质,本文使用差分频谱的方法进行歌唱合成[10],但不同于文献[10] 中的方法,我们不使用差分频谱来进行训练,因为这样可能会带来误差,本文将直接使用源声音频谱特征进行训练。
1歌唱声音转换框架
图1给出了本文歌唱声音转换的框架图。我们采用SPTK以及STRAIGHT[11]作为语音信号处理工具。由于歌唱声音的音色体现在频谱包络上,故在歌唱声音转换中采用频谱包络作为声音特征进行训练以及转换。
歌唱声音转换通常分为两部分:训练和转换。在训练阶段,首先采用核模糊k-均值聚类算法[12-13]对输入的源声音特征进行聚类,得到的聚类结果为一个隶属度矩阵。对隶属度矩阵和目标歌唱声音特征向量使用偏最小二乘回归算法经行训练,从而得到转换函数。在转换阶段,对于输入源歌唱声音特征,计算其隶属度矩阵,将隶属度矩阵代入求得的转换函数中,从而计算出目标歌唱声音特征。
图1 歌唱声音转换框架Fig.1 Singing voice conversion framework
2核模糊k-均值聚类
核模糊k-均值算法通过将输入空间的数据非线性映射到高维空间中,使得输入数据的可分辨性增大,模式类之间的差异更明显,增大了输入数据的可分概率,经过验证核模糊聚类拥有更准确的聚类结果。
对于输入的歌唱声音特征xn,n=1,2,…,N,假设已被映射到高维的特征空间Φ(xn),n=1,2,…,N,在该空间中Euclidean距离则表示为
(1)
在高维空间中,输入数据的点积形式表示为
(2)
式中:K(x,y)表示核函数,核函数有多项式核函数、高斯核函数、sigmoid核函数等,在此我们采用高斯核函数:
(3)
因此有
(4)
聚类的准则是最小化目标函数从而得到聚类结果,目标函数如下:
(5)
(6)
在高维空间中新的聚类中心为
(7)
则有
(8)
(9)
更新隶属度:
(10)
(11)
式中:第n个列向量表示第n帧歌唱声音特征相对于C类的隶属度,即kn=[μ1nμ2n…μCn]Τ。对于求得的隶属度矩阵将要使用偏最小二乘法进行训练,可是偏最小二乘法要求训练的对象是零均值的矩阵,那么对于隶属度矩阵要进行零均值处理。
对K的每一行求均值,矩阵的每一行都减去该行的均值,这些行的均值保存在列向量ν中。对于每一列也进行相同的操作,但是不保存每一列的均值。
3偏最小二乘回归(PLS)
PLS(partial least squares regression)是一种结合了主成分分析和多元线性回归的技术,它非常适用于高维的数据,并且能够解决数据本身带来的共线性问题[14]。PLS有一个假设,源矢量xn是由一个维度更低的矢量表示,并且这个矢量也可以生成目标矢量yn。这个假设在歌唱声音转换中可以理解为:输入的源歌唱声音特征和输出的目标歌唱声音特征可以由一个和说话者无关的歌唱声音特征所表示。这个原理可以表示如下:
(12)
(13)
(14)
式中:β表示回归矩阵,是根据Q和P这两个矩阵求得的, en表示回归残差。
通过对训练数据的训练则可以得到回归矩阵β,对于任一输入歌唱声音特征,进行了核模糊k-均值聚类后都可以通过β矩阵求得目标歌唱声音特征。
4实验
4.1客观实验
对于客观实验的结果,我们使用转换后的Mcep(Mel-cepstral)系数与目标的Mcep系数的误差来描述,具体计算公式如下所示:
(15)
在这个实验中我们对比的是基于GMM模型的方法,本文方法简称为KCPLS。对于GMM的方法我们选择32个GMM,在KCPLS的方法中我们采用了具有400类的核聚类,核函数的σ参数值设为0.1。客观实验结果如表1所示。
表1 频谱平均误差
如上表所示,基于KCPLS的方法相对于传统的GMM 方法能获得更准确的转换频谱,从而使得误差更小,转换的音色更相像。
4.2主观实验
主观实验主要包括转换的相似度的主观实验和转换合成后的歌唱声音质量的主观实验。由于传统方法在声音合成上存在较大的误差,误差主要来自基频的提取、频谱的建模以及激励的合成,尤其是在声音质量上可能会带来更大的误差。歌唱转换并不同于普通的语音转换,普通的语音转换要求在转换频谱包络的同时也要转换基频,但是在歌唱声音的转换中却不需要,也不应该转换基频,这是由于每首歌都有其特定音高,而音高在某种程度上和基频有着特定的关系,因此不建议转换基频。基频在提取以及用于合成声音时,会引起误差的存在,利用歌唱声音不需要转换基频的特性,用一种新的合成方法来提高歌唱声音的质量,即使用转换后的Mcep系数与源Mcep系数的差值构建一个梅尔对数频谱(Mel log spectrum approximation)滤波器[15],并且使用这个滤波器直接对源歌唱声音信号进行滤波,从而得到质量更高的歌唱声音。
主观实验要求实验人员听力等方面正常,无听力相关方面的疾病,且对音乐有一定的鉴赏能力。测试数据为10句中文歌唱声音,我们采用平均意见分(mean opinion score)为我们的统计指标,实验人员对歌曲进行打分,分数为1~5分,1分最差,5分最好。所有打分结束后,对每种方法的分数进行统计,求均值及95%的置信区间。所得结果如图2所示。
图2 相似度和声音质量的平均意见分及95%置信区间Fig.2 MOS(95% CIs) for similarity and quality
从图2的主观实验可以看出,在主观的相似度实验方面,基于核模糊k-均值聚类和偏最小二乘法的实验结果在听觉上获得了更高的相似度,MOS得分高了1.8分。在声音质量的主观实验上,基于频谱差值构建MLSA滤波器的方法能够合成质量更高的歌唱声音,MOS得分高出了1分。
4.3实验结果分析
客观实验和主观实验表明,相对于传统的基于高斯混合模型的转换方法,基于核聚类和偏最小二乘法对歌唱声音的转换能够取得更高的准确度,实验也证明了基于频谱差值构建MLSA滤波器的方法,在提高合成的歌唱声音质量上有明显的优势。此外,相对于普通的语音来说,歌唱声音对声音的要求更高,而且某种程度上歌唱声音质量可能也会影响听者对于转换相似度的分辨。
基于核模糊k-均值聚类和偏最小二乘回归的方法,通过使用核模糊k-均值聚类的方式引入了概率隶属度矩阵,使得非线性转换在某种程度上以线性转换的形式实现,提高声音转换的准确性。在整个算法的介绍中明显看出算法相比于传统的GMM模型复杂度低,以线性的形式实现非线性的形式。高斯混合模型的方法中,由于协方差矩阵的使用,在训练数据不足的情况下,会出现过拟合的现象,严重影响声音的相似度和声音的质量,而偏最小二乘法却没有这个缺点,客观实验的结果很大程度上说明了这个问题。
5结束语
本文提出了一种基于核模糊k-均值聚类和偏最小二乘的歌唱声音转换方法。该方法避免了传统基于高斯混合模型方法的过拟合问题。同时,基于差值的MLSA滤波器,大大提高了合成的歌唱声音质量。实验采用中文歌唱声音进行转换,结果表明,新方法在相似度以及声音质量上都要优于传统的基于高斯混合模型的方法。尽管该方法目前取得了不错的效果,但未来还会对该方法进行完善,下一步工作是研究如何用完整的频谱包络代替梅尔倒谱系数进行歌唱声音转换,期望未来能够取得更好的结果。
参考文献:
[1]VILLAVICENCIO F, BONADA J. Applying voice conversion to concatenative singing-voice synthesis[C]//Proceedings of Interspeech. Chiba, Japan, 2010: 2162-2165.
[2]ABE M, NAKAMURA S, SHIKANO K, et al. Voice conversion through vector quantization[J]. Journal of the acoustical society japan (E), 1990, 11(2): 71-76.
[3]KAIN A, MACON M W. Spectral voice conversion for text-to-speech synthesis[C]//Proceedings of the 1998 IEEE International Conference on Acoustics, Speech and Signal Processing. Seattle, WA, USA, 1998, 1: 285-288.
[4]STYLIANOU Y, CAPPE, O, MOULINES E. Continuous probabilistic transform for voice conversion[J]. IEEE transactions on speech and audio processing, 1998, 6(2): 131-142.
[5]TODA T, BLACK A W, TOKUDA K. Voice conversion based on maximum-likelihood estimation of spectral parameter trajectory[J]. IEEE transactions on audio, speech, and language processing, 2007, 15(8): 2222-2235.
[6]HELANDER E, VIRTANEN T, NURMINEN J, et al. Voice conversion using partial least squares regression[J]. IEEE transactions on audio, speech, and language processing, 2010, 18(5): 912-921.
[7]LIU Lijuan, CHEN Linghui, LING Zhenhua, et al. Using bidirectional associative memories for joint spectral envelope modeling in voice conversion[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Florence, Italy, 2014: 7884-7888.
[8]CHEN Linghui, LING Zhenhua, LIU Lijuan, et al. Voice conversion using deep neural networks with layer-wise generative training[J]. IEEE/ACM Transactions on audio, speech, and language processing, 2014, 22(12): 1859-1872.
[9]DESAI S, BLACK A W, YEGNANARAYANA B, et al. Spectral mapping using artificial neural networks for voice conversion[J]. IEEE transactions on audio, speech, and language processing, 2010, 18(5): 954-964.
[10]KOBAYASHI K, TODA T, NEUBIG G, et al. Statistical singing voice conversion with direct waveform modification based on the spectrum differential[C]//Proceedings of Interspeech. Singapore, 2014.
[11]KAWAHARA H, MORISE M, TAKAHASHI T, et al. Tandem-STRAIGHT: A temporally stable power spectral representation for periodic signals and applications to interference-free spectrum, F0, and aperiodicity estimation[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP. Las Vegas, NV, USA, 2008: 3933-3936.
[12]WU Zhongdong, XIE Weixin, YU Jianping. Fuzzy C-means clustering algorithm based on kernel method[C]//Proceedings of the 5thInternational Conference on Computational Intelligence and Multimedia Applications. ICCIMA. Xi’an, China, 2003: 49-54.
[13]GRAVES D, PEDRYCZ W. Kernel-based fuzzy clustering and fuzzy clustering: a comparative experimental study[J]. Fuzzy Sets Systems, 2010, 161(4): 522-543.
[14]DE JONG S. SIMPLS: An alternative approach to partial least squares regression[J]. Chemometrics and intelligent laboratory systems, 1993, 18(3): 251-263.
[15] IMAI S, SUMITA K, FURUICHI C. Mel log spectrum approximation (MLSA) filter for speech synthesis[J]. Electronics and communications in Japan (Part I: Communications), 1983, 66(2): 10-18.
Conversion of singing voice based on kernel clustering and partial least squares regression
FANG Peng1,2,3, LI Xian1,3, WANG Zengfu1,2,3
(1. Department of Automation, University of Science and Technology of China, Hefei 230027, China; 2. Institute of Intelligent Machines, Chinese Academy of Sciences, Hefei 230031, China; 3. National Engineering Laboratory of Speech and Language Information Processing, Hefei 230027, China)
Abstract:Voice conversion is a popular topic in the field of computer hearing, and the application of singing voices to voice conversion is a relatively new research direction, which widens the application scope of voice conversion. When a training dataset is small, the conventional Gaussian mixture model (GMM) method may cause overfitting and insufficient utilization of music information. In this study, we propose a method for converting the voice timbre of a source singer into that of a target singer and employ fundamental frequency to improve the converted singing voice quality. We use kernel clustering and partial least squares regression to train the dataset, thereby obtaining the conversion function. To improve the converted singing voice quality, we applied the Mel log spectrum approximation (MLSA) filter, which synthesizes the converted singing voice by filtering the source singing waveform. Based on our experiment results, the proposed method demonstrates better voice similarity and quality, and therefore is a better choice than the GMM-based method when the training dataset is small.
Keywords:computer vision; voice conversion; singing voice; kernel clustering; partial least squares regression; Gaussian mixture model; Mel log spectrum approximation
DOI:10.11992/tis.201506022
收稿日期:2015-06-11. 网络出版日期:2015-12-29.
基金项目:国家自然科学基金资助项目(61472393,613031350).
通信作者:汪增福.E-mail:zfwang@ustc.edu.cn.
中图分类号:TN912;TP37
文献标志码:A
文章编号:1673-4785(2016)01-0055-06
作者简介:
方鹏,男,1990年生,硕士研究生,主要研究方向为歌唱声音转换。
李贤,男,1988年生,博士研究生,主要研究方向为情感语音、语音转换、歌唱合成等。
汪增福,男,1960年生,教授、博士生导师,现任《模式识别与人工智能》编委、International Journal of Information Acquisition 副主编。获ACM Multimedia 2009 最佳论文奖。主要研究方向为计算机视觉、计算机听觉、人机交互和智能机器人等,发表学术论文180余篇。
网络出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20151229.0837.010.html