面向多说话人分离的深度学习麦克风阵列语音增强*

2022-06-07 08:56张家扬童峰陈东升黄惠祥
电子技术应用 2022年5期
关键词:麦克风识别率波束

张家扬,童峰,3,陈东升,3,黄惠祥

(1.厦门大学 水声通信与海洋信息技术教育部重点实验室,福建 厦门 361005;2.厦门大学 海洋与地球学院,福建 厦门 361005;3.厦门大学深圳研究院,广东 深圳 518000)

0 引言

随着人与机器之间的语言交互逐渐频繁,更需要考虑噪声、混响和其他说话人的干扰等引起语音信号质量下降的因素对语音识别造成的影响,语音增强技术[1]可以有效地从受干扰的信号中提取纯净的语音,而麦克风阵列比起单个麦克风可以获取更多的语音信息和时空特征,因而麦克风阵列语音增强技术被广泛应用在智能家居、车载系统和音(视)频会议等领域。

麦克风阵列对信号进行空间滤波,可以增强期望方向上的信号并抑制方向性噪声,实现语音增强。传统麦阵语音增强算法;如形成固定波束的滤波累加波束形成算法(Filter-and-Sum Beamforming,FSB)[2],通过一定长度的滤波器系数对多通道信号进行滤波累加,实现了频率无关的空间响应特性,具有低复杂度、硬件容易实现等优点,但是对于具有方向性的噪声效果不佳。

将语音增强构造为有监督学习问题发展出了基于深度学习的语音增强,使用如深度神经网络(DNN)、卷积神经网络(RNN)和长短时记忆网络(LSTM)等利用大数据量的训练使模型具有语音增强能力。Jiang 等[3]使用DNN模型将双耳时间差、双耳水平差和Gammatone 频率倒谱系数特征输入模型来训练理想二值掩蔽;Xiao 等[4]将多通道信号的广义互相关(GCC)特征送入波束形成网络,得到滤波器权重后作用于信号上获得增强特征,再经过特征提取以及声学模型网络,利用交叉熵函数对各个网络做联合优化,提高自动语音识别(ASR)效果;Ravanelli等[5]提出新的深度学习框架对标准的联合优化框架做出调整,深度学习框架内的信息可以在语音增强和语音识别模块之间做双向传输,以解决模块不匹配和缺乏沟通问题。

在多说话人分离场景下,目标和干扰同为语音,具有相同的频谱特性,此时可以提取出期望的目标语音的主流方法有波束形成方法、计算听觉场景分析(CASA)、盲源分离和深度学习的分离。其中采用深度学习的分离,如Huang 等[6]使用RNN 模型训练两个说话人的分离,在网络模型的输出端连接了时频掩蔽层用于联合训练,同时探讨了区分训练准则,考虑预测信号与其他源信号之间的相似性,获得比NMF 模型更好的说话人分离效果;Kolbk 等[7]使用RNN 将说话人跟踪集成到置换不变性训练方法(PIT)中,进一步完成说话人的跟踪和分离,对说话人和语种具有更好的泛化能力。

考虑到麦克风阵列信号具有的空间结构,本文提出了基于深度学习的波束形成器设计和网络框架,通过深度学习实现波束形成,优化期望方向的空间指向特性,减少说话人语音特征的影响,从而对不同方向说话人语音信号进行分离。在多说话人场景下分别进行仿真和实验对所提方法的有效性进行验证。

1 面向多说话人分离的深度学习波束形成器设计

1.1 网络框架

基于深度学习波束形成器的网络框架如图1 所示,该框架可以分为训练阶段和语音增强阶段。在波束形成器的训练阶段,首先将多通道的两个说话人混合语音通过预处理模块的时频分解和特征提取获取模型的特征输入,将单通道目标语音信号和单通道干扰信号分别做角度的权重控制后叠加,通过时频分解和特征提取后获取模型的训练目标,通过模型训练的方式学习输入和目标的映射函数。基于深度学习的波束形成器训练结束后,在语音增强阶段,对测试语音信号做同样的预处理后输入到训练好的模型中,获得目标方位上的语音幅度谱估计,再经过语音重构模块获得最后的单通道语音增强信号。

图1 深度学习波束形成器的网络框架

模型中的预处理模块包括时频分解和特征提取,首先通过时频分解将时域的多通道混合语音利用短时傅里叶变换(STFT)转化为时频域信号,再转化为傅里叶对数幅度谱(FFT-log-magnitude)以突出高频分量,最后经过Z-score 标准化保持特征均值为0,方差为1,输入模型。

语音增强阶段的语音重构模块的目的为将FFT-logmagnitude 特征重构回时域信号,即预处理的逆过程,其中由于人耳一般对语音相位不敏感[8],故可以选择原始信号的相位作为增强信号的相位。

1.2 模型结构

本文在TensorFlow 开源平台上搭建基于深度学习波束形成器的模型结构如图2 所示,主要包括输入层、隐藏层、Mask 层和模型输出。多通道信号经过输入层转化为特征送入模型,隐藏层由多层LSTM 构成,对特征做非线性建模,LSTM 层后级联全连接层,用以估计每个通道的Mask 函数,全连接层包括多层隐藏层和一层输出层,激活函数为ReLU 函数,经过全连接层后得到每个通道的Mask 估计,在Mask 层将每个通道的Mask 函数与输入特征相乘后加权平均得到最终模型的预测单通道输出。

图2 模型训练框图

1.3 训练目标和损失函数

利用目标信号与干扰信号的方位可以学习期望方向上的空间传输响应。根据方位的不同,对语音信号做权重控制,构建空间传输特性。假设模型对准方向为θmodel,亦表示目标语音方向,干扰语音方向为θinterference,则干扰信号相对模型对准方向的角度偏差为:

利用得到的角度偏差,依照表1进行权重控制。

表1 期望的空间传输响应

则期望方向上的语音信号sd(t)为:

再通过相同的预处理后得到Z-score 标准化后的特征作为训练目标Ad。

其中,Sd(t,f)表示sd(t)经过STFT 变换后得到的第t 个时间帧第f 个频点的STFT 系数,W(t-k)表示对信号的加窗处理,Pd为FFT-log-magnitude 特征,Ad由Pd经 过Z-score标准化得到,σ 表示特征方差,eps 为一个极小常数(避免分母为0)。

模型估计出Mask 函数后与多通道混合语音特征做掩蔽再加权平均后得到单通道预测结果,通过该结果与训练目标计算损失函数。本文针对幅度谱的估计任务,采用欧氏距离计算输出与目标之间的损失,并利用Adam 优化器进行模型参数的更新。

1.4 模型训练设置

1.4.1 数据库描述

模型语料库分为目标语料库和干扰语料库两部分:目标语料库采用文献[9]原始语音数据库数据,含男女各55 人共110 人语音信号,语句数目大约为42 000 句,总时长约为35 h,其中90 人语句28.7 h 作为训练集,20人语句6.3 h 作为测试集。为了提高模型对不同性别声音的泛化能力,保持训练集和测试集中的男女比例为1:1,以减少因男女声音基频差异对模型学习能力的影响。干扰语料库为TIMIT 语音信号库,包含了630 人的英文录音数据,每人10 句共6 300 句英文语音数据。

1.4.2 仿真参数设置

仿真声源个数为2,分别作为目标声源和干扰声源。仿真麦克风阵列为直径为65 mm 的6 麦圆阵,麦克风均匀分布在圆周上,将空间分为24 个方向,每15°一个方向。混响条件下,利用IMAGE 模型[10]模拟11 m×11 m×3 m典型办公室尺寸下不同反射强度(0.2、0.4、0.6、0.8)的房间冲激响应,与目标语音和干扰语音分别卷积后得到不同混响强度的语音信号。

以训练对准0°方向的波束形成器为例,目标语料库单通道信号由0°方向入射,干扰语料库单通道信号则随机仿真一个角度入射,采样率均为16 kHz,根据麦克风阵列的时延关系分别仿真出多通道目标语音和多通道干扰语音,与不同房间反射强度的冲激响应做卷积后再按照0 dB、3 dB、5 dB 的不同信干比叠加,构成多通道混合语音信号。

1.4.3 模型参数设置

滤波累加波束形成器的滤波器阶数设置为128 阶,方向传输响应设计与表1 一致。

深度学习波束形成器的STFT 帧移和帧长分别为256 个采样点和512 个采样点,模型输入257×6 维的傅里叶对数幅度谱特征。模型具有3 层LSTM 层,每层具有256 个细胞;2 层全连接层,每层512 个神经元;输出层的输出维度为257×6。模型学习率为0.001,每经过100 个epoch 时学习率衰减为0.95。

2 深度学习波束形成器仿真结果与分析

本节在多说话人训练集的仿真数据下,从滤波累加波束形成器(FS beamformer)和混合说话人混响条件深度学习波束形成器(DL beamformer)两种不同算法的波束指向性图和识别率结果进行对比,分析算法性能。

2.1 波束指向性

基于TIMIT 仿真多通道信号得到FS beamformer 和DL beamformer 两种算法的各频点波束指向性图如图3所示。可以看出,FS beamformer 在非期望方向上依然保持较大的能量,不同频段的抑制一致性不好,在2 000 Hz和3 000 Hz 高频段呈现明显的旁瓣;而DL beamformer在期望方向上能量最大,在非期望方向上有明显的抑制,并且展现出更好的不同频段的抑制一致性,也更接近于期望空间传输响应。

图3 不同算法波束指向性图(仿真)

2.2 识别率

将模型输出的分离语音送入语音识别软件[11]进行文本识别,对比算法处理后的识别文本与标准文本可以得到文本识别率结果,作为评估语音质量的标准,同时可以测试语音增强模型与后端识别系统的适配性。识别率(Recognition Rate,RR)与字错误率(Word Error Rate,WER)的关系为:

在不同信干比条件下(房间反射强度0.8),两种算法的识别率结果如表2 所示。

表2 不同信干比下不同算法的识别率结果(仿真)(%)

在不同房间反射强度下(信干比为0 dB),两种算法的识别率结果如表3 所示。

表3 不同反射强度下不同算法的识别率结果(仿真)(%)

从表2 可以看出在同一混响条件下,原始信号识别率很低,低信干比下几乎无法识别,FS beamformer 对比原始有较大的提升,而本文的DL beamformer 模型的识别率结果最好,且信干比越低提升越显著。这是由于随着信干比的降低,FS beamformer 对非期望方向的干扰抑制能力较弱,与具有更好的波束形成能力的DL beamformer拉开了差距,DL beamformer 模型学习到了多说话人的语音空间信息,能有效处理多说话人场景。从表3 可以看出同一信干比条件下,随着房间反射强度的增强,混响程度加大,语音识别率降低,DL beamformer 识别率结果最高,不同反射强度和不同信干比条件下均优于FS beamformer 算法。

3 实验与结果分析

在某大厅采集实测语音数据作为测试集,以评估模型对实际信号的语音增强能力,大厅尺寸为30 m×20 m×6 m,早期混响时间约为30 ms。实际实验使用ReSpeaker Far field Mic Array 圆形6 麦麦克风阵列采集信号,直径为65 mm,麦克风型号为STMP34DT01-M。

3.1 波束指向性

为测试模型的实际波束形成能力,将目标声源放置在距离麦阵5 m 处,使用Marshall Kilburn 移动音箱播放一段测试集信号,旋转麦克风阵列使得每30°采集一次信号,全空间采集到的12 个角度的信号分别经过FS beamformer 和DL beamformer 进行处理。以对准0°方向为例,每种算法得到12 个角度增强信号后计算总能量和分频点能量如图4 所示。可以看出在实际测试条件下,两种算法都在期望方向上保持了最大,但DL beamformer 的波束最窄,体现出了更好的旁瓣抑制效果,相比FS beamformer 的频率无关性更好。

图4 不同算法波束图(实验)

3.2 识别率

将目标声源和干扰声源分别放置在麦阵5 m 处的0°和180°方位,分别播放目标语料库的测试集和干扰语料库的TIMIT 信号,采用Marshall Kilburn 移动音箱播放语音。采集不同信干比条件下的信号,最后实际得 到8.52 dB、5.67 dB 和2.07 dB 3 种信干比信号。将采集到的信号分别经过FS beamformer 和DL beamformer 处理后得到不同信干比下不同算法的识别率结果,如表4所示。在3 种信干比下,DL 波束形成算法相对原始语音识别率分别提升47.35%、53.43%、48.58%,相对FS 波束形成语音识别率分别提升0.6%、0.74%、3.42%。可以看出,DL beamformer 结果略高于FS beamformer,体现了DL beamformer 算法在实际测试环境下的语音增强性能。

表4 不同信干比下不同算法的识别率结果(实验)(%)

但是,与仿真数据结果比较,实际数据结果的提升并不明显,原因可能在于模型训练采用的是仿真数据,且本文训练量较小,对处理实际采集数据时LSTM 模型的泛化能力造成一定影响。

3.3 时域波形图与时频图结果

以实际采集到的信干比2.07 dB 的混合语音为例,分别通过FS beamformer 和DL beamformer 处理后得到的语音信号时域频域如图5 所示。由于干扰声源的能量较大,时域和频域上都基本无法识别目标语音,FS beamformer处理后的信号仍存在干扰语音,而DL beamformer 对于非期望方向上的干扰语音抑制更加明显,也因此识别率结果更好。

图5 不同算法时域波形图与时频图(实验)

4 结论

本文针对多说话人分离场景,以期望方向语音信号的FFT-log-magnitude 作为目标,用来训练出模型在期望方向上的空间传输特性。分别在仿真数据和实测数据测试下与传统波束形成算法对比,本文所提深度学习波束形成器具有更好的波束形成能力,不同信干比和混响条件下语音识别率更高,在非期望方向上展现了更好的干扰抑制效果,验证了深度学习波束形成提高多说话人分离效果的有效性。

也需要指出,由于当前尚缺乏具有一定代表性、数量较大的麦阵数据库,本文模型训练数据较少,影响了所提方法性能改善的充分发挥及评估。下一步将以不同方式进一步扩充训练数据,提高模型泛化性。

猜你喜欢
麦克风识别率波束
GRAS发布新12Bx系列、支持TEDS的测量麦克风电源模块
基于共形超表面的波束聚焦研究
超波束技术在岸基光纤阵中的应用
基于真耳分析的助听器配戴者言语可懂度指数与言语识别率的关系
毫米波大规模阵列天线波束扫描研究*
听力正常青年人的低通滤波言语测试研究*
档案数字化过程中OCR技术的应用分析
科技文档中数学表达式的结构分析与识别
麦克风的艺术
讯飞输入法也能离线语音输入