王澳回,张 珑,宋文宇,孟 杰
1.天津师范大学 计算机与信息工程学院,天津300387
2.广州华立科技职业学院 计算机信息工程学院,广州511325
语音识别模型从最初的基于GMM-HMM[1]的模型,发展到基于DNN-HMM[2-4]深度神经网络模型,再到现在的端到端[5-8]语音识别模型,已经历经三个阶段。通过这三个阶段的发展,模型结构越加简单,语音识别的准确率几乎趋于饱和状态,然而,大部分模型都是针对非流式语音识别而言的,在测试模型性能的时候很少会去考虑模型识别延迟的问题。近几年来,语音识别模型进入端到端的时代,不再依赖传统语音识别系统中已经使用了几十年的建模组件,使用单个网络便可将输入的语音序列直接转换成输出的标签序列,使得模型的尺寸更小,因此,大量研究人员开始从深度神经网络模型转向研究端到端语音识别模型,另外,大量的研究证明,端到端模型已经在学术研究领域[7]以及工业生产领域[9-10]超越了基于DNN-HMM的深度神经网络模型。未来几年,端到端模型将是语音识别领域研究的重点。常见的端到端模型有CTC[11]、RNN-T[12]、attention-based encoderdecoder[13-14]、LAS[8]等模型,前两种能够直接实现流式识别,而后两种模型由于注意力机制需要获取完整的声学序列而不能够直接进行流式识别。流式语音识别又称为实时语音识别,它指的是用户在说话的时候模型便已经开始进行识别,与之相对的非流式识别则是用户说完了一句话或一段话之后模型开始识别。随着科技的不断发展,各种穿戴式、便携式的智能设备,以及大量的应用软件已经完全融入大众生活,常用的输入法、在线会议、直播、实时翻译等一系列的应用存在着流式语音识别的需求。端到端流式识别模型不需要额外的语言模型,更容易部署在设备端,另外,智能客服等多种需要流式识别的人机交互场景也在不断产生,所以端到端流式语音识别模型将会是未来几年的研究热点,而且也具有广阔的应用前景。因此,本文主要从模型结构、性能优化、常用的中英文开源数据集以及模型性能评价标准等方面分析总结了目前端到端流式语音识别模型的研究状况,进而提出了未来的发展与展望。
2021年国外有两篇相关的语音识别领域的综述,文献[15]主要总结了近十年语音识别模型结构与性能的发展,并从研究与应用两个方面预测了语音识别未来十年的发展趋势。文献[16]详细概述了端到端语音识别模型的发展及其在实际工业生产中的应用情况,同时从行业角度出发,重点介绍了端到端语音识别模型如何去解决未来的应用部署中的一些挑战与困难。以上两篇文章都是从大的领域、更高视野出发,总结概述端到端语音识别的发展,而这篇文章,则是聚焦到端到端流式语音识别这个领域,去分析总结其发展现状。
在端到端流式语音识别模型中,能够直接进行流式识别的模型主要有connectionist temporal classification(CTC)[11]、recurrent neural network transducer(RNN-T)[12]、recurrent neural aligner(RNA)[17]等模型。文献[11]提出connectionist temporal classification(CTC)损失函数,用来对模型中的循环神经网络产生的转录进行评分,使得模型能够完成音频帧与标签的自动对齐。从端到端语音识别模型的发展来看,CTC最先被应用到端到端语音识别模型[5-6,18-23],它能够直接将输入的语音序列转换成输出的标签序列,其结构如图1[16]所示,输入的语音序列xt通过编码器进行编码输出特征表示,再经过一个线性分类器得到每个时刻输出类别的概率P(yt|xt)。
图1 CTC结构Fig.1 Structure of CTC
通过在编码器中使用单向的循环神经网络(unidirectional RNN),CTC模型能够实现流式语音识别。文献[12]提出了recurrent neural network transducer(RNN-T)模型,该模型为流式语音识别提供了一种自然的方式,因为它的输出取决于之前的输出标签序列和当前步及之前的输入语音序列,即P(yu|x1:t,y1:u-1),通过这种方式,消除了CTC的条件独立假设,由于其具备自然的流式性质,在该领域应用中受到了广泛的使用[9,24-31]。
RNN-T模型的结构如图2[16]所示,它包含一个编码器网络、一个预测网络和一个联合网络,编码器将输入的语音序列xt转换成高级特征表示,预测网络基于RNN-T之前的输出标签y1:u-1,生成高级表示联合网络是一个前馈网络,将ht与hu作为输入,输出zt,u。
图2 RNN-T结构Fig.2 Structure of RNN-T
针对CTC所存在条件独立性假设的问题,文献[17]提出了一种新的模型:recurrent neural aligner(RNA),类似于CTC模型,该模型定义了目标标签序列上的概率分布,包括对应于输入中每个时间步长的空白标签,通过边缘化所有可能的空白标签位置来计算标签序列的概率。但该模型并不做标签预测的条件独立性假设,此外,它在输入的每个时间步预测一个输出标签,而不是通过RNN-T预测多个标签,从而简化了波束搜索解码,使得训练更加有效,在执行流式语音识别任务时,它成功地应用于多种口语识别任务[32]。
在端到端语音识别模型中,基于注意力[33-36]的模型由于其自身特点不能够直接实现流式识别,而这些模型已经被证明在机器翻译[37-38]、语音识别[34,39]等领域的许多问题中非常有效,在该结构中,首先,编码器对整个输入序列进行编码,产生相对应的隐藏状态序列,其次,解码器根据编码器所产生的状态序列来进行预测,最终产生输出序列。目前,基于注意力的端到端模型已在相关的语音识别[34,40]任务中取得了重大进展,在识别准确率方面,实现了非流式语音识别模型的最好性能[39]。然而,基于注意力模型并不能够直接应用于流式语音识别问题,一方面,这些模型通常需要获取完整的声学序列作为输入,使得编码与解码不能够同步进行;另一方面,对于语音来说,它们没有固定的长度,模型的计算复杂度随着输入序列的增加而二次增加。为了能够将注意力机制应用于流式语音识别任务中,大量的研究人员针对以上问题开展研究,通过对全局注意(local attention)机制做出改进,针对在时刻t将哪一部分的输入序列信息进行编码,同时对于已编码的信息,将哪一部分进行解码的问题,提出了基于单调注意力机制(monotonic attention mechanism)[41-45]、基于块(chunk-wise)[46-51]、基于信息累积(accumulation of information)[52-55]以及触发注意(triggered attention)[56-58]等方法。
1.2.1 基于单调注意力机制的方法
文献[42]提出了一种局部单调注意(local monotonic attention)机制,它具有局部性和单调性,局部性帮助模型的注意模块专注于解码器想要转录的输入序列的某一个部分,单调性严格地从输入序列的开始到结束左右生成对齐。该机制迫使模型在每个解码步骤预测中心位置,并仅在中心位置周围计算软注意权重。然而,仅仅基于有限的信息,很难准确预测下一个中心位置。与软注意相比较,硬单调性约束限制了模型的表达能力,文献[43]提出了单调组块注意(monotonic chunk-wise attention,MoChA)机制来缩小软、硬注意之间性能的差距,它基于预测的选择概率自适应地将编码的状态序列分割成小的组块,如图3[43]所示,块边界由虚线表示,允许模型在硬单调注意机制选择参与的小组块上执行软注意,但是它的训练过程非常复杂困难,以至于最终难以实现。
图3 单调组块注意Fig.3 Monotonic chunk-wise attention
文献[44]提出了单调多头注意(monotonic multihead attention,MMA),该机制结合了多层多头注意和单调注意的优点,同时提出了两种变体,即Hard MMA(MMA-H)和Infinite Lookback MMA(MMA-IL),前者在设计时考虑到了注意力持续时间必须有限的流式系统,而后者强调识别系统的质量。文献[45]对于一些应用局部单调注意机制的模型的变体进行了修改,同时也对这些模型进行了全面的比较,最后通过采用固定大小的窗口实现了一种简单有效的启发式执行局部注意的方法。
1.2.2 基于块的方法
文献[46]提出了Neural Transducer,它根据部分观察到的输入序列和部分生成的序列来计算下一步的分布,使用编码器来处理输入,将处理后的结果作为Transducer的输入,在每个时间步长,根据编码器处理好的输入块,Transducer决定可以产生零到多个输出标签,由此实现流式解码,然而,由于该模型受到循环神经网络时间相关特性的束缚,它仅仅优化对应于组块序列的近似最佳对齐路径。文献[47]使用自注意模块替代了RNN-T结构中的RNN模块,提出了一种自注意transducer(self-attention transducer,SAT),它能够利用自注意块来模拟序列内部的长期依赖性,同时引入了块流(blockflow)机制,通过应用滑动窗口来限制自注意的范围,并且堆叠多个自注意块来模拟长期依赖性,但从整体而言,虽然块流机制能够帮助SAT实现流式解码,但仍然引起了识别准确率的下降。因此,文献[49]提出了一 种 同 步transformer(synchronous transformer,Sync-Transformer)模型,能够同步进行编码与解码,其结构与推理过程如图4[49]所示。Sync-Transformer将transformer与SAT深入组合,为了消除self-attention机制对于未来帧的依赖,则强制编码器中的每个节点仅仅关注左侧上下文并完全忽略右侧上下文。一旦编码器产生了固定长度的状态序列块,解码器则立即开始预测标签。
图4 Synchronous Transformer的结构与推理过程Fig.4 Structure and reasoning process of Synchronous Transformer
1.2.3 基于信息堆叠的方法
文献[53]提出了自适应时间(adaptive computation time,ACT)算法,该算法支持RNN以学习在接受输入和产生输出之间需要采取多少计算步骤,为后续自适应计算步的研究打下了基础。文献[54]提出了一种新颖的自适应计算步算法(adaptive computation steps,ACS),该算法使端到端语音识别模型能够动态地决定应该处理多少帧来预测语言输出,一方面,对准器在思考间隔内计算每个编码器时间步长停止的概率,并且像基于软注意模型一样来总结上下文向量,另一方面,该模型不断检查停止概率的累积,如果总和达到阈值之后立即做出输出的决定。文献[55]提出了解码器端自适应计算步算法(decoder-end adaptive computation steps,DACS)来解决标准transformer不能够直接用于流式识别的问题,该算法通过在从编码器状态获得的置信度达到某个阈值之后触发输出来传送transformer ASR的解码,通过引入最大前瞻(look-ahead)性步骤来限制DACS层可以查看每个输出步骤的时间步数,以防止过快地达到语音结束,但DACS对transformer解码器采用异步多头注意机制,破坏了在线解码的稳定性。受到spiking neural networks中的integrate-and-fire模型的启发,文献[66]提出了用于序列转换的新型软单调对比机制continuous integrate-and-fire(CIF),能够支持各种在线识别任务以及声学边界定位。在每个编码器步中,接受当前编码器步的向量表示和缩放向量中包含的信息量的相应权重,向前累积权重并积分向量信息,直到累积的权重达到阈值,此时声学边界被定位,且当前的编码器步的声学信息由两个相邻标签共享,CIF将信息分为两个部分:一部分用于完成当前标签的集成;另一部分用于下一个标签的集成,模拟处理在编码器步期间的某个时间点触发时,将集成的声学信息触发到解码器以预测当前标签,如图5[56]所示,每条虚线代表一次触发,直到整个声学序列完成编码。文献[57]提出了存储器自注意传感器(memory-self-attention transducer,MSAT),其结构如图6[57]所示,MSA模块将历史信息添加到受限制的自我注意单元中,通过参与存储器状态有效地模拟长时间的上下文,并使用RNN损失来对MSA模块进行训练,实现了该结构在流式任务中的应用。
图5 CIF编码过程Fig.5 Encoding process of CIF
图6 MAST结构Fig.6 Structure of MAST
1.2.4 其他方法
以上提出来的方法能够实现流式语音识别,但也存在问题。基于单调注意力机制的方法由于使用软硬注意机制导致训练过程非常困难;基于块的方法往往由于忽略组块之间的关系而导致性能下降;而基于信息堆叠的方法打破了Transformer在训练中的并行性,通常需要更长的训练时间[58]。文献[59]提出了触发注意(triggered attention,TA)[59-61],其结构如图7[59]所示,TA解码器由一个触发模型和一个基于注意的解码器神经网络组成,编码器神经网络由触发网络和注意机制共享。注意权重只能看到触发事件之前的编码器帧及一些向前的帧。在训练期间,CTC输出序列的强制对齐用于导出触发的时间,在解码期间,考虑CTC训练的触发模型的不确定性以分别生成替代的触发序列和输出序列,推理以帧同步解码方式进行。此外,一些研究人员用Transformer替换了RNN-T结构中的RNN,构建了Transformer Transducer(TT)[62-69]结构,大量的研究[62-69]证明了该结构也具有较好的流式识别能力。
图7 Triggered attention系统结构Fig.7 System structure of Triggered attention
端到端流式语音识别模型是当前语音识别领域的研究热点与重点,对于非流式模型而言,需要占用尽可能小的内存去实现更高的识别准确率,然而,对于流式识别模型,既需要考虑模型的识别准确率又需要考虑识别的延迟大小。这两个方面共同决定了流式语音识别模型的性能。以下将从延迟与准确率两个方面来探索流式语音识别模型的优化问题。
当识别一句话时,一般有两种语音延迟[70]:第一种是第一标签产生延迟(first token emission delay),通过分析用户实际说话开始时间与语音识别系统实际产生出第一个标签的时间可以获取到该种延迟的时间;第二种是用户感知延迟(user perceived latency),当用户停止说话时开始计时,直到模型发出最后一个非空标签,一般将这段时间称为用户感知延迟。
近期研究[70]表明影响流式语音识别模型用户感知延迟的主要因素有模型结构、训练标准、解码超参数以及端点指示器,而模型的大小与模型计算速度并不总是严重影响用户感知延迟。目前,研究人员主要从训练策略、对齐与正则化[71]训练等角度出发来探索如何降低模型的延迟,文献[72]提出一种自适应的前瞻(adaptive look-ahead)方法来权衡延迟和词错率,其中的上下文窗口大小并不固定,可以动态地修改,引入scout network(SN)和recognition network(RN)两个神经组件,其中,scout network负责检测语音中一个单词的开始和结束边界,recognition network通过向前看预测边界进行帧同步单通道解码,虽然这个方法在权衡延迟与准确率方面取得了很好的效果,但SN没有解决随着左上下文长度的平方增长的繁重的自我注意计算。文献[73]基于MoChA提出了最小延迟训练策略(minimum latency training strategies),利用从混合模型中提取的外部硬对齐作为监督,迫使模型学习准确的对齐方式,在解码器端提出了延迟约束训练(DeCoT)和最小延迟训练(MinLT)两种方法,有效地减少了模型的延迟。文献[74]则从模型结构与端点指示器出发,提出了一个双通道的RNN-T+LAS模型,其中LAS对RNN-T的假设进行重评分,同时通过预测查询结束(end-of-query)符号,将EOQ端点指示器集成到端到端模型中,用来帮助关闭麦克风,这种方法实现了端到端模型在质量与延迟的权衡方面对传统混合模型的首次超越。文献[75]提出了一种新的延迟约束方法:自对准,该方法不需要外部对准模型,而是通过利用自训练模型的维特比强制对齐来寻找较低延迟对齐方向。文献[76]从延迟正则化训练的角度出发,基于Transducer的流式模型提出了一种新的序列级产生正则化方法FastEmit,在训练transducer模型时能够直接对每序列概率应用延迟正则化,而不需要任何语音-单词对齐信息,同时,相较于其他正则化方法,Fast-Emit方法需要调整的超参数最少。通过在大量端到端模型上展开实验,表明该方法能够实现很好的词错率与延迟的权衡。通过以上研究可知目前已有限制对齐、正则化等多种方法可以相对解决流式语音识别模型的延迟问题,大多数的方法虽然降低了模型的延迟,但同时也导致了识别质量的下降,这将是未来仍需不断探索的一个研究方向。
提高语音识别模型的准确率一直是个热门话题,从1988年第一个基于隐马尔科夫模型(HMM)的语音识别系统Sphinx[77]诞生开始,到现在语音识别模型步入端到端的时代,研究人员不断做出探索希望语音识别模型的准确率能够得到进一步提升,从传统混合模型[78]到深度神经网络模型[2]再到现在的端到端模型[40],模型结构改变的同时,语音识别模型准确率也得到大幅度提升。与非流式模型一样,提升流式模型准确率的方式有改变模型基本结构、预训练、扩大数据域、最小词错率训练(MWER)[79-83]、知识蒸馏[84-89]等方式,其中,改变模型结构已在第1章进行阐述。文献[73]以MoChA作为流式语音识别模型,在编码器端,采用了多任务学习并使用帧交叉熵目标进行预训练,提升了模型的识别准确率。文献[83]提出了一种新颖且有效的基于RNN-T模型的MWER训练算法,对N个最佳列表中每个假设的所有可能对比的得分求和,并使用它们来计算参考和假设之间的预期编辑距离,当为endpointer(EP)添加end-ofsentence(EOS),所提出的MWER训练还可以显著减少高删除错误。文献[84]研究了基于知识蒸馏的模型压缩方法来训练CTC声学模型,评估了CTC模型的帧级知识蒸馏方法和序列级知识蒸馏方法,通过在WSJ数据集上展开实验,提高了模型的识别准确率。文献[90]实现了从非流式双向RNN-T模型到流式单向RNN-T模型的知识蒸馏,实验结果表明,通过所提出的知识蒸馏训练的单向RNN-T比用标准方法训练的单向模型具有更好的准确性。文献[85]研究了非流式到流式Transformer-Transducer模型的知识蒸馏,在实验中比较了两种不同的方法:隐藏向量的L2距离最小化和头部L2距离的最小化,实验结果表明,基于隐藏向量相似性的知识蒸馏优于基于多头相似性的知识蒸馏。
在语音识别领域,ASR模型性能的优劣不仅仅与模型的架构有关,同时也依赖于量大且质量高的数据集。随着互联网与一些终端设备的不断发展,每天都会产生大量的数据信息,通过对电话录音、新闻、智能家居、科学研究等领域相关语音信息的收集,各大科研机构、数据公司相继发布了一系列的语音数据集。为语音识别领域的科研发展提供了基本的实验条件。目前,一些科研机构、数据公司已经开源了他们的数据集,以供学术界免费使用进行科学研究,通过OpenSLR平台,能够获取来自世界各地的开源语音数据资源,然而,由于法律以及商业等一方面的原因,大量的数据集需要购买才能够获得相关的使用权限。本节将主要介绍一些中文普通话以及英语等常见的一些数据集。
中文语音识别开源数据集如表1所示,2015年,清华大学信息技术研究院语音语言技术中心发布了第一个开源中文语音数据库THCHS30[91],以帮助研究人员搭建起第一个语音识别系统。但是该数据集的语音总时长仅仅只有35 h,对于模型的训练还不够充分,2017年,北京希尔贝壳科技有限公司发布了AISHELL-1[92]语料库,成为了当时最大的开源汉语语音识别语料库,冲浪科技也发布了ST-CMDS语音数据集[93],2018年,北京希尔贝壳科技有限公司发布了AISHELL-2[94]语料库,上海原语公开了Primewords Set1数据集,2019年,数据堂(北京)科技有限公司开源了中文普通话语音数据集DTZH1505[93],记录了6 408位来自中国八大方言地域、33个省份的说话人的自然语言语音,时长达1 505 h,语料内容涵盖社交聊天、人机交互、智能客服以及车载命令等[93],这是目前最大最全面的中文开源语音数据集。
表1 部分常用汉语普通话开源数据集Table 1 Part of common Mandarin open source data set
在语音识别领域,最早开源的是一些国外的语音数据集,如表2所示,正是由于这些科研机构、企业开源了大量的优质数据集,在此基础上,语音识别模型的性能能够得到一次又一次的提升。1993年,美国的一些科研机构发布了语音数据集TIMIT[95],该数据集旨在为获取声学语音知识以及开发和评估自动语音识别系统提供语音数据,由于该数据集较小同时标记信息比较完整,研究人员能够快速完成实验并展现出模型的性能。此后,美国等多个科研机构开源了多个大型语音数据集,例 如TED-LIUM[96]、LibriSpeech[97]、Common Voice[98]、MLS[99]、The People’s Speech[100]、GigaSpeech[101],这些数据集中的数据通过智能设备、音频录制、自动合成等多种方式进行获取,此外,一些数据集也采集了一些无标签数据用于无监督学习。
表2 部分常用外语开源数据集Table 2 Part of foreign languages open source data set
对于端到端流式识别模型来说,主要通过模型的准确率与识别的延迟两个方面来评价其性能的优劣,在准确率方面,通过计算出语句的词错率(word error rate,WER)或者字错率(character error rate,CER)来评价模型,常用词错率来计算,把T作为一句话中的总单词数,S作为识别结果中替换单词数,D作为识别结果中删除的正确话语中的单词数[102],I作为没有在正确话语中而出现在识别结果中的插入单词数,那么词错率(WER)则定义为:
WER的值越低,则说明模型的识别准确率越高,性能越好。在延迟方面,实时因子(real time factor,RTF)则是流式语音识别过程中的评价标准,它的值小于1的时候,称模型是实时识别的,此外也可以计算出语句级或词语级的延迟数值(latency)。把M作为一段音频的时长,把N作为识别出这段音频的时长,则实时因子(RTF)则定义为:
RTF的值越小,则说明延迟越小,模型的性能越好。
虽然端到端语音识别模型已经超越了传统混合模型的性能,实现了输入语音序列直接产生对应的标签序列,极大程度简化了模型的训练过程,但端到端流式语音识别仍是一个需要重点关注的任务,在其性能准确率与识别延迟的权衡问题上仍然值得研究人员去深入研究与探索。本章从七个方面提出一些问题,这些问题值得今后进一步去思考研究。
(1)“词错率-延迟”如何权衡。
一般来说,减小语音识别的延迟常常需要以降低识别精确度为代价。对于一个流式语音识别模型,可以通过大量的实验绘制出词错率-延迟曲线,随着延迟的降低,其词错率在随之增加,词错率-延迟的权衡问题,其折中点在何处?在可以接受的识别质量的情况下,其能做到的最小延迟是多少?这仍需要结合实际的应用需求来进一步地探索。
(2)流式与非流式模型的统一结构
在模型的结构方面,常见的模型为流式识别模型或者非流式识别模型,它们都是流式或非流式单一结构。基于全注意力的端到端模型能实现最优性能,因此,在处理非流式任务时,研究人员一般选择基于全注意力的端到端模型,以实现更高的准确率,但是,在处理流式任务时,则会对模型结构进行改变,选择CTC模型、RNN-T模型以及改进的注意力模型以牺牲准确率的代价来减小识别的延迟。训练一个模型能够实现流式识别与非流式识别两种需求,同时大幅减少模型开发、训练以及部署的成本,因此,流式与非流式模型的统一结构将会是未来语音识别领域的一个研究重点与热点问题。文献[103]提出了一个框架U2来将流式识别与非流式识别相统一,不仅降低了流式模型与非流式模型之间的精度差距,同时大幅度减少了成本。
(3)自监督预训练模型
相较于传统的语音识别模型,端到端语音识别模型更需要大规模的数据。由于中文普通话、英语等语言受到广泛的使用,获取这类语言大规模数据集并不是一件困难的事,但当面临中文方言或者一些比较小众语言时,想要获取数据集便十分困难,获取其大规模的数据集更是难上加难。因此,可以通过自监督学习来预训练端到端流式语音识别模型,在预训练的过程中不需要带有标签的数据,有效解决低资源的问题。(4)轻体量的个性化语言模型
传统的语音识别模型由独立的声学、发音与语言模型组成,而端到端语音识别模型则将这三种独立的模型统一成一个神经网络,对于体量较大的传统语音识别模型来说,其识别精确度优于端到端模型的主要原因是在于其具有非常大的语言模型。因此,为了提升端到端流式语音识别模型的识别准确率,可以在模型的解码阶段引入一个轻体量的个性化语言模型,这样做既不会大幅增强模型的推理时间,同时又能够实现热词增强和个性化解码。
(5)端到端流式语音识别模型后处理
在流式语音识别过程中,模型能够通过部分上下文即可快速输出识别结果,但在该过程中由于获取的下文内容受到限制可能也会导致识别结果出现一些错误。纠错模型和双通道重评分机制是语音识别后处理的两个重要策略,但大部分纠错模型由于采用自回归结构导致其存在较大的延迟,并不适用于端到端流式语音识别模型后处理。然而基于多输入的快速纠错模型FastCorrect2[104]的提出,使得在端到端流式语音识别模型后处理过程中引入快速纠错模型成为可能,通过快速纠错模型或者双通道重评分机制,可以对语音识别的结果进行检测,快速纠正其中的错误,在保持低延迟的情况下,能够进一步地提升端到端流式语音识别模型的性能。
(6)基于设备端部署小尺寸流式语音识别模型
近些年来,用户数据泄漏、隐私受到侵犯、遭遇诈骗等热点问题频发,用户个人隐私问题越来越受到重视,同时,智能家居、智能手机以及各种可穿戴设备进入人们的生活当中。近期,一些科研人员开始研究基于设备端的流式语音识别模型部署问题[105-110]。语音识别模型一般部署在服务器端,将音频以流的方式传输到服务器端,在服务器上进行识别,最终将结果传输到终端设备上,而随着端到端模型的发展,它不需要额外的语言模型,以便将模型部署在设备端,直接在设备上完成识别工作,这有助于保护用户的隐私,同时能够通过减少数据传输时间进一步减少设备的识别延迟[70],增加模型识别的稳定性。因此,未来基于设备端部署小尺寸的流式语音识别模型则将成为工业界应用的趋势。
(7)流式语音识别模型的工业应用
目前,端到端流式语音识别模型是学术研究与工业应用的一个热点问题,随着人工智能技术的不断发展,出现了智能客服[111]、语音售票机等大量需要流式语音识别的人机交互场景,通过将端到端流式语音识别模型应用到这些场景,能够大幅提升语音识别的效率,节省人力,提高服务的效率。因此,未来几年,将会出现更多的流式识别的语音场景,流式语音识别模型也将会更广泛地应用到工业产品中。
自2014年以来,端到端语音识别模型成为了第三代语音识别模型,在语音领域掀起了研究狂潮,同时,端到端流式语音识别也成为语音识别领域的一个热点与重点问题,受到学术界广泛关注,大量科研单位开展了深入的研究并取得了丰硕的研究成果。本文从流式模型实现方式、优化策略、开源数据集与评价标准、未来发展等方面进行研究、总结与分析,最后也讨论了未来几年流式识别模型的发展方向,希望能够为该领域的一些研究人员提供一些帮助。