基于全局编码信息的生成式自动文摘模型

2020-11-11 08:01宋治勋赵铁军
智能计算机与应用 2020年6期
关键词:解码器编码器全局

宋治勋, 赵铁军

(哈尔滨工业大学 计算机科学与技术学院, 哈尔滨150000)

0 引 言

目前主流生成式模型借鉴神经机器翻译中基于编码器-解码器结构的序列到序列模型[1]。 这类模型通常采用循环神经网络作为网络结构的基本单元,并利用注意力机制实现源端与目标端的词语对齐。 本文认为这种做法存在一些问题,原文与摘要间不存在与机器翻译类似的显示词对齐关系,文摘任务的难点也不在于计算源端和目标端词对齐关系,而是在于解码器如何关注到编码端输出的重要语义信息。 同时,编码器输出的隐状态向量中存在噪声,模型需要在信息传递过程中筛选语义向量各维度的重要特征,否则会导致解码器对源端核心内容认识不充分,造成文摘语法错误以及语义不统一等问题。

为解决上述问题,本文对目前主流基于注意力机制编码器-解码器生成式文摘模型作出以下两点改进:(1)引入全局编码上下文信息,并使全局编码信息既参与编码器注意力计算和选择门控单元计算,又参与解码器每个时间步注意力更新以及目标端词表概率计算过程,模型通过参数共享实现全局编码信息的梯度更新。 (2)引入选择门控单元,在信息传递过程中过滤编码器输出的对摘要生成无益的语义信息,修正编码器每个时间步的语义表示。实验证明,本文提出的模型在TTNews 数据集上分别取得2.2 个百分点的提升。 依据组件消融分析实验结构,证明本文引入的各组件对摘要生成起不同程度的提升作用。

1 相关工作

关于生成式文摘方法,早期研究者们关于基于规则生成的方法、基于语法树剪枝的方法、以及基于语言学规律等方法。 随着深度学习技术的发展,很多学者开始展开对序列到序列的生成式文摘模型的研究。 Rush 首次在序列到序列模型中应用注意力机制解决生成式文摘任务,该模型在Gigaword 测试集取得当时最好的成绩。 随后,Chopra 对该模型做了改进,将解码器替换为循环神经网络;Nallapati 则将模型修改为完全以循环神经网络为基本单元的序列到序列模型,同时在编码端引入人工特征;Gu 于2016 年提出CopyNet 模型,通过引入拷贝机制来模拟人类生成摘要时从原文选择词语的过程,能够比较好处理UNK 词语生成的问题。 Gulcehre 提出使用门控机制,控制解码器每一时间步是从原文复制词语还是输出目标端词表概率最大的词。

2 基于全局编码信息的生成式文摘

本文提出的模型以基于注意力机制的序列到序列模型架构为基础,引入同时参与模型编码端、解码端计算的全局编码信息。 同时,本文提出融合全局编码信息的选择门控单元,用于修正编码器输出语义信息。 本文提出模型的结构图,如图1 所示。

2.1 问题定义

对于生成式文摘任务,模型接收输入序列x =(x1,x2,…,xn),其中n 表示输入文档长度,xi表示输入文档中的第i 个词语, xi∈Vs,Vs表示源端词表。 模型接收序列x 后,生成一段简短的文摘序列y =(y1,y2,…,yl),其中:l ≤n 是文摘序列的长度,yi表示文摘序列中的第i 个词语,yi∈VT,VT表示目标端词表。 通常情况下,生成式文摘任务允许|y |⊈|x |的情况出现,表示输出文摘序列的词语可以未在输入文档中出现过。

图1 基于全局编码信息的生成式文摘模型结构图Fig. 1 Overview of abstractive summarization model based on global features of encoding

2.2 编码器

本文提出的模型以基于注意力机制的序列到序列模型为基础,遵循编码器-解码器架构。 编码器使用双向门控循环单元(BiGRU)实现,负责按序接收输入文档中每个单词的词向量 wS=词嵌入矩阵WS∈查表得到。之后,编码器(,…,) ,由输入文档中第i个词语xi对输出循环神经单元计算得到的每个单词的隐状态h =(h1,h2,…,hn) , 作为单词的上下文信息表示。门控循环单元GRU 的计算公式(1) ~公式(4)如下:

其中,Wz、Wh、Wh均为权重矩阵,方便起见,公式中省略了偏置b。 由于这里使用的是双向门控循环单元,第i 个时刻的隐状态hi实际上由两个不同方向的隐状态向量级联得到hi=,hi∈R2dh,dh是GRU 的隐状态向量维度。

2.3 编码阶段

本文在编码端引入全局编码信息us∈R2dh,是模型可学习的向量参数,随整个训练集的学习过程不断更新。 本文利用全局编码信息us与编码器BiGRU 输出的隐状态h,计算源端注意力分布,利用每个单词的注意力打分对隐状态h 加权求和,得到输入文档的表示D,计算公式(5)~公式(7)如下:

其中,αi是使用softmax 函数分配的输入序列概率权重,D ∈R2dh是整个输入序列的向量表示。 本文采用公式(7)计算得到的向量D 作为整个输入文档的表示,并传递给解码端用于初始化解码器隐状态s0。

2.4 融合全局编码信息的选择门控单元

本文提出融合全局编码信息的选择门控单元,以控制编码端信息流动。 具体来讲,选择门控单元接收编码器输出的隐状态h、 全局编码信息us、 输入序列的向量表示D。 对于每个单词xi,选择门控单元输出一个门控向量gi,并使用门控向量gi和隐状态hi计算调整后的编码器隐状态h'i。 上述过程计算公式(8)和公式(9)如下:

其中, Wg是参数矩阵, bg是偏置向量。 σ 是sigmoid 激活函数,☉表示点乘操作。

经过融合全局编码信息的选择门控单元,编码端输出更加精细的隐状态向量h' =(h'1,h'2,…,h'n),之后将隐状态向量传递给解码器,用于生成相应的摘要词语。

2.5 解码器

本文使用单向门控循环单元(GRU)作为解码器,通过逐词生成的方式输出文摘序列直到输出标志句子结束的词语EOS。

首先,解码器接收编码器输出的文档向量表示D,初始化GRU 的隐状态,公式(10):

在每个解码时刻t, 解码器同时接收上一时刻的文摘序列输入yt-1、 上一时刻解码器的输出的隐状态st-1、以及上一时刻的编码器-解码器上下文向量ct-1,经过循环单元计算,输出当前时刻的隐状态st,公式(11):词嵌入矩阵WT∈查表得到,dw是词向量维

之后,采用Goodfellow 提出的maxout 网络,构造特征向量rt,使用窗口大小为2 最大池化层提炼rt重要语义信息,最后使用全连接层输出词表VT大小的概率分布向量。 上述过程的计算公式(15)~公式(17):

其中,Wr、Wo是权重矩阵,特征向量rt∈R2d,公式(16)比较每两个相邻特征的最大值,得到更加精细的特征向量mt∈R2d。 y 表示模型训练阶段输入的真实文摘词语,y^表示模型预测的文摘词语。

2.6 解码阶段

本文认为文摘模型需要在解码端融入更多编码端的信息。 这是因为在推理阶段,解码器仅仅依靠原文与已经输出的摘要序列计算下一时刻的摘要词语,而已输出的摘要序列可能会存在错误,解码器需要融入更多的编码端信息以指导下一时刻的摘要词汇生成。

基于上述考虑,本文将全局编码信息us, 进一步应用于模型解码阶段。 首先,在计算编码器-解码器上下文向量ct时,引入全局编码信息,将公式(12)修改为公式(18):

此外,本文在计算词表VT的概率分布向量是也融入全局编码信息us,重新构造信息量更为全面的特征向量rt,将公式(15)修改为公式(19):

如上所述,本文将全局编码信息应用于编码器-解码器上下文向量计算,以及词表概率分布向量计算,除了能够起到丰富特征信息量、融入更多编码端信息以指导文摘生成的作用。

2.7 训练

给定模型的可学习参数θ 和输入文本序列x,文摘模型输出预测的文摘序列y^。 模型的训练目标如公式(20):

3 实验设计与分析

3.1 数据集

TTNews 是NLPCC2017 单文档文摘任务发布的评测数据集,源于今日头条平台上的真实数据,共包含50 000 条训练集,2 000 条测试集。 TTNews 数据集的平均原文长度为669.0,平均摘要长度为35.8,原文词表大小为28 755,摘要词表大小为9 998。

3.2 数据预处理

在数据预处理阶段,考虑到中文分词错误造成的词典误差,本任务采用subword 方式重构中文文摘数据。 相较于传统的分词方式,该方法可以减少分词错误带来的影响,也可以从一定程度上缩小中文词表规模。

3.3 实验参数设置

本文使用PyTorch 框架在NVIDIA V100 GPU上进行实验。 词向量维度大小为512,编码器隐状态维度为256,解码器隐状态维度为512,批处理大小为32,Dropout 丢弃旅为0.5。 本文使用Adam 优化器训练,初始学习率为1e-3,在模型训练阶段根据模型性能采取学习率衰减策略,衰减比例为0.5。

3.4 基线模型

NLP_ONE 是NLPCC2017 单文档文摘任务中获得第一名成绩的模型;PGN 利用指针网络判断每一解码时刻是否从原文中选择词语,利用覆盖度损失减少输出文摘中的重复词语出现频率;SEASS 应用选择门机制过滤编码器输出信息。 此外,本文还采用LEAD 和ORACLE 两个具有代表性的启发式策略作为以上3 种数据集的基线模型。

3.5 实验结果

本文用ROUGE-1、ROUGE-2、ROUGE-L 的F1指标作为评价指标。 本模型在TTNews 数据集上的实验结果如表1 所示。

表1 TTNews 数据集实验结果Tab. 1 Evaluation results on TTNews data set

实验结果表明,本文提出的模型在各项Rouge指标上均超过所有基线模型,以ROUGE-2 F1 值为例,本模型在TTNews 取得2.2 个百分点的提升。 实验结果中LEAD 和ORACLE 方法的表现较差,这表明数据集中的摘要与原文句子重合度较低,是高度人工生成的,利用该数据集验证本模型在生成式文摘任务的效果具有一定说服力。

3.6 消融分析

为分析本模型各组件对最终性能的贡献,本节以TTNews 数据集为例,采用消融分析,逐步验证各组件对模型最终结果的影响程度。 本模型的消融分析结果如表2 所示。

表2 消融分析实验结果Tab. 2 Results of ablation studies

通过分析消融分析结果可以发现,每移除一个模型组件,模型的3 个指标均以会不同程度下降。当本模型仅使用融合编码信息的选择门控单元时,性能优于同样使用选择门控单元的SEASS 模型,这证明全局编码信息在编码端发挥重要作用;当移除选择门控单元后,此时模型仅应用全局编码信息计算编码端注意力,ROUGE 指标略低于SEASS 模型,但仍优于PGN 模型。 当彻底不使用全局编码信息时,本文的模型指标略低于SEASS 和PGN 模型,但仍然优于NLP_ONE 模型。

4 结束语

本文论证目前主流的基于注意力机制的序列到序列模型存在的不足,仅依靠注意力机制只能选择重要的词语对应的隐状态信息,但是无法对隐状态各个维度信息进一步把控。 如果模型将存在噪声的语义信息全部接收,会导致模型输出的文摘无法充分关注到原文的核心内容。 为解决上述问题,本文提出应用全局编码信息的模型方案,将全局编码信息应用于编码端的信息重构、选择门控单元的计算、解码端注意力上下文的计算,以及全连接网络中特征向量的融合。 经实验证明,本文提出的模型在TTNews 数据集上取得最好的结果,通模型不同组件的消融分析,证明本文提出的优化方案对生成式文摘模型的性能起积极作用。

猜你喜欢
解码器编码器全局
基于改进空间通道信息的全局烟雾注意网络
领导者的全局观
WV3650M/WH3650M 绝对值旋转编码器
WDGP36J / WDGA36J编码器Wachendorff自动化有限公司
科学解码器(一)
转炉系统常用编码器选型及调试
科学解码器(二)
科学解码器(三)
舞台机械技术与设备系列谈(二)
——编码器
二分搜索算法在全局频繁项目集求解中的应用