一种考虑对齐不一致的短语翻译概率估计方法

2011-06-14 03:34苏劲松吕雅娟
中文信息学报 2011年3期
关键词:解码器短语一致性

苏劲松,刘 群,吕雅娟

(1. 中国科学院 计算技术研究所 智能信息处理重点实验室,北京 100190;2. 中国科学院 研究生院,北京 100190)

1 引言

统计机器翻译近年来取得了巨大的发展,陆续出现了多种翻译模型[1]。从翻译基本单元来区分,模型主要可以分为下面三种: 基于“词”的翻译模型[2],基于“短语”的翻译模型[3-4]和基于“句法”的翻译模型[5-10]。后面两种模型可以说是当前统计机器翻译的主流模型,它们都采用了对数线性模型来融入多种特征。使用的特征主要包括翻译概率特征,语言模型分数特征,规则个数特征以及其他和具体模型相关的特征。在这些特征当中,短语*这里的短语即翻译规则,在层次短语中,即包括词汇化规则,也包括泛化规则。翻译概率特征衡量了在已知源短语f(目标短语e)的情况下翻译成目标短语e(源短语f)的概率,该特征对机器翻译的最终结果有着巨大影响。

传统的短语翻译概率估计采用了最大似然估计的方法。已知源短语f和目标短语e,短语翻译概率计算公式如下:

从上面公式,我们可以清楚地看到,公式(1)和(2)只统计了源短语f和目标短语e满足对齐一致性的情况。然而,在语料库中,短语的分布情况却并非如此。对于某个源短语f,并不一定存在满足对齐一致性的目标译文;同样,对于某个目标短语e,也不一定存在满足对齐一致性的源译文。如图1所示,我们列举了两个例子来阐述传统估计方法的缺陷。

图1 短语模型短语概率估计样例图

假设语料库中只含有以上两个句对(图1)。在句对1中,我们可以抽取出双语短语(“中国”,“China”),而在句对2中,源短语“中国”不存在满足对齐一致性的译文,因而不能抽取出合适的双语短语。根据传统的短语概率估计方法,我们可以得到p(“China”|“中国”)=1。这里需要注意的是,在句对2中,“中国”并不是没有翻译,它和“的”合并在一起,翻译成目标短语“Chinese”。传统的短语概率估计方法并没有考虑这种情况,因而会过高地估计源短语“中国”翻译成目标短语“China”的概率。在翻译含有“中国 的”的新句子时,翻译模型会倾向于把所有出现的“中国”都翻译成“China”,而不选择由“中国 的”来翻译成“Chinese”。因而,我们需要对“源短语不满足对齐一致性译文”的情况赋予一定的概率,以使得翻译模型能够做出更好的源短语选择。

图2 层次短语模型泛化规则概率估计样例图

再来看第二个例子。假设语料库中同样含有两个句对(图2),在层次短语模型中,根据传统的短语概率估计方法,我们可以得到p(“the invention of X1”|“X1的 发明”)=1/3。在此,我们先考虑句对1。在窗口“上个世纪 的 发明”中,我们可以抽取出泛化规则“X1的 发明||| the invention of X1”;而在窗口“是 上个世纪 的 发明”中,源泛化规则“X1的 发明”不存在满足对齐一致性的目标译文。与例1的道理相同,传统方法也会过高地估计了源泛化规则“X1的 发明”翻译成目标泛化规则“the invention of X1”的概率。

基于以上分析,我们可以清楚地看到传统估计方法存在一定的缺陷。对此,本文对传统估计方法进行了改进,使得计算时能够充分考虑训练语料库中短语的各种情况。实验结果证明,我们的方法可以获得更为准确的短语概率估计,有效地提升了系统的翻译性能。

文章的组织结构如下: 第2节详细介绍了我们的短语翻译概率估计改进方法。针对不同翻译模型,我们进行不同处理。特别地,针对层次短语模型的泛化规则,我们尝试了两种不同的翻译概率估计方法;第3节描述了实验设置和结果;第4节是文章的总结和展望。

2 考虑对齐不一致的短语翻译概率估计方法

根据前文分析,我们可以得知,传统的短语翻译概率p(e|f),可以看成是在已知源短语f存在满足对齐一致性的目标译文的情况下翻译为目标短语e的概率,同样p(f|e)可以理解为在已知目标短语e存在满足对齐一致性的源译文的情况下翻译为源短语f的概率。在此,我们引入隐变量bve(bvf)来表示给定源短语(目标短语)是否存在满足对齐一致性的目标短语(源短语)。传统估计方法可以表示为:

在翻译过程中,对于源短语f(目标短语e),我们并不能确定它是否一定存在满足对齐一致性的目标译文(源译文)。因此可以说,传统方法估计的短语翻译概率和翻译过程并不对应。基于以上分析,我们对以上公式进行修改,修改后的公式如下:

根据以上公式,在计算短语翻译概率的过程中,我们将考虑源短语f(目标短语e)的各种出现情况,然后进行频次累加,最后再进行归一化,以此来获得更为准确的概率估计。

然而,在不同模型中,频次累加的计算方式并不相同。对此,我们根据不同模型进行了不同处理。

2.1 短语模型

在短语模型中,频次累加的计算方式较为简单。根据文献[4-5]所描述的方法,若源短语f(目标短语e)存在满足对齐一致性的译文,它的频次累加值是1。而在我们的方法中,我们需要对不存在满足对齐一致性的译文的短语进行频次累加。在此,我们设置所有情况下短语的频次累加值都是1。对于公式(5)和(6),我们不需要做特殊处理,直接统计每个句对中双语短语(f,e),源短语f和目标短语e的出现次数。

考察图1中的例子,源短语“中国”总的出现次数为2,其中存在满足对齐一致性的次数为1次。根据公式(5),我们可以得到p(“China”|“中国”)=1/2。

2.2 层次短语模型

在层次短语中,翻译规则主要包括词汇化规则和泛化规则。词汇化规则的频次估计方法和短语模型中短语的估计方法是一样的。在此,我们也采用上述方法进行统计。而泛化规则的频次估计方法则稍微复杂一些,根据文献[5]描述的方法,在抽取泛化规则的过程中,当规则存在满足对齐一致性限制的译文时,它的频次累加值等于选定窗口可以抽取的泛化规则数目的倒数。例如: 在图2的句对1中,从窗口“上个世纪 的 发明”,我们可以得到count(X1的 发明 ‖| the invention of X1)=1/6;在图2的句对2,从窗口“你 的 发明”,我们可以得到count(X1的 发明 ‖| X1invention)=1/3。然而,当不存在满足对齐一致性的译文时,我们并没有办法正确计算对应的频次累加值。

下面我们采用两种方法来进行计算泛化规则的翻译概率:

方法1,我们采用与短语模型相类似的方法: 对于源规则f(目标规则e),无论它是否存在满足对齐一致性的译文,我们都假设它的频次累加值是1。

考察图2中的例子,源泛化规则“X1的 发明”在句对1的出现次数为3(分别在“电脑 是 上个世纪 的 发明”,“是 上个世纪 的 发明”和“上个世纪 的 发明”三个窗口中),在句对2中的出现次数为1(在“你 的 发明”窗口中)。根据公式(5),我们可以得到p(“the invention of X1”|“X1的 发明”)=1/(3+1)=1/4。

方法2,首先,我们假设“源规则f的译文是目标规则e”和“源规则f存在满足对齐一致性的目标译文”是不相关的。然后,我们把概率p(e,bve=true|f)分解成为两个条件概率p(e|bve=true,f)和p(bve=true|f)的乘积。同理,我们也可以做类似假设,把p(f,bvf=true|e)进行分解。分解后的公式如下:

对于p(bve=true|f)和p(bvf=true|e),我们设定源短语f(目标短语e)的频次累加值都是1;而对于p(e|bve=true,f)和p(f|bve=true,e),我们则仍然采用传统方法进行估计。

仍然考察图2中的例子。根据传统方法计算可得p(“the invention of X1”|bve=true,“X1的 发明”)=1/6/(1/6+1/3)=1/3;而源泛化规则“X1的 发明”总的出现次数为3+1=4次,其中存在满足对齐一致性译文的次数为1+1=2次,可得p(bve=true|“X1的 发明”)=1/2。根据公式(5),我们可以最终得到p(“the invention of X1”,bve=true|“X1的 发明”)=1/3×1/2=1/6。

通过以上方法,我们可以获得两个新的短语翻译概率。在实际翻译过程中,我们把这两个新的翻译概率当作新的特征加入到翻译模型中,以此来提高翻译模型的性能。

3 实验

3.1 实验设置

我们的实验设置如下:

1) 训练语料: 共含有来自LDC*LDC语料: http://www.ldc.upenn.edu的1 548 447个平行句对。该语料库一共含有中文词42 334 463个,英文词48 152 996个;

2) 语言模型: 采用SRLIM*SRILM工具: http://www.speech.sri.com/projects/srilm/download.html训练的四元GIGA XINHUA语言模型;

3) 开发集: NIST*NIST数据集: http://www.nist.gov/speech/tests/mt02评测集;测试集: NIST03,NIST05评测集

4) 解码器: Moses*Moses解码器: http://www.statmt.org/moses/,Bruin,Chiero;

5) 译文评价: 采用的评测指标是大小写不敏感的BLEU-4[11],使用的评测工具是mteval-v11b.pl*BLEU评测工具: http://www.nist.gov/speech/tests/mt/resources/scoring.hml。

对于解码器,我们采用最小错误率训练MERT[12]进行特征权重训练。解码中,我们设置候选翻译个数为50,最终翻译N-best个数为100。下面我们对所用解码器进行简单介绍。

Moses[3-4]是著名的短语模型解码器,由Philipp Koehn开发。解码器基于对数线性模型,采用从左到右的方式进行解码。解码器提供多种了调序模型,实验中我们选用了msd-fe调序模型。

Bruin是基于BTG[6]的短语模型解码器。该解码器基于对数线性模型,采用CKY方式进行解码。为了加快解码速度,解码器采用Cube-Pruning方法[13]来减少搜索空间。

Chiero是著名层次短语解码器Hiero[5]的C++重实现版本。同样,该解码器也是基于对数线性模型,采用CKY方式进行解码,并采用Cube-Pruning方法来减少搜索空间。

3.2 实验结果

采取以上的实验设置,实验结果见表1,表2。

表1 短语模型 实验结果

表2 层次短语模型 实验结果

表1和表2分别列出在两类模型(短语模型和层次短语模型)上的实验结果。从上面的数据,我们可以清楚地看到,在不同的模型和测试集上,我们的方法都在一定程度上改进了翻译质量(在NIST03测试集上取得了0.33~0.67的提高,而在NIST05测试集上取得了0.35~0.51的提高)。因此,可以说我们的方法是有效的,获得了更为准确的短语概率估计。

4 总结与展望

本文对统计机器翻译中短语翻译概率的传统估计方法进行了分析,阐述了导致短语翻译概率估计不准确的主要原因就是传统方法只考虑了短语存在满足对齐一致性的译文的情况。对此,本文修改了传统计算公式,并针对不同翻译模型进行了不同处理。实验结果表明,我们的方法是有效的,在NIST03和NIST05测试集上,BLEU值都有所提高。显然,我们的方法仍然存在继续改进的余地:

1) 引入上下文来估计p(bve=true|f,context)和p(bvf=true|e,context)。

2) 在我们的方法中,在估计p(bve=true|f)和p(bvf=true|e)时,短语的频次累加值简单设置成1。在以后工作中,我们将引入调序图[14]来获得更准确的频次累加值估计。

3) 在层次短语模型中,我们采用了两种方法来计算翻译规则的频次累加值,效果一般。

今后我们将进行更为深入的研究,寻找更为合理的层次短语概率估计的方法。

[1] 刘群. 统计机器翻译综述[J]. 中文信息学报,2003,17(4): 1-12.

[2] Peter F. Brown, John Cocke, Stephen A. Della Pietra, Vincent J. Della Pietra, Robert L.Mercer. 1993. The mathematics of Statistical Machine Translation: Parameter Estimation[J]. Computational Linguistics.1993,19:263-311.

[3] Philipp Koehn, Franz Joseph Och, and Daniel Marcu. 2003. Statistical Phrase-Based Translation[C]//Proc. of NAACL 2003:48-54.

[4] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondrej Bojar, Alexandra Constantin, Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation[C]//Proc. of ACL 2007, demonstration session.2007: 177-180.

[5] David chiang. Hierarchical Phrase-Based Translation[J]. Computational Linguistics, 2007,33:201-288.

[6] Deyi Xiong, Qun Liu and Shouxun Lin. Maximum Entropy Based on Phrase Reordering Model for Statistical Machine Translation[C]//Proc. of ACL 2006:521-528.

[7] Michel Galley, Jonathan Graehl, Kevin Knight, Daniel Marcu, Steve DeNeefe, Wei Wang, and Ignacio Thayer. Scalable Inference and Training of Context-Rich Syntactic Translation Models[C]//Proc. of ACL 2006:961-968.

[8] Yang Liu, Qun Liu and Shouxun Lin. 2006. Tree-to-String Alignment Template for Statistical Machine Translation[C]//Proc. of ACL 2006, 2006:609-616.

[9] Haitao Mi, Liang Huang and Qun Liu. Forest-Based Translation[C]//Proc. of ACL 2008, 2008:192-199.

[10] Min Zhang, Hongfei Jiang, Aiti Aw, Haizhou Li, Chew Lim Tan and Sheng Li. 2008. A Tree Sequence Alignment-based Tree-to-Tree Translation Model[C]//Proc. of ACL 2008, 2008:559-567.

[11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation[C]//Proc. of ACL 2002, 2002:311-318.

[12] Franz Joseph Och. Minimum error rate training in statistical machine translation[C]//Proc. of ACL 2003, 2003:160-167.

[13] Liang Huang and David Chiang. Better k-best Parsing[C]//Proc. of IWPT 2005, 2005:53-64.

[14] Jinsong Su, Yang Liu, Yajuan Lv, Haitao Mi and Qun Liu. Learning Lexicalized Reordering Models from Reordering Graphs[C]//Proc. of ACL 2010:12-16. short paper.

猜你喜欢
解码器短语一致性
关注减污降碳协同的一致性和整体性
科学解码器(一)
注重教、学、评一致性 提高一轮复习效率
IOl-master 700和Pentacam测量Kappa角一致性分析
科学解码器(二)
科学解码器(三)
线圣AudioQuest 发布第三代Dragonfly Cobalt蓝蜻蜓解码器
《健民短语》一则
基于事件触发的多智能体输入饱和一致性控制