识别Z 玻色子喷注的卷积神经网络方法*

2021-03-26 08:43李靖孙昊
物理学报 2021年6期
关键词:动量卷积背景

李靖 孙昊

(大连理工大学物理学院, 大连 116024)

1 引 言

在大型强子对撞机(LHC)上, 粒子在非常高的能量下进行碰撞, 研究人员可以通过各种探测器观测到末态粒子束(喷注).因为能量如此之高, 喷注在量能器上产生的能量沉积有可能发生重叠, 这样会形成一个胖喷注.胖喷注有着丰富的亚结构,可以用来研究产生它的相应的过程.以Z 玻色子衰变到双喷注为例, 胖喷注含有潜在的多个亚喷注结构, 相比之下, 普通的量子色动力学(quantum chromodynamics, QCD)过程产生的胖喷注则没有这样的结构.从庞大的QCD 喷注背景下识别出特定过程产生的喷注对之后进行喷注研究有着重要的意义, 这就是喷注识别.大量的工作通过理解胖喷注的亚结构来提出识别的方法, 这些工作的综述可以查看文献[1-3].在物理学中, 传统的方法是设计一些观测量, 然后对这些观测量的分布人为施加截断, 全部的截断构成了一个分辨器; 也可以单独或者组合利用这些观测量, 通过增强决策树(boosted decision trees, BDTs)这种机器学习算法来进行分辨.尽管这些观测量是人为精心构造出来的, 但是它们并不一定能充分利用到喷注所含的潜在信息.

近年来, 大量的工作尝试将机器学习方法应用于物理中的不同任务[4-6].其中对于喷注识别的任务, 不同的机器学习模型有着不同的输入, 于是人们构造了喷注的不同的表示方法, 例如: 图片[7-18]、序列[19-22]、图结构[23]、集合[24]等.通过利用模型自动提取特征的功能, 更高维度、更复杂的信息被产生用来识别喷注的来源.本文的识别任务是从QCD 背景下识别出由高能Z 玻色子衰变而来的喷注.区别于人为构造的观测量, 我们直接利用了低维的四动量数据, 来探索这一原始数据所包含的有用的潜在信息.喷注被看作是一张图片作为输入, 然后利用卷积神经网络(convolutional neural networks, CNNs), 通过层层相连的卷积层,来提取出不同维度的特征图, 依次作为输入传入下一层, 最后通过全连接层输出信号与背景的概率,通过相对概率的大小, 喷注图片被识别成信号或者背景.在不同深度的CNN 进行训练比较之后, 找出了对于这一过程, 最精简与最高效的CNN 结构.为了对比它们与传统方法的差异, 还使用了BDT来进行识别.结果显示CNN 模型的效果远超BDT的效果, 也说明了在未来的标注识别研究中, 这种结构及其变体蕴含的巨大潜力.

2 数据产生

选取Z 玻色子衰变产生双喷注作为研究的信号, 选取普通并且非常庞大的QCD 喷注作为背景.利用Pythia[25]模拟了这两种过程, 产生了部分子水平的数据, 它们的截面分别为 2.485×10-9mb和 2.507×10-6mb.中心能量设置为14 TeV,横向动量 pT范围设置为400—450 GeV, 赝快度范围[7]设置为 | η|<1.6 , 方位角的范围是 | φ|<π/2.得到了末态粒子的四动量后, FastJet[26]用来聚集喷注.只保留横向动量大于5 MeV 的末态粒子, 并使用Anti-kT算法[27]来聚集 Δ R <1 的粒子来产生胖喷注.Δ R=0.3 的kT算法被用来做再聚合产生亚喷注.为了降低潜在事件的影响, 舍弃了横向动量不足胖喷注横向动量5%的亚喷注, 这也叫做喷注修剪[28].

经过筛选后每个事件剩下的末态粒子, 也就是上面保留下来的组成亚喷注的粒子, 被用来产生喷注图片.粒子的横向动量 pT作为权重来投影到由赝快度 η 和方位角 φ 组成的二维平面上.为了模拟真实的量能器, 将数据的精确度设置为Δη×Δφ=0.1×0.1, 单位小格构成喷注图片的一个像素.位于同一像素的粒子, 它们的横向动量之和组成该小格的像素强度.最后产生的喷注图片尺寸大小为32 × 32.为了让模型最快地学习识别信号与背景,对喷注图片做了预处理.预处理可以大大减少训练的时间, 并且提升模型的识别效果.图片的产生和预处理步骤有: 平移、像素化、旋转.首先将喷注数据中的首要亚喷注(有着最大的横向动量)移动到η- φ 平面的原点, 即喷注图片的中心, 然后再将喷注所含有的全部粒子投影到这个平面上, 最后将次要的亚喷注旋转到中心的正下方.图1展示了Z 玻色子与QCD 的平均喷注图片, 次要的亚喷注清楚地显示在信号喷注图1(a)中, 而背景喷注在图1(b)中, 相应区域的像素强度更加平均与发散, 没有形成明显的次要喷注区域.

在分别模拟了一百万的信号与背景事件之后,最后得到的信号与背景喷注图片的数量总共约为五十四万, 各占其中的一半.在将它们顺序打乱后,其中的30%作为测试集, 剩下的作为训练集.验证方法采用了三折交叉验证, 每次将训练集分成3 份, 选择其中的一份作为验证集, 其余的两份作为训练集.

3 研究方法

3.1 卷积神经网络(CNN)

图1 (a)信号平均喷注图; (b)背景平均喷注图; 横坐标 η 代表赝快度, 纵坐标代表方位角 φ.Fig.1.(a) Signal average jet image; (b) background average jet image.η and φ represent pseudo-rapidity and azimuth respectively.

本文卷积块(ConvBlock)由一个卷积层, 一个批归一化层, 一个最大池化层组成.为了保持输入的尺寸大小不变, 卷积层的填充数设置为1, 卷积步长设置为3.在这样的设计下, CNN 可以有更深的结构.为了防止模型过于复杂带来的过拟合, 在卷积块的最后添加了丢弃层, 有50%的概率丢弃与之相连的特征图.总共探索了四种CNN 结构:所包含卷积块的个数分别为2, 3, 4, 5, 分别命名为CNN 1, CNN 2, CNN 3, CNN 4.展示了包含4 个卷积块的CNN 3 结构, 如图2 所示.所有的结构都是卷积块层层堆叠组成的, 最后加上一个全连接的分辨层得到输出.随着层数变深, 中间得到的特征图通道数逐渐增多, 尺寸变小, 直到最后的单像素图.除了这一种结构, 文献[9, 17]还探索了不同的结构.在训练过程中采用了Adam 优化算法,学习率设置为0.001, 同样为了防止过拟合采用了早停法, 在20 个周期内如果验证集上的损失没有下降的话, 训练将会终止.此外使用了交叉熵损失函数.模型由Pytorch 搭建而成, 训练使用了Pytorch 的高级封装Skorch.

3.2 增强决策树(BDTs)

为了衡量CNN 的分辨效果, 将增强决策树作为基线, 聚集产生的胖喷注的质量、横向动量, 首要 和 次 要 亚 喷 注 之 间 的 Δ R , 以 及 喷 注 形 状Nsubjettiness 中 的 τ21作 为 它 的 输 入, 图3(a)—(d)分别显示了它们的分布.我们采用的是Sklearn 中的梯度增强决策树(gradient boosted decision tree,GBDT).其中学习率设置为0.1, 用来训练不同树的样本比例设置为0.9, 每个树的最大深度设置为3.对于树的个数, 分别采用了100, 200, 300 来试图找到最佳的设置.需要注意的是, 这里出现的并不是全部的设置, 其他的设置可能会出现更好的模型, 这个将在未来进行探索.

图2 CNN 3 结构示意图, 产生这张图片的程序来自https://github.com/gwding/draw_convnetFig.2.Architecture of the CNN 3.This figure was generated by adapting the code from https://github.com/gwding/draw_convnet.

图3 (a)胖喷注的质量分布; (b)胖喷注的横向动量分布; (c)胖喷注含有的首要与次要喷注的距离分布; (d) N-subjettinessτ21的分布Fig.3.(a) Mass distribution of fat jets; (b) transverse momentum distribution of fat jets; (c) distribution of distance between leading and subleading subjets; (d) distribution of N-subjettiness τ 21.

4 结果与讨论

在对实验结果进行分析之前, 先来说明一下本文用到的分析方法.我们把识别得到的信号占真实信号的比例称作信号效率, 记为 εs, 错误地识别成信号的背景占真实背景的比例称作错误标记率, 记为 εb.通常情况下当信号输出的相对概率大于50%的阈值时, 模型判断输入的喷注图来自信号.可以利用接受者操作特性(the receiver operating characteristic, ROC)曲线来展示随着阈值的变化,模型判断信号与背景的变化.这里横坐标为 εs; 纵坐标为 1 /εb, 它也被称为背景拒绝效率.一般来说希望模型在相同的信号效率下有更高的背景拒绝效率, 所以在ROC 曲线图中, 曲线位于更高位置的模型, 认为它的表现更好.除了ROC 曲线, 还使用了其他三种参数: 曲线下的面积(area under the curve, AUC)来反映不同模型的性能差异, 这里的曲线指的是分别以 εb与 εs为横纵坐标作出的曲线,与我们利用的ROC 曲线不同; 准确度(accuracy,ACC), 模型识别的正确率; R50, 在信号效率为50%的情况下背景拒绝效率的值.

接下来对得到的结果进行分析.图4 展示了前面提到的所有模型的ROC 曲线, 表1 展示相对应参数的值.图中的ROC 曲线表明了通过加深模型,CNN2, CNN 3, CNN 4 获得了比CNN 1 更强的分辨能力, 但是CNN 3 和CNN 4 的分辨能力几乎是一模一样的.这也可以反映出尽管CNN 4 模型参数几乎是CNN 3 的四倍, 但是无法再通过简单地加深模型来提升它的表现, 所以CNN 3 是在这种将卷积块层层连接的设计下最精简的模型.对于BDT, 尽管3 个表现参数随着树的个数增多而增加, 但是它们的对于分辨能力的影响极其有限(甚至将树的个数设置为个位数, 但是它的表现依旧没有什么大的变化).这说明对于BDT, 此时限制模型分辨能力的因素已经不再是模型的结构, 而可能与我们选择的输入有关, 之后的工作可以尝试更多种类的观测量加以验证.需要注意并不是种类越多越好, 含有模糊信息的输入反而可能会误导模型使它的分辨能力下降.对于我们选取的用来衡量模型表现的参数, 准确度的差异非常小, CNN 3 相较于表现最差的CNN 1 与BDT 1, R50 分别提升了大约1 倍与1.5 倍, 准确度达到了0.8324.

图4 不同模型的ROC 曲线Fig.4.ROC curves of different models.

表1 用来衡量不同模型表现的性能参数Table 1.Metrics to evaluate performance of different models.

为了进一步了解CNN 3 的分辨能力, 利用softmax 函数将模型输出转化为对应类别的概率, 公式为

其中, i 表示输出神经元所代表的输入类别, 0 代表背景, 1 代表信号; o 代表了神经元的本身的输出.选取信号神经元来查看由不同类别的输入得到的输出分布, 如图5 所示.图中信号的输出大部分集中于1 附近, 背景集中于0 到0.3 附近, 模型可以很好地将它们区分开来.

图5 CNN 3 信号神经元对于信号(橘色)与背景(蓝色)的输出分布Fig.5.Distribution of the signal neuron of the CNN 3 on signal and background samples.

图6 最优与最差的信号喷注图Fig.6.The best and the worst signal jet images.

图7 最优与最差的背景喷注图Fig.7.The best and the worst background jet images.

为了探索神经网络学习到了喷注所含有的哪些结构, 分别作出了最优与最差的信号与背景的喷注图片, 如图6 和图7 所示.结合最优的信号与最差的背景来看, 信号的中心是一个横向动量很高的亚喷注, 或者具有两个亚喷注的结构.相比之下,最优的背景显示出一种近乎随机的分布, 图7(a)具有两个亚喷注的结构, 但从图中来看与信号的两个亚喷注的距离不同.图7(b)和图7(c)中显示了多个亚喷注的结构并且相互各异, 图6(d)—(f)也显示出这种距离较为随机的双亚喷注结构.总体来说, 背景喷注的结构更加随机, 不只是两个, 多个亚喷注也可能出现, 并且对比亚喷注本身, 背景更加分散, 信号更加集中.除了最好与最差的喷注图片, 将四种可能的识别情况: 正确识别成信号的信号、错误识别成背景的信号、正确识别成背景的背景和错误识别成信号的背景做成一个混淆矩阵, 来对不同类别的分辨效果进行探究.图8 展示了我们得到的混淆矩阵, 纵坐标代表着真实的类别, 横坐标代表着模型预测的类别.除了大部分识别正确的喷注以外, 发现背景识别的准确率远大于信号, 信号中有将近23%的喷注错误地识别成了背景, 这意味着对于背景的QCD 喷注, 模型对于来自Z 玻色子衰变的喷注更加不确定.由图1 与图7 得到这样的线索: 信号与背景的特征有很大部分是重合的, 我们训练的模型倾向于将这样重合的特征, 例如不固定 Δ R , 归为背景喷注, 而只有具有显著的单喷注或者集中的双喷注结构识别为信号, 这样的模型对于信号更加“保守”.在实际的实验中, 信号事件的数量远远小于无关的事件数, 这就导致了信号喷注占的只是很小的一部分, 所以这样保守的模型可能会过滤掉少数的感兴趣的信号, 相反的过于激进的模型可能会将无关的背景识别成信号, 产生误导.如何设计与训练模型才能达到在保守与激进之间的平衡, 是将来研究的重点.

图8 CNN 3 在测试集上的混淆矩阵, 其中纵坐标代表喷注图的真实类别, 横坐标代表模型预测的类别Fig.8.Confusion matrix of the CNN 3 on the test set.The true label is on the vertical axis, and the predicted label in on the horizontal axis.

5 结 论

本文探索了把卷积神经网络应用于喷注识别任务上的潜力.通过把喷注投影到η- φ 平面上, 得到了喷注的图片表示, 将它作为输入放进不同深度的卷积神经网络中.训练测试得到的结果显示, 我们设计的CNN 3 具有最好的识别效果, 并且在相同的表现下结构是最精简的.与之相比较的是, 将产生的喷注的横向动量、质量、亚喷注之间的距离作为特征输入的增强决策树, 设计的三种决策树取得了最差的分辨能力, 并且相互之间没有差异, 可能的原因是输入的种类不多.通过找到最优与最差的信号与背景喷注, 总结了信号与背景的特点.利用每个类别的识别情况, 做出了模型的混淆矩阵,发现训练出的模型偏向于保守—更容易将信号错误地识别成为背景, 虽然它识别的结果相比于激进的模型来说更加可靠, 但是也更容易漏掉真实实验中数量很少的信号事件.本文为之后设计模型以达到保守与激进的平衡, 贡献了一个基准, 为以后的评估模型提供了一种思路.

猜你喜欢
动量卷积背景
“新四化”背景下汽车NVH的发展趋势
基于3D-Winograd的快速卷积算法设计及FPGA实现
《论持久战》的写作背景
应用动量守恒定律解题之秘诀
原子物理与动量、能量的结合
黑洞背景知识
动量相关知识的理解和应用
卷积神经网络的分析与设计
从滤波器理解卷积
基于傅里叶域卷积表示的目标跟踪算法