蒋煜卿 陈树明
DOI:10.16660/j.cnki.1674-098X.2101-5640-0498
摘 要:将人工神经网络的方法引入中国实验快堆传感器数据分析,通过机器学习的方式,建立出入口钠温作为输出、堆功率等多个变量为输入的模型。通过比较不同优化算法下测试集的预测值和实际值之间误差,进行模型的调整。在最优算法下,判断最终模型的泛用性。实验结果表明,通过人工神经网络方式建立的出入口钠温模型,拟合结果较好,可以实现通过其余冗余传感器间接得到目标传感器数据大致区间范围,实现非冗余传感器故障有效监测。
关键词:人工神经网络模型 中国实验快堆 传感器 模型调试
中图分类号:TP212 文献标识码:A 文章编号:1674-098X(2021)03(c)-0123-06
Research on the Effectiveness of Sensor Data Mining of China Experimental Fast Reactor
JIANG Yuqing CHEN Shuming*
(China Academy of Atomic Energy, Beijing, 102413 China)
Abstract: The artificial neural network method is introduced into the data analysis of the China experimental fast reactor sensor, and a model is established based on machine learning. The output of the model is the inlet and outlet temperature of sodium, while the input of the model includes reactor power and other variables. Through comparing the error between the predicted value and the actual value of the test group under different optimization algorithms, the model parameters are adjusted and optimized. Under the optimal algorithm, the universality of the final model is judged. The final result shows that the inlet and outlet sodium temperature model established by artificial neural network has a good fitting result, which can achieve the approximate interval range of the target sensor data indirectly through other redundant sensors, and realize the effective monitoring of non-redundant sensor faults.
Key Words: Artificial neural network model; China experimental fast reactor; Sensor model debugging
在中国实验快堆运行过程中,传感器作为其控制和监测系统的重要环节,对于快堆的安全性有着举足轻重的地位。在快堆中设置大量冗余仪表,以防止单一儀表损坏后影响操纵员判断。对于仪表状态的监测,多采用周期性的仪表检测方法,经济性不高,并且伴随拆卸损坏的风险。至于传感器产生的大量数据,使用程度较低。
传感器状态监测方法包含两类,一类是采用冗余传感器进行直接对比验证,另一类是使用解析方法进行间接对比验证。这种解析冗余主要包含基于解析模型、基于知识和基于数据驱动的方法。其中数据挖掘方法是目前最为热门的一种数据处理方法,通过训练集得到不同时间序列数据的相互关系后,在测试集进行验证。因此,可以把快堆多组传感器当作多组时间序列数据挖掘问题来研究。
1 传感器状态监测的常用方法
传感器状态监测通常使用设置大量冗余仪表的方式,通过对同一测量不同仪表数据之间的对比,实现最为简单的传感器状态判断。但这种物理冗余的方式,一是会带来经济成本的增加,二是难以避免共同失效,三是堆内无法满足全部设置冗余仪表的条件。因此,引入了基于解析冗余的方法,从而达到与基于物理冗余的方法相互补充的目的。基于解析冗余的方法,主要分为三类,分别是基于解析模型的方法、基于知识的方法和基于数据驱动的方法[1]。
基于解析模型的方法,重点是需要精确的模型对状态参数进行估计,进而对实际值和估计值形成的残差进行统计分析,主要包括参数估计法、等价空间法和状态估计法。对于快堆而言,其设计复杂,参数之间存在大量的相互关联性,因此难以推导出精确的传感器数学模型。
基于知识的方法,重点是需要定性模型和专家知识的结合,要通过因果分析的手段评估系统状态,主要包括专家系统推理法、模糊推理法、故障树分析法和符号有向图。对于快堆而言,其因果关系较为复杂,难以准确通过分散表征进行判断。
基于数据驱动的方法,和前两种方法相比,专注于传感器输出数据的具体分析,主要包括直接处理方法、信号融合方法以及统计方法。直接处理方法主要是通过傅立叶变化发现信号在频域的异常情况;信号融合方法是通过多个关联传感器数据变化来映射某个传感器的状态,但这种方法通常会与其他方法组合使用,使得对于状态的判断更为全面和准确;统计方法应用范围最广,包括人工神经网络、主元分析法、多元状态估计等。
本文主要采用机器学习中反向传播的人工神经网络方法,基于快堆传感器数据进行学习,并形成针对传感器数据预测的模型。
2 基于人工神经网络方法的传感器状态监测
人工神经网络方法是一种广泛使用的数据多元统计分析方法。基于神经网络的深度学习算法参考了人类大脑接触并学习新事物的步骤,它使用拓扑方式将众多处理元进行连接,每个处理元之间通过赋权和函数进行并行信息处理。一般来说,人工神经网络方法有两个阶段,分别是学习训练和验证测试阶段。学习训练阶段就是对神经网络进行教学和调试,在这个过程中,需要选择合适的网络结构、层数、算法,以匹配不同规模和复杂度的系统;验证阶段就是对学习阶段产生的模型加以验证,以判断模型的精确程度。
神经网络中最基本的成分是神经元,每一个神经元都有多个输入,对每一个输入都会分配一个权重,在测试的过程中,每个连接上的权重都不会发生改变,但是在训练过程中,必须改变这些权重值来使结果最优化。神经元的数学表达式如下式所示。
式中,y代表神经元的输出值,wn代表神经元的输入权重值,m代表常数项,f(x)为变化函数,其中输入权重值和常数项是通过机器学习计算当前神经元节点误差项后,通过反向传播的方式计算获得。
神经网络虽然是一种非常复杂的网络结构,但是它的排列非常规整,呈层状排布,从细节看,是大量简单神经元的集合体。神经网络的输入层,输入拟合模型的自变量;它的输出层,输出拟合模型的结果。输入层与输出层神经元个数一般对应于输入和输出的数据序列量。因此,神经网络的核心是隐藏层,隐藏层会完成数据的分析與拟合。神经网络的每一层隐藏层,其内部神经元的结构都保持高度一致,并且彼此之间并不直接相连,也不跨层相连。图1就是一个非常简单的神经网络构造图,图中包含三层隐藏层。图中每个神经元的中枢都有一个变化函数,如果没有变化函数f(x),该网络只是多个线性方程的叠加,输出结果依然为线性结果。因此神经网络需要加入变化函数f(x),从而使得模型能够学习非线性数据并加以分析。
变化函数一般为阶跃函数,但也有一些是线性函数,需要视具体应用场景而定。常用变化函数包括Sigmoid、Tanh、ReLU等。
Sigmoid函数公式如下式所示,它将输出值归一化到(0,1)。在一些误差反向传播的场景下,需要反向调整权重时,一般会率先计算出输出层的损失值,然后将该损失值向上传递,进行模型中参数的逐级优化,但因为Sigmoid函数在求导后会使得损失值导数逐渐向0接近,出现梯度消失的情况,也就是说不能再对权重进行优化[2]。
Tanh函数公式如下式所示,它是在Sigmoid函数上做了一些优化,解决了Sigmoid始终为正的问题,其取值范围为(-1,1),但依然存在Sigmoid函数无法继续优化权重的问题。
ReLU函数公式如下式所示,它存在一个最小值0,因此相比于Sigmoid函数和Tanh函数更为简单,后两者都需要计算指数,一旦数据量很大,就会带来巨额的计算量。但ReLU函数的局限性在于,负输入在经过该ReLU单元时被永远置为0,因此无法参与后续的数据更迭。在使用中,一旦学习率超过模型能够承受的范围,就会导致超量神经元失去响应,参数无法更新,模型无法继续学习,进而导致训练失败[3];但如果学习率处于模型能够承受的范围内,这种变化函数可以降低神经网络的复杂性,进而减小过度拟合的可能性,使得模型相对更为精巧。
本项目中采用拉直层方式,即变化函数为f(x)=x,类似于ReLU函数。在神经网络中,隐藏层作为主要学习层,隐藏层的层数越多,该网络结构可学习的规则越复杂,但是一味增加网络深度会造成前端隐藏层获得学习规则,可是经过多层传递后被遗忘。因此网络结构并非越多越好,需要根据数据情况进行调试。
在将数据带入模型之前,还需要进行预处理,通常都采用归一化的方式。在机器学习中,不同的输入数据序列的范围和大小都有非常大的区别,如果直接把数据带入算法,会导致个别序列对整体计算结果的变化远超其他序列。这种仅仅因为数值较大而判断其对整体计算结果有很大影响的情况,显而易见是不合理的,会影响数据预测的结果,为了消除输入数据序列之间的范围和大小影响,需要进行归一化。初始数据经过预处理后,各输入数据序列处于同一数量级。归一化方法如下式所示。
深度神经网络的优势在于,它可以在没有预先假设的前提下,找到一种映射关系,这种关系中最重要的两个参数,就是上文中提到的权重值和偏置项。这两个参数都是通过损失函数确定。但是,损失函数并不是越小越好,如果只是单纯追求损失函数最小化,就很可能会出现过度拟合的问题。过度拟合在数据上的表现为,这种拟合关系能非常好地预测训练模型的结果,但是由于缺乏普适性,在应用于测试数据时,预测误差会很大。
3 人工神经网络模型调试
在本项目中,首先将初始数据序列按时间点重新划分,将同一时刻采集到的各传感器数据值作为一个单组,形成一个全新的时间序列,而后随机抽取该时间序列的80%用于神经网络的学习训练阶段,再将剩余的20%用于验证测试阶段。通过训练数据集得到的拟合关系,将其应用于验证数据集,通过拟合结果和真实结果的差异性判断该模型的泛化能力。本次项目中间热交换器出入口钠温的神经网络模型中,主要采用堆核功率、堆顶防护罩内腔压力、入口蒸馏水流量、出入口钠流量、蒸发器给水流量、钠泵流量、过热器入口钠温、堆芯出口钠温、蒸汽发生器出口钠温作为输入,中间热交换器出口钠温、中间热交换器入口钠温作为输出。
首先将隐藏网络层设置为两层,使用L2型正则化方法优化梯度下降公式,用于防止神经网络模型出现过度拟合的情况[4],正则化后梯度下降公式如下式所示。
式中,m为当前层的数据个数,yi代表第i个真实值,代表第i个预测值,代表第j个权重项,λ是模型复杂度的惩罚项,可以通过调整λ大小改变模型复杂度,用以提高模型泛化预测的精度。
项目首先采用自适应梯度下降(Adam)优化算法,该算法可以提升神经网络模型的训练速度,使模型在短时间内收敛。在设定隐藏层为两层、初步迭代次数为1000次后,模型均方误差如图2所示。
从图2中可以看出,当训练迭代次数达到200次左右时,模型在验证测试数据集中的均方误差已经渐平不再继续下降,这时如果不停止继续训练,模型后续学到的规则为冗余的无用规则。因此在迭代200次后停止训练,此时学习训练集和测试验证集的均方误差分别为5.57和5.35。
在模型训练结束之后,将训练数据和测试数据批量带入模型,查看模型训练集和测试集分别对应的进出口温度真实值与预测值的误差分布情况。
由图3和图4可以看出,模型在隐藏层设置为两层、迭代次数设置为200次时,部分情况下预测误差相差较大。因此该模型结构仍需调整以提高模型的预测准确度,通过增加网络隐藏层至三层后,模型针對训练集均方误差缩减至2.04,测试集均方误差缩减至1.92,进出口温度真实值与预测值的误差分布情况如图5和图6所示。
此时模型预测在训练集和测试集表现均较好。为了判断模型是否可以具备更好的效果,基于当前的模型训练结果,通过随机梯度下降(sgd)优化算法验证模型是否处于全局最优解。随机梯度下降算法是为了防止模型陷入局部最优点而设计的,该算法通过加入随机梯度使模型可以跳出鞍点和局部最优点,但同时该算法也增加了大量的计算过程,因此需要更多的学习步骤去优化模型[5-6]。图7是模型经过1000次迭代后的均方误差。
由图7所示,模型分别在迭代180次、210次、320次、400次、500次、580次等位置附近多次出现极值点,但是在这些极值点对应的最低均方误差也高达10.9,测试集中最低的均方误差则更高,达到11.06。随机梯度下降算法下最低的两种误差均大于Adam算法迭代后的均方误差值,因此经过Adam算法训练后的模型为当前最优模型。
4 结语
本文采用基于人工神经网络的方法对快堆传感器数据进行分析,使用中国实验快堆开堆实际数据建立了关于中间热交换器出入口钠温的神经网络模型。就模型结果而言,通过堆芯出口钠温、堆核功率、堆顶防护罩内腔压力等参数,拟合出的中间热交换器出入口钠温模型,具有较好的泛用性。对于快堆非冗余传感器,可以通过类似方式,通过其余冗余传感器的拟合关系,得到目标传感器数据的大致区间范围,实现非冗余传感器故障有效监测。因为这种监测方式不需要进行物理拆卸和停堆,所以具有很好的经济性。
参考文献
[1] 李伟.核电厂传感器状态监测方法研究[D].哈尔滨:哈尔滨工程大学,2018.
[2] 黄毅,段修生,孙世宇,等.基于改进sigmoid激活函数的深度神经网络训练算法研究[J].计算机测量与控制,2017,25(2):126-129.
[3] 蒋昂波,王维维.ReLU激活函数优化研究[J].传感器与微系统,2018,37(2):50-52.
[4] 张欣怡,袁宏俊.正则化和交叉验证在组合预测模型中的应用[J].计算机系统应用,2020,29(4):18-23.
[5] 谭涛.基于卷积神经网络的随机梯度下降优化算法研究[D].重庆:西南大学,2020.
[6] 张晋晶.基于随机梯度下降的神经网络权重优化算法[D].重庆:西南大学,2018.