逻辑回归中的批量梯度下降算法并行化研究

2019-11-02 05:45李姚舜刘黎志
武汉工程大学学报 2019年5期
关键词:键值分片梯度

李姚舜,刘黎志

智能机器人湖北省重点实验室(武汉工程大学),湖北 武汉 430205

逻辑回归算法是机器学习领域的经典算法,虽然它使用起来比较简单,但是在各个行业中使用效率很高。逻辑回归模型仅在线性回归的基础上,套用了一个逻辑函数,使其成为了一种二分类算法,主要用于寻找危险因素、预测和判别等二分类模型[1-3]。有很多研究人员通过建立多个分类器或者改进逻辑回归的损失函数等方法,让逻辑回归可以解决多分类问题[4-6]。随着大数据时代的到来,数据量已经不仅仅局限于PB的范围,算法的计算过程还要求能够快速处理大批量的数据集。逻辑回归算法在计算过程中,不可避免需要对全局训练数据进行遍历以更新参数,这种串行运算随着训练数据集的增加,所消耗的资源也会难以估计,有很多研究人员也从硬件和算法优化上提出了优化的方法[7-8]。目前Apache基金会开发的Hadoop分布式框架,占据了大数据处理的庞大市场,已经成为大数据开发的标准。Hadoop中的HDFS的数据管理能力、MapReduce处理任务时的高效率以及它的开源特性,使它在同类的分布式系统中大放异彩[9-11]。MapReduce是Hadoop中的一个分布式计算框架,它将一项繁杂的计算任务划分为几项相对较轻的计算任务,交由多个计算节点并行处理以加速任务进程[12-15]。本文就如何在MapReduce框架下改进逻辑回归的参数训练过程进行讨论,并与单节点环境下的训练过程进行比较,并通过实验进行验证。

1 研究背景

逻辑回归的原理是将样本的特征与样本发生的概率联系起来,计算结果是通过样本的特征来拟合计算出一个事件发生的概率,它实际上是一种分类模型,主要用于解决二分类问题。

逻辑回归的线性决策边界形式如下[16]:

其中θn表示第n个特征参数,xn表示一行样本的第n个特征值。

其回归预测利用了Sigmoid函数,形式如下:

构造预测函数为:

hθ(x)的值表示结果取1的概率。设训练数据集中的样本数量为m,基于最大似然估计推导,得到的损失函数如下:

与线性回归相比,逻辑回归的损失函数并不能推导出一个正规方程解,即J(θ)并没有数学的解析解,所以只能使用梯度法进行求解。此处J(θ)中乘了一个负的系数因此采用梯度下降算法求J(θ)取最小值时的θ为所需要的最佳系数,θ参数更新过程为:

其中α为学习率。对J(θ)求偏导数的结果为:

从参数更新过程中可以看出,式(6)(即计算梯度向量)是最基本的步骤,而式(6)中的在计算过程中只需要进行向量间的点乘、相加,此处可以将求和过程拆分成相互独立的计算步骤,即对每行数据均单独计算最后再归并计算求和结果,并代入式(6)中得到目标函数的梯度向量。

通过分析,可以考虑对式(6)中的求和计算进行改进以达到并行化的目的。若将训练数据集拆分为{Split(1),Split(2),…,Split(s)}等s个分片,每个分片中有p条数据(p不一定相同),将每个分片交由一个节点独立计算,最后将结果进行汇总,则式(6)求偏导数过程可转化为:

其中Spli(tt)表示第t个分片中的数据。综上所述,θ的更新过程可以表示为:

2 批量梯度下降算法并行化

2.1 批量梯度下降算法

梯度法是一种基于搜索的最优化方法,它是人工智能领域的一个非常重要的方法,但是它的作用是用于优化一个目标函数,如果要最小化一个损失函数,使用的就是梯度下降法,如果要最大化一个效用函数,使用的是梯度上升法。

式(5)中采用梯度下降算法求解损失函数最小值,有两种不同的形式:批量梯度下降(batch gradient descent,BGD)、随机梯度下降(stochastic gradient descent,SGD)。由于SGD在每次迭代过程只用到一个训练数据来更新参数,使得SGD并不是每次迭代都向着整体最优化方向,其在解空间的搜索过程看起来很盲目。与SGD相比,BGD每次学习都使用整个训练集,而逻辑回归的是一个凸函数,没有局部最优解,只有唯一的全局最优解,因此选用BGD求解J(θ)最小值。BGD可以保证每次更新都会朝着正确的方向进行,最后能够使训练过程收敛于全局极值点,而且BGD对每行样本都进行了计算处理,因此也更能够改进为并行化算法。

2.2 基于MapReduce的批量梯度下降

MapReduce是一种可用于数据处理的编程框架,采用“分而治之”的思想,把对大规模数据集的操作,分发给各个子节点共同完成,然后通过整合各个节点的中间结果,得到最终结果。MapReduce把处理过程高度抽象为map和reduce两个函数,map负责把任务分解成多个子任务,reduce负责把分解后多个子任务处理的结果汇总起来。

图1 MapReduce工作流程Fig.1 MapReduce workflow

在MapReduce框架下,采用JDK编程环境,矩阵运算在编程过程中均可转化为循环操作,实验过程中将矩阵向量均作为一维数组处理。

逻辑回归中的BGD算法并行化步骤如下:

2.2.1 Split分片 将数据集放入HDFS文件系统下,当Job开始时,MapReduce会读取数据文件并按照HDFS数据块大小进行分片{Split(1),Split(2),…,Split(s)},每一个分片交由一个Map节点进行处理。

2.2.2 解析键值对 MapReduce处理数据的最小单位是键值对,当分片Split(t)中的数据输入map函数之前,会将其按照默认规则转化为“<文本起始位置,文本内容>”的键值对形式,分片中的每一行样本便会转化为一个输入键值对

其中x(ni)表示第i行的第n个特征值,y(i)表示第i行的标签值。

2.2.3 Map过程 每一个分片由一个Map节点处理,每解析出分片中的一条记录便会调用一个map函数。只需要将value值x1(i),x(2i),…,x(ni),y(i)(此时为文本形式)通过Java分割函数分割为字符串数组然后将其中的特征值存储到数组中,在存储过程中,须对每一个数组手动添加一个参数偏移量x(0i)(此处取常量1.0);将标签值存储到标签变量 y=y(i)中,从而达到获取特征值与标签值的效果。

输出完成后map函数结束,当分片Spli(tt)中的所有样本均被map函数处理后,该分片的Map过程结束。当所有分片的Map过程均完成处理后,整个Job的Map过程结束,所有的输出结果会溢出到HDFS本地磁盘中保存为一个文件。

2.2.4 Combine过程 此过程是对Reduce过程的优化,如果将所有的键值对均传输给Reduce过程进行处理,势必要耗费大量的网络传输资源。因此Map在输出结果到磁盘之前,会先将数据在Combine过程中提前处理,将键值对中key相同的value值进行求和,得到当前分片中的向量,将向量按照“<参数序号的键值对形式整理后再进行输出。

2.2.5 排序溢写过程 每一个分片处理完成后均会输出2.2.4中描述的键值对,所有分片的输出结果会传给排序溢写(Shuffle)过程进行排序、归并处理,再将结果传给Reduce阶段进行处理。整理结果会按照“>>”的键值对形式进行输出。

2.2.6 归并过程 归并(Reduce)输出时为保证将更新后的所有参数均同时输出,在Job过程中设置Reduce的个数为1,即将所有的汇总结果均传给同一个Reduce节点进行处理。将同一个key中value值进行求和运算,得到代入式(7)求和得到代入式(8)更新参数,将结果以“<参数序号j,θj>”的键值对形式输出。输出完成后Reduce过程结束,一次参数更新过程完成,循环上述过程,直至参数收敛,便完成训练。

2.2.7 参数收敛过程判断

1)判断θ向量更新后的变化距离的平方和,若值d小于指定阈值,则判断系数已经收敛:

2)训练数据集按设的次数结束迭代后,计算最后一次更新的θ与上一次θ的变化距离的平方和,即

3)若d小于指定阈值,则判断系数已经收敛。

2.3 算法的具体实现

Function map(regex,theta[],data)

输入:regex←训练数据分割字符串,theta[]←回归系数向量,data←训练数据集文件夹路径

2.3.2 算法2 Combiner过程归并各分片输出结果,计算

Function combiner(

Begin

1: for value←values[0]to values[values.length-1]

2:do sum←sum+value End combiner

2.3.3 算法3 Reduce过程合并所有分片输出结果,计算更新参数

Function reduce(,alpha)

输出:键值对<参数序号j,θj>

2.3.4 算法4 开始一个训练过程(Job),调用Map、Combiner、Reduce过程,输出更新后参数

Function trainData(data,result,theta[],last-Theta[],alpha,regex,diff=100)

输入:result←输出文件夹路径,lastTheta[]←上一次训练的回归系数向量,diff←误差初始值输出:更新后参数

3 实 验

实验用服务器为机械革命s1笔记本,其配置为1个物理CPU(Intel i7-8550u 1.8 GHZ,CPU含4核心8线程),16 GB内存,1T硬盘,1个物理网卡。服务器安装win10专业版操作系统,使用VMware Workstation Pro15软件新建3个虚拟机,每个虚拟机的配置为1内核CPU,2 GB内存,20 GB硬盘,1个物理网卡。每个虚拟机安装CentOS7操作系统,Hadoop 2.7.3分布式计算平台,组成含1个主节点,2个从节点的集群。使用eclipse4.11、Java SE 1.8作为开发环境。

实验内容分为两部分,第一部分验证并行MapReduce并行化结果的正确性,第二部分将分布式集群运行结果与单节点运算结果进行比较,说明并行化集群的优势所在。

实验中使用Java语言构建了一个针对大规模抵押贷款数据的逻辑回归分类模型,用于预测客户是否会如期归还贷款,数据集中共包含5个样本特征,数据集描述如表1所示。

表1 抵押贷款数据集描述Tab.1 Description of mortgage loan data set

取2001至2005年的数据样本进行分析测试,每一年的数据文件中包含100万条数据样本,以9∶1的比例划分训练集和测试集,即在每一年的数据文件中取90万条训练数据集、10万条测试数据集,最终试验时共包含450万条训练数据和50万条测试数据。

3.1 验证并行化实验结果正确

取50万条训练数据分别在集群环境和单节点环境下进行测试,单机训练的过程此处不再进行赘述,实验所得两种环境下训练结果相同,可以验证并行化改进算法思路正确。参数训练结果如表2所示。

表2 小数据集参数训练结果Tab.2 Training results of small data set's parameters

3.2 集群与单机环境下训练结果比较

在上一步测试的环境下,每次添加80万条数据,在单机和集群中分别迭代运算1000次,统计两者的运行时间,以训练数据总量Data为横坐标,集群与单机的运行时间比λ(倍)为纵坐标,画出对应的散点图如图2所示。

理想情况下,集群中有3个节点参与运算,时间比λ应该在3倍左右。实际实验中,在初期训练数据集较小的情况下,运行效率没有达到预测值,但是随着训练数据集的扩大,集群运行效率达到理想值,甚至超过理想值。原因在于MapReduce过程中分割文件、传输数据均包含大量的文件输入输出操作,在数据集较小时,消耗资源不能忽略不计。

图2 集群与单机训练时间比Fig.2 Time ratio between cluster and single machine training

4 结 语

本文基于MapReduce分布式计算框架,提出了逻辑回归中BGD算法训练参数时的并行处理办法,实验结果表明,这一思路可行,集群环境下的运算效率显著提高。在实际应用过程中,随着节点数量的增加以及集群计算性能的提升,单位时间内能够处理的数据量也会越来越多。在实验过程中没有从根本上改进BGD算法,只是将求和过程进行分解,验证了并行化结果的正确以及高效性。在后续实验和研究过程中,将试图结合算法优化以及集群平台升级,从算法、软件和硬件平台三方面使逻辑回归等机器学习算法能适应更多生产环境。

猜你喜欢
键值分片梯度
上下分片與詞的時空佈局
磁共振梯度伪影及常见故障排除探讨
基于应变梯度的微尺度金属塑性行为研究
利用状态归约处理跨分片交易的多轮验证方案①
物联网区块链中基于演化博弈的分片算法
非请勿进 为注册表的重要键值上把“锁”
一个具梯度项的p-Laplace 方程弱解的存在性
基于模糊二分查找的帧分片算法设计与实现
一键直达 Windows 10注册表编辑高招
基于数字虚拟飞行的民机复飞爬升梯度评估