胡玉贵
摘要:随着越来越多的公司和企业使用GPU来作为加速计算设备,对并行程序的需求也越来越大,目前我们一般都使用CUDA或OPENCL等底层API进程序开发,但是使用这些底层API来进行开发效率都不高,目前出现OPENACC指令就是针对这个问题提出来的,在该文里,我们针对高斯模糊算法,分别使用CPU,OPENACC,CUDA进行实现,比较他们的效率,发现在虽然OPENACC相对于CUDA性能要低一些,但相对其陡峭的学习曲线和低下的开发效率,OPENACC有着不错的性价比,而且随着编译器和硬件技术的发展,OPENACC有着广阔的发展空间。
关键词:OPENACC;CUDA;GPGPU;卷积
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2012)34-8248-03
1简介
随着性价比的日益提高,包含加速设备的异构计算系统越来越受到欢迎,但是,由于复杂的代码设计或是只能特定于厂商设备,使得底层的API来进行GPU的软件开发困难重重,所以对于开发大型软件或项目来说,这样一个没有效率和高度依赖设备厂商的开发过程是不可接受的。
目前已经出现了一些方法,即采有基于指导的高层API来转移这些底层代码由编译器实现,当然,从一般意义来说,这并没有简化程序的并行化设计,还是要由程序员来负责挖掘代码中的并行功能,但是这大大提高了程序的开发效率和代码的可维护性,而且,将几种指令加速进行标准化将使代码跨设备并行化成为可能,在2011年12月,一群OPENMP的成员同时推出了OPENACC,这些成员包括CAPS,CRAY,NVIDIA,PGI等公司,它将C/C++或FORTAN中的循环部分计算转移到加速设备中,在该文中,我们使用高斯模糊算法来体验OPENACC指令,并把它与CPU,CUDA进行比较分析,并结合代码进行综合分析。
2相关的工作
GPU的通用化设计带来了新的编程模式的巨大改变,目前,主要的GPU编程模型为CUDA[13]和OPENCL[10],二者都是使用GPU核函数来发挥GPU加速器的威力,当然,CUDA只适用于NVIDIA的GPU,而OPENCL则是作为一个标准适用于多个厂商的硬件设备,由于底层代码的重复性和易错性,用这些API进行开发通常效率很低。目前,已经提出了几个基于制导指令的加速计算协议,类似于OPENMP的指令制导模型,OPENACC也是于加速某个代码区域的加速编程模型.
ThePortlandGroup提供了应用于C和Fortan语言的PGI加速模型,这个模型除了提供基于指令制导的编译器辅助加速之外,还附加一系列的附加功能,而CAPS公司建立的HMPP环境则是用指令产生一系列的代码片段,这些片段可用于许多硬件设备上进行加速。hiCUDA则使用核心指令,数据传输条件和函数调用定义了一个高层的CUDA抽象,除了支持CUDA规范,hiCUDA比OPENACC给了程序员更多的工作和责任,OPENMPC则可以将OPENMP的代码翻译成CUDA代码。
3openacc总述
在为不同系统,主机CPU和加速设备提供可移植的同时,用于C/c++和fORTAN的OpenAcc指令把低层GPU编程的工作转移给编译器,但是,到目前为止,已经实现的OPENACC仅仅支持NVIDIAGPU,在这里,我们对OPENACC作一个简述。
OPENACCAPI基于一个主机模型,在这个主机模型里,主程序运行在主机里,而且计算紧密区域则会加载到附属的加速设备上去,内存模型则分为主机和设备二层,而且二者之间并不同步。执行和数据管理一般由OPENACC来标定,下面是一些基本指令介绍
最重要的指令是parallel和kernels指令,这二个指令描述了同步或异步的执行区域,因为kernels目前的实现都有些问题,这里我们重点放在parallel指令介绍,parallel包围着的代码区域对应着能以队排运行OPENCL的核函数,为了提高性能,我们还可以使用gangs关键词,对应着worker或vector_length的长度,关键词gang和vector则对应工作组及在工作组里的工作项,在OPENCL里,worker定义了某些工作项的组合,类似于CUDA里warp的概念,在parallel区域里,loop关键词则表明了在加速器里工作项的共享项,编程者也可以插入另外的语句在parallel,kernels或是loop关键词来优化或是数据管理
4openacc实现卷积
卷积是在各种实际问题的实践中,例如:统计学中加权的滑动平均;物理学中任何一个线性系统(符合叠加原理);声学中回声由源声与各种反射效应表达;电子工程与信号处理中线性系统的输出由输入信号与系统的冲激响应表达;概率论中两个统计独立的概率密度,等等的需要而产生,因此,使用GPU计算卷积具有重要的意义。
4.1基于OPENACC的卷积加速算法
5数据结果分析
实验平台操作系统为redhatfedora64位linux系统,CPU为I7-2600,主频3.4G,内存为16G,显卡为NIVIDATELSAC2070,所采用的编译软件为HMPP3.2,支持OPENACC的部分指令。
图1为不同像素的图像下三种方法卷积算法的性能比较,从中我们可以看出,随着图像卷积像素的增大,CPU的计算时间呈指数性增长,而在其代码中加入OPENACC指令后,其消耗的时间则为线性的时间,而经CDUA优化的代码,比OPENACC则要小6倍左右,但是我们要指出,虽然CUDA性能比OPENACC好,但是这是经过精心优化,而且需要有丰富经验的程序员才能实现,而OPENACC只要加入十几行代码,就比串行代码有十倍左右的性能提升,而且随着编译器技术和硬件的发展,OPENACC与CUDA,OPENCL等底层技术的差距将会越来越小。
6结论
使用不多的openacc指令,在原有代码的基础上,我们就可以得加速比良好的卷积算法,且不用改变原来代码,大大增强了代码了维护性和可读性,当然,对于当前的卷积实现来说,使用OPENACC指令优化还有很大的空间,但对于目前已有大量的串行代码,采用OPENACC指令可以将其运行在GPU设备上,实现并行加速。
参考文献:
[1]BordawekarR,BondhugulaU,RaoR.CanCPUsMatchGPUsonPerformancewithProductivity?:ExperienceswithOptimizingaFLOP-intensiveApplicationonCPUsandGPU.Technicalreport,IBMRes.Division,2010.
[2]BrecherC,GorgelsC,HardjosuwitoA.SimulationbasedToolWearAnalysisinBevelGearCutting.InternationalConferenceonGears,volume2108.2ofVDI-Berichte,pages1381–1384,usseldorf,2010.VDIVerlag.
[3]M.B¨ucker,R.Beucker,andA.Rupp.ParallelMinimump-NormSolutionoftheNeuromagneticInverseProblemforRealisticSignalsUsingExactHessian-VectorProducts.SIAMJournalonScientificComputing,2008,30(6):2905-2921.
[4]DolbeauR,BihanS,BodinF.HMPP:AHybridMulti-coreParallelProgrammingEvironment.InFirstWorkshoponGeneralPurposeProcessingonGraphicsProcessingUnits,2007.
[5]CAPSEnterprise,CrayInc.,NVIDIA,andthePortlandGroup.TheOpenACCApplicationProgrammingInterface,v1.0,2011.