刘学臣
- 作品数:2 被引量:2H指数:1
- 供职机构:南开大学更多>>
- 发文基金:天津市自然科学基金中央高校基本科研业务费专项资金国家自然科学基金更多>>
- 相关领域:自动化与计算机技术更多>>
- 基于CPU-GPU协作环境的快速大规模SVM训练
- 近年来,随着图形处理器(Graphic Processor Unit,GPU)的计算能力的增强,其主要用途由图形渲染过渡到通用计算方面,GPU的定位也逐渐演变为具有众核架构的通用处理器。在现今以主核心辅以协处理器模式的C...
- 刘学臣
- 关键词:协同环境混合编程模型图形处理器
- 文献传递
- 基于混合编程模型的支持向量机训练并行化被引量:2
- 2015年
- 支持向量机(support vector machine,SVM)是一种广泛应用于统计分类以及回归分析的监督学习方法.基于内点法(interior point method,IPM)的SVM训练具有空间占用小、迭代趋近快等优点,但随着训练数据集规模的增大,仍面临处理速度与存储空间所带来的双重挑战.针对此问题,提出利用CPU-GPU异构系统进行大规模SVM训练的混合并行机制.首先利用计算统一设备架构(compute unified device architecture,CUDA)对基于内点法的SVM训练算法的计算密集部分并行化,并改进算法使其适合利用cuBLAS线性代数库加以实现,提高训练速度;然后利用消息传递接口(message passing interface,MPI)在集群系统上实现CUDA加速后算法的分布并行化,利用分布存储有效地增加所处理数据集规模并减少训练时间;进而基于Fermi架构支持的页锁定内存技术,打破了GPU设备存储容量不足对数据集规模的限制.结果表明,利用消息传递接口(MPI)和CUDA混合编程模型以及页锁定内存数据存储策略,能够在CPU-GPU异构系统上实现大规模数据集的高效并行SVM训练,提升其在大数据处理领域的计算性能和应用能力.
- 李涛刘学臣张帅王恺杨愚鲁
- 关键词:计算统一设备架构消息传递接口