全球GPU技术大会浪潮要放大招?!行业资讯

2016-04-05    来源:it168    编辑:佚名
一年一度的GPU技术大会(GTC)又将到来,这一由Nvidia发起主办的技术大会,已经成为全球规模最大并对GPU开发商来说最重要的一场盛事。4月4日-7日,GTC2016将在美国硅谷举行,届时来自全球

一年一度的GPU技术大会(GTC)又将到来,这一由Nvidia发起主办的技术大会,已经成为全球规模最大并对GPU开发商来说最重要的一场盛事。4月4日-7日,GTC2016将在美国硅谷举行,届时来自全球45个国家和地区的高性能领域专家和研究人员、科学家、程序员、超算中心工作人员和系统管理管理员等4000人将参与其中,共同探讨GPU技术在科学探索、学术研究、教育和商业等方向的进展。

GPU是当前最重要的三大协处理加速技术之一,其应用领域几乎涵盖了社会生活的各个方面,如航空航天、药物开发、基因研究、农作物改良、工业制造、能源勘探、环境保护等等。不过,在这些传统应用领域之外,GPU也正在成为一些未来技术的新宠,如机器学习、无人驾驶汽车、虚拟现实(VR),这三项技术也是GTC2016重点探讨的核心议题。

作为Nvidia在中国最重要的合作伙伴之一,浪潮一直关注GPU技术的应用与发展,并与Nvidia联合成立了Inspur-Nvidia 云超算应用创新中心,共同推动多个行业HPC应用的并行优化。

在算法开发上,Inspur-Nvidia 云超算应用创新中心对中国科学院北京基因组研究所BLAST算法进行了GPU加速,经过倚天超算服务器实测,针对较大的数据库可获得35倍以上的性能提升。而针对西北工业大学航空学院流体力学系的并行大涡模拟(Large Eddy Simulation,LES)算法,该实验室利用GPU对其核心算法格子Boltzmann方法(Lattice Boltzmann Method,LBM)进行加速,使用C2050作为加速器,对比i7CPU加速比约55倍。

在异构系统优化上,Inspur-Nvidia 云超算应用创新中心为中石油东方地球物理公司(BGP)的GeoEastRNA 设计和开发了一套CPU+GPU的协同计算异构系统,经过优化后,CPU应用性能提升2倍,GPU计算核心加速24倍,整体系统性能提升8倍,从计算受限问题转变为存储IO受限问题。而针对BGP的叠前时间偏移应用,实验室则协助开发出适用于大规模集群系统的GPU软件,在相同计算复杂度情况下GPU获得约258倍加速比,CPU采用加速算法后相比CPU单线程加速40倍,最终大规模GPU集群相比原来加速5倍。

除此之外,Inspur-Nvidia 云超算应用创新中心还在深度学习领域取得多项突破。通过与某搜索引擎公司的合作,双方联合对图像识别使用的K-means算法进行了GPU架构的移植和优化,通过重写了计算部分代码将整体速度大幅提升。经过优化后的软件,在单GPU上运行的速度与串行程序相比,加速比达到41倍,1块GPU相当于4.4个8核CPU并行的性能。而在智能语音开发领域,实验室与科大讯飞合作开发了DNN GPU集群版本,16GPU卡较原来单GPU卡加速13倍,节点扩展效率达到90%以上,大大加速了“讯飞超脑”计划的开展。

随着GTC2016的逐渐临近,各个厂商又将使出“看家本领”来展示自身在GPU技术应用领域的优势。作为GPU技术的引领者,浪潮也将在此次大会上放什么大招,……种种悬念,将于GTC16上揭晓。

1
3