11月19日消息,继先前NVIDIA发布将CUDA带来Arm架构处理器的超级计算机后,在2019年Supercomputing超级运算大会上,发布了能让绘图处理器绕过处理器,直接访问内存数据的Magnum IO软件组件,能够有效降低运算过程中的延迟,大幅提升整体性能表现。


由于AI运算与一般运算的特性有所不同,所以往往对绘图处理器(GPU)的资源需求高于处理器(CPU),而且需要运算过程需要访问大量数据,造成构建计算机时所需要的绘图处理器数量会高于处理器,且许多运算时间会浪费在绘图处理器访问内存的延迟。


先前NVIDIA在2019年国际超级运算大会(International Supercomputing Conference)发布了CUDA on Arm,让采用Arm架构处理器构建的超级计算机也能使用NVIDIA绘图处理器进行高性能计算(High Performance Computing,以下简称HPC),并预计在2019年底达到支持600款HPC运算软件与全部AI框架的目标,其中也支持NVIDIA的CUDA-X AI与HPC函数库。


如此一来无论处理器的架构为Arm、Power、x86的计算机,都能通过NVIDIA绘图处理器为AI运算加速,让用户可以选择适合自身使用场景的处理器,例如利用Arm架构处理器追求更高的电力效率。


而在2019年Supercomputing超级运算大会上,NVIDIA进一步宣布Magnum IO软件组件,可以通过优化方式消除存储、I/O造成的性能瓶颈。根据官方提供的说明,能提升多服务器、多绘图处理器的运算节点在处理复杂金融分析、气候预测时长据处理性能达20倍之谱,让数据科学家与AI、HPC研究员在数分钟内完成原本需要花费数小时的工作。


英伟达发布直接访问内存数据的Magnum IO软件组件


NVIDIA发布了全新支持绘图处理器加速的Arm服务器设计参考平台,以满足各种云计算运算与HPC需求。


英伟达发布直接访问内存数据的Magnum IO软件组件


使用Arm处理器搭配NVIDIA绘图处理器构建服务器最大的优势,就是能够提升整体能源效率。


英伟达发布直接访问内存数据的Magnum IO软件组件


NVIDIA与Arm、Ampere、Cray、Fujitsu、HPE、Marvell等厂商携手打造多种绘图处理器加速服务器。


英伟达发布直接访问内存数据的Magnum IO软件组件


Magnum IO能够有效提升包括上图DGX SuperPOD在内等多种搭载NVIDIA绘图处理器服务器的数据处理性能达20倍之谱。


英伟达发布直接访问内存数据的Magnum IO软件组件


Magnum IO的主要功能在将低绘图处理器访问数据的延迟与处理器占用率。


英伟达发布直接访问内存数据的Magnum IO软件组件


Magnum IO能在多服务器、多绘图处理器的运算节点发挥功效。


企业除了可以自行架设服务器外,Microsoft全新的Azure NDv2系列虚拟机最多能在单个Mellanox InfiniBand后端网络提供高达800个的NVIDIA Tesla V100绘图处理器,加快企业部署AI运算的速度。


如此一来企业只需在自己的办公室租用虚拟机,并在短短几个小时内完成过去需要花费数月的AI运算超级计算机部署工作,大大降低时间成本。


英伟达发布直接访问内存数据的Magnum IO软件组件


企业客户可以直接租用Microsoft提供的Azure NDv2系列虚拟机,快速部署AI运算超级计算机。


对此NVIDIA副总裁兼加速运算总经理Ian Buck说:“相较于先前只有世界级的大企业与组织能拥有AI与HPC运算的超级计算机,但Microsoft Azure新产品的催化让AI变的更加民主化(Microsoft Azure’s new offering democratizes AI),让人们能有更多任务具能解决各项重大挑战。”


我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~