NVIDIA霸榜权威AI基准测试,3年半内将性能提高23倍

免费影视网免费在线看最新电视剧 https://www.yingshi.run

作者 | ZeR0

编辑 | 漠影

智东西6月30日消息,今日,国际AI行业基准测试平台MLPerf公布了最新的基准测试结果。

其中,NVIDIA及其合作伙伴占了所有参赛生态伙伴的90%,并且继续提供了最佳的整体AI训练性能和提交了最多的测试项。

共有16家NVIDIA合作伙伴使用NVIDIA AI平台提交了本轮结果,包括华硕、百度、中国科学院自动化研究所、戴尔科技、富士通、技嘉、新华三、慧与、浪潮、联想、宁畅和超微。

NVIDIA AI平台覆盖了MLPerf 训练2.0版本中的所有8项基准测试,相比之下,其他加速器均没有运行过所有基准测试。

一、参与全部8项基准测试,6项测试速度最快

这已经是NVIDIA连续第四次提交MLPerf训练结果了。从各个提交者平台在每个网络的“最快训练时间”对比,可以看到基于NVIDIA Ampere架构的NVIDIA A100 Tensor Core GPU是唯一一个参与了所有8项基准测试的AI加速器。

Selene是NVIDIA内部的一台AI超级计算机,基于模块化的NVIDIA DGX SuperPOD,并由NVIDIA A100 GPU、软件堆栈和NVIDIA InfiniBand网络驱动,在8项大规模工作负载测试的4项中获得“最快训练时间”。

为了计算单芯片性能,该图表将每份提交结果归一化到每个提交者最常见的尺度,检测分数归一化到速度最快的竞争者。而NVIDIA A100在8项测试中的6项测试中呈现了最快的速度,在单芯片性能方面领导地位稳固。

二、3年半内将性能提高23倍

自首次基于A100提交MLPerf基准测试以来的两年时间里,在NVIDIA软件堆栈持续优化的推动下,NVIDIA平台的性能已提高了6倍。

自MLPerf问世以来,NVIDIA AI平台在3年半时间里,在基准测试中实现了23倍的性能提升。

此外,NVIDIA在今年3月发布的NVIDIA Hopper架构,有望在后续的MLPerf基准测评中展现出更强的性能表现。

NVIDIA的AI性能提升,归功于跨GPU、软件和大规模改进的全栈式创新。

在软件创新方面,NVIDIA在提交结果中大量使用的CUDA Graphs,能最大限度减少跨多个加速器上运行作业的启动开销。NVIDIA不同库的内核优化,解锁了额外的加速。

NVIDIA还实现了跨硬件、软件和网络的全栈改进,如NVIDIA Magnum IO和SHARP,将部分AI功能卸载到网络中,以获得更好的性能。

NVIDIA所使用的所有软件,均可从MLPerf资源库中获取。NVIDIA不断地将这些优化集成到NVIDIA的GPU应用软件中心——NGC上提供的容器中,并通过NVIDIA AI Enterprise提供完全由NVIDIA支持,并经过优化的软件。

NVIDIA平台适用于任何规模的模型和框架,并具有可替代性以处理AI工作负载的每个部分,能够在所有云端和主要的服务器制造商上使用。

三、提升单位成本的整体AI生产力

对于客户而言,数据科学和工程团队是最宝贵的资源,其生产力决定了AI基础设施的投资回报。

数据科学团队的成本通常在部署AI的总成本中占比很重,而部署AI基础设施本身的成本相对较少,这是客户必须考虑的开销。

AI研究人员的生产力取决于能否快速测试新的想法,而要能够训练不同类型的模型,以及进行大规模训练,对通用性和性能有很高要求。由此来看,企业往往非常关注单位成本的整体生产力。

此外,AI基础设施的利用率取决于可替换性,或在单一平台上加速从数据准备到训练再到推理的整个AI工作流程的能力。

这些都是NVIDIA早已布局之处。凭借NVIDIA AI,客户可以在整个AI流程中使用相同的基础设施,重新利用它来适配数据准备、训练和推理之间的不同需求,这极大提高了利用率。

支持最新模型创新是最大程度地延长AI基础设施使用寿命的关键。NVIDIA AI兼容并适用于每个模型、可扩展到任何规模,并加速从数据准备到训练再到推理的端到端AI流程,能实现较高的单位成本生产力。

结语:通用性+高性能,A100稳住AI加速优势

AI应用可能需要理解用户说出的要求,对图像进行分类、提出建议并以语音信息的形式作出回应。这些任务需要多种类型的AI模型按顺序工作,用户需要能够快速且灵活地设计、训练、部署和优化这些模型。

因此,具备通用性,能在MLPerf及其他版本中运行每个模型,并且在多个基准测试实现领先的性能表现,对于NVIDIA A100 GPU来说是独特的加分项。

上一篇:

下一篇: