您的位置: 主页 > NVIDIA A100 GPU 与 DGX SuperPOD 系统成为全球最快 AI 训练市售产品

NVIDIA A100 GPU 与 DGX SuperPOD 系统成为全球最快 AI 训练市售产品

NVIDIA以Ampere显示架构及台积电7nm制程打造的A100 Tensor Core GPU,在MLPerf Inference 0.7版本中的8项基准测试均呈现最快加速性能,藉由HDR InfiniBand串接大量A100 Tensor Core GPU形成的DGX SuperPOD系统,更是树立8项全新性能里程碑。

首图

2018年与多家业者共同制定测试基准MLPerf Inference,并且在今年7月提出0.7版本后,NVIDIA宣布旗下A100 Tensor Core GPU与DGX SuperPOD系统在新版测试基准下,成为全球最快人工智能训练市售产品,并且刷新16项人工智能性能记录。

依照NVIDIA说明,以Ampere显示架构及台积电7nm制程打造的A100 Tensor Core GPU,在MLPerf Inference 0.7版本中的8项基准测试均呈现最快加速性能。

而藉由HDR InfiniBand串接大量A100 Tensor Core GPU形成的DGX SuperPOD系统,更是树立8项全新性能里程碑。

在此之前,NVIDIA已经以旗下Volta架构GPU产品于2018年12月提出的MLPerf Inference 0.5版本创下6项加速性能记录,而在2019年7月提出的0.6版本中则创下8项记录。

在新版测试基准中,包含多数人工智能应用项目的推荐机制测试,以及藉由BERT模型运作的对话式人工智能,另外也包含采Mini-go及19×19全尺寸Go机板测试项目,藉此涵盖游戏应用到各个复杂模型训练测试。

同时,NVIDIA更以旗下Ampere及Volta架构市售产品进行所有测试,并且刷新市售产品类别性能记录,相比其他竞争对手是以不会在近期内上市产品接受测试,NVIDIA所有接受测试产品都是已经可在市面采购产品,意味企业能直接江这些产品应用在旗下服务布署需求。

除了藉由硬件架构精进提昇加速性能,NVIDIA也透过软件最佳化让相同GPU加速性能提昇,例如以Tesla V100 GPU构成的DGX-1超级电脑,在目前测试基准版本中的性能表现,相比0.5版本约提昇4倍,而整体加速性能表现更比初期提昇2倍效果。

此次递交测试成果的9家业者里,便有7家采用NVIDIA GPU产品,其中包含阿里巴巴、Google、腾讯,以及服务器制造商如Dell、富士通与浪潮集团打造服务器。

藉由A100 Tensor Core GPU与DGX SuperPOD系统,NVIDIA预期将能加快人工智能技术成长,同时也能带动巨量数据应用,藉此让各领域技术藉由更大运算规模扩展。

上一篇:Google 在美国测试相同主题报导的新闻内容汇整功能 协助读者了解各种面向
下一篇:亚马逊「Kuiper」低轨道卫星网络建置计划通过 将提供更便利网络服务

您可能喜欢

回到顶部