2021年12月2日,北京
时间:2022-03-25 05:27:01 | 来源:行业动态
时间:2022-03-25 05:27:01 来源:行业动态
今日,Graphcore(拟未)正式公布其参与MLPerf测试的最新结果。结果显示,与首次提交的MLPerf训练结果相比,对于ResNet-50模型,Graphcore通过软件优化,在IPU-POD
16上实现了24%的性能提升,在IPU-POD
64上实现了41%的性能提升;对于自然语言处理(NLP)模型BERT来说,在IPU-POD
16上实现了5%的性能提升,在IPU-POD
64上实现了12%的性能提升。此次MLPerf测试结果证明了Graphcore的IPU系统越来越强大、高效,软件日益成熟且更快、更易使用。
MLPerf还对比了市面上的Graphcore与NVIDIA的产品,通过在GPU占据优势的模型ResNet-50上进行测试,结果表明Graphcore的IPU-POD
16在计算机视觉模型ResNet-50方面的表现优于NVIDIA的DGX A100。在DGX A100上训练ResNet-50需要29.1分钟,而IPU-POD
16仅耗时28.3分钟,这是自Graphcore首次提交以来仅通过软件实现的性能提升。其中,IPU-POD
16对ResNet-50的软件驱动性能提高了24%,在IPU-POD
64上对ResNet-50的软件驱动性能提升甚至更高,达到41%,对于Graphcore具有里程碑式的意义。
Graphcore最近发布的IPU-POD
128和IPU-POD
256横向扩展系统也得出了结果,与上一轮MLPerf训练相比,Graphcore的IPU-POD
16的BERT性能提高了5%,IPU-POD
64的BERT性能提高了12%。
- 对于Graphcore较大的旗舰系统,在IPU-POD128上训练ResNet-50的时间为5.67分钟,在IPU-POD256上为3.79分钟。
- 对于自然语言处理(NLP)模型BERT,Graphcore在开放和封闭类别分别提交了IPU-POD16、IPU-POD64和IPU-POD128的结果,在新的IPU-POD128上的训练时间为5.78分钟。
MLPerf的封闭分区严格要求提交者使用完全相同的模型实施和优化器方法,其中包括定义超参数状态和训练时期。开放分区旨在通过在模型实施中提供更大的灵活性来促进创新,同时确保达到与封闭分区完全相同的模型准确性和质量。通过在开放分区展示BERT训练的结果,Graphcore能够让客户了解产品在实际运行中的性能,从而让他们更倾向于使用此类优化。