所在位置:
首页 >
营销资讯 >
行业动态 > AI超级计算全球最强GPU:NVIDIA A100 80GB GPU
AI超级计算全球最强GPU:NVIDIA A100 80GB GPU
时间:2022-04-29 11:06:01 | 来源:行业动态
时间:2022-04-29 11:06:01 来源:行业动态
针对现在日益负载的HPC与AI工作负载,特别是面向深度学习与机器学习等应用,NVIDIA推出了A100 80GB GPU,其可以称为目前AI超级计算全球最强GPU。因为,A100 80GB GPU基于NVIDIA Ampere架构,为其带来了突破性的特性。
借助第三代Tensor Core核心,通过全新TF32,NVIDIA A100 80GB GPU将上一代Volta架构的AI吞吐量提高多达20倍。通过FP64,将HPC性能提高多达2.5倍。通过INT8,将AI推理性能提高多达20倍,并且支持BF16数据格式。
凭借其多实例GPU(MIG)技术,NVIDIA A100 80GB GPU可分割为多达7个GPU实例,每个实例具有10GB内存。该技术是一种安全的硬件隔离方法,在处理各类较小的工作负载时,可实现GPU最佳利用率。对于如RNN-T等自动语言识别模型的AI推理,单个A100 80GB MIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。
在计算性能提升的同时,NVIDIA A100 80GB GPU基于A100 40GB的多样化功能,采用HBM2e技术,可将A100 40GB GPU的高带宽内存增加一倍至80GB,提供每秒超过2TB的内存带宽。这使得数据可以快速传输到全球最快的数据中心GPU A100上,使研究人员能够更快地加速其应用,处理最大规模的模型和数据集。
同时,依托第三代NVLink和NVSwitch互连技术,NVIDIA A100 80GB GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600gigabytes。
目前,NVIDIA A100 80GB GPU已经支持NVIDIA HGX AI超级计算平台。NVIDIA HGX AI超级计算平台将NVIDIA GPU、NVIDIA NVLink 、NVIDIA InfiniBand网络以及全面优化的NVIDIA AI和HPC软件堆栈的全部功能整合在一起,以提供最优越的应用性能。
由于GPU内存比上一代提升一倍,HGX服务器中搭载的A100 80GB还可训练具有更多参数的最大模型,如GPT-2,能够为研究人员和工程师们提供空前的速度和性能,助力实现新一轮AI和科学技术突破。
同时,源讯、戴尔科技、富士通、技嘉科技、慧与、浪潮、联想、云达科技、超微预计将于2021年上半年,提供基于HGX A100集成底板的系统,该集成底板搭载4-8个A100 80GB GPU。