通过设计实现大规模高效
时间:2022-03-25 05:57:01 | 来源:行业动态
时间:2022-03-25 05:57:01 来源:行业动态
在本轮或任何一轮MLPerf原始数据中,每个制造商系统相关的主机处理器数量都十分惊人,一些参与者甚至指定要求每两个人工智能处理器配有一个CPU。而Graphcore的主机处理器与IPU的比率始终是最低的。与其他产品不同,IPU仅使用主机服务器进行数据移动,无需主机服务器在运行时分派代码。因此,IPU系统需要的主机服务器更少,从而实现了更灵活、更高效的横向扩展系统。
对于BERT-Large这一类自然语言处理模型,IPU-POD
64只需要一个双CPU的主机服务器。ResNet-50需要更多的主机处理器来支持图像预处理,因此Graphcore为每个IPU-POD
64指定了四个双核服务器。1比8的比例仍然低于其他所有MLPerf参与者。事实上,在本轮MLPerf 1.1训练中,Graphcore为BERT提供了最快的单服务器训练时间结果,为10.6分钟。
Graphcore大中华区总裁兼全球首席营收官卢涛表示:自2021年初首次提交MLPerf测试以来,Graphcore取得了巨大进步,这与Graphcore不懈创新的企业精神是分不开的。无论是设计系统、选择架构之初,还是至少每三个月推出一次重大软件更新,都是Graphcore创新精神的体现。同时,Graphcore不懈创新的热情也感染和吸引了众多软硬件合作伙伴从Hugging Face和PyTorch Lightning到VMware和Docker Hub,它们都积极支持Graphcore不断创新,以助力AI开发者在易于使用的系统上获得绝佳的人工智能计算性能。