18143453325 在线咨询 在线咨询
18143453325 在线咨询
所在位置: 首页 > 营销资讯 > 行业动态 > 来自英伟达、英特尔和AWS自身的新硬件

来自英伟达、英特尔和AWS自身的新硬件

时间:2022-04-03 04:51:01 | 来源:行业动态

时间:2022-04-03 04:51:01 来源:行业动态

亚马逊基于开放性和客户选择,构建了行业最全面的基础架构服务。AWS EC2实例可提供其客户需要的各种样式的处理器和加速器,包括使用英特尔、AMD、Arm CPU、Xilinx FPGA、英伟达GPU以及AWS自己的人工智能加速器的实例。在本文中,我们将重点讨论最后一种情况。

去年,AWS推出了自主研发的Inferentia推理处理器,该处理器似乎吸引了亚马逊内部应用程序以外的关注。据AWS称,Inferentia提供了出色的性价比和延迟据称吞吐量比GPU高出了35%,而价格却比GPU低了40%。值得注意的是,AWS没有说明他们是用哪些GPU与Inferentia进行对比的。

为了响应对英伟达A100 GPU的需求,AWS还推出了带有8个A100 GPU的P4d实例,这些实例可在4000 GPU GPU超级集群中使用。该产品旨在提供集成化且灵活的基础架构,以解决最大的培训任务。通过使用英伟达的HGX设计,P4d证明了英伟达在过去三年中通过不断地提升价值持续地改进了系统设计业务。它还显示出AWS愿意提供英伟达GPU的意愿即使该公司也向其客户提供了替代产品。

尽管AWS的客户对英伟达的GPU感到满意,但亚马逊一直在努力寻找更多具有成本效益并且性能更高的替代产品。在re:Invent年会上,AWS的首席执行官Andy Jassy宣布即将推出两个新的培训平台,这两个平台都将于明年推出。第一个平台使用了期待已久的英特尔Habana加速器, Jassy先生表示,这个平台的性价比将提高40%。在与英特尔的沟通中,我听说这一说法源自于一揽子基准测试,约占AWS上运行的人工智能工作的80%。



Jassy先生还宣布,AWS正在开发Inferentia的大哥,这款产品名为Trainium,它将拥有云端所有机器学习实例中最多的万亿次浮点运算。预计到了该服务在2021年晚些时候(也有可能是今年下半年)推出的时候,才会有更多的细节透露出来。和谷歌一样,AWS打算使用自己的人工智能芯片,用这种方式让自己针对人工智能的云服务与众不同,当然,这些芯片也只会被用于他们自己的云服务中。所以,短期内就不要指望能够购买到这些芯片用于本地运算了。



关键词:

74
73
25
news

版权所有© 亿企邦 1997-2022 保留一切法律许可权利。

为了最佳展示效果,本站不支持IE9及以下版本的浏览器,建议您使用谷歌Chrome浏览器。 点击下载Chrome浏览器
关闭