高性能计算与人工智能融合
时间:2022-04-12 19:09:01 | 来源:行业动态
时间:2022-04-12 19:09:01 来源:行业动态
人工智能在高性能计算中的应用能帮助研究人员加快模拟速度,同时保持传统模拟方法的准确性。
为此,越来越多的研究人员开始利用人工智能来加快研究的速度,比如今年超算领域最有声望的戈登贝尔奖(Gordon Bell prize
)决赛的四组晋级团队。各大企业正在竞相建造E级人工智能计算机,以支持这种融合高性能计算和人工智能的新模式。
一些相对较新的基准(如HPL-AI和MLPerf HPC)也印证了这一趋势,强调了高性能计算和AI工作负载的持续融合。
为推动这一趋势,上周NVIDIA推出了一系列用于高性能计算的先进的新的库和软件开发工具套件。
图是现代数据科学中的一个关键数据结构。通过一个名为深度图库(DGL)的新型Python包,用户现在可以把图投影到深度神经网络框架中。
NVIDIA Modulus构建并训练了一个内嵌物理信息的机器学习模型,可以用来学习并遵循物理定律。
NVIDIA推出了三个新库:
- ReOpt 可提高规模高达10万亿美元的物流行业的运营效率。
- cuQuantum 可加速量子计算研究。
- cuNumeric 为Python社区的科学家、数据科学家、机器学习和人工智能研究人员加速NumPy。
NVIDIA的虚拟世界模拟和3D工作流协作平台NVIDIA Omniverse负责把一切整合到一起。
Omniverse可用来模拟仓库、工厂、物理和生物系统、5G边缘、机器人、自动驾驶汽车甚至是虚拟形象的数字孪生。
NVIDIA上周宣布,将利用Omniverse构建一台名为Earth-2的超级计算机,通过创建一个数字孪生地球来预测气候变化。