7纳米制程+ 20倍AI计算能力提升!

[转播] 5月14日晚,NVIDIA发布了其下一代放大器GPU架构

第一个使用Ampere的GPU将是为科学计算,云图形和数据分析而构建的Nvidia A100

尽管有很多关于Nvidia的Ampere计划推出的GeForce“ RTX3080”的传言,但A100将主要用于数据中心

在全球流行病和云计算需求激增之际,Nvidia正在启动最新的数据中心

Nvidia首席执行官黄仁勋在新闻发布会上说,新的皇冠流行是“非常悲惨的”,并指出“云服务的使用将激增”

“这些变化对我们的数据中心业务非常有利

我希望AMP表现出色

这是我们历史上最好的数据中心GPU,它利用了近十年的数据中心经验

” A100拥有超过540亿个晶体管

晶体管是世界上最大的7纳米处理器

Huang解释说:“这基本上是当今半导体制造可以达到的理论极限,而且它也是世界上最大,世界上最大的计算引擎晶体管

” Nvidia正在增强其Tensor核心,以使开发人员更易于使用

A100还包括19.5万亿个浮点运算,6912​​个CUDA内核,40GB内存和1.6TB / s的内存带宽

但是,所有这些功能均不支持最新版本的刺客信条

Nvidia将这些GPU组合成一个叠加的AI系统,该系统将为全球数据中心的超级计算机提供动力

就像Nvidia使用其先前的Volta架构来制造TeslaV100和DGX系统一样,新的DGXA100AI系统将八个A100GPU合并为一个巨型GPU

DGXA100系统中的8台A100保证了5万亿PB的性能,并将它们与Nvidia的第三代NVLink系统结合在一起

结合这8个GPU意味着320GB的GPU内存和12.4TB / s的内存带宽

Nvidia还包括15TB的第四代NVMe内存,以支持AI训练任务

使用DGXA100系统的研究人员和科学家甚至可以将工作负载划分为多达56个实例,从而在功能强大的GPU上分配较小的任务

Nvidia最近以69亿美元收购服务器网络提供商Mellanox的工作也在进行中,因为DGXA100包括9个200Gb / s网络接口和每秒总计3.6Tb / s双向带宽

随着现代数据中心适应日益多样化的工作负载,Mellanox的技术将对Nvidia变得越来越重要

黄仁勋将Mellanox描述为下一代数据中心中最重要的“连接组织”

“如果看一下现代数据中心的体系结构,您会发现它们将要完成的工作负载将比以往任何时候都更加多样化

” Huang解释说:“我们未来的方法不仅是专注于服务器本身,而是将整个数据中心视为一个计算单元

在未来,我相信世界将把数据中心视为一个计算单元

我们将考虑数据中心规模的计算

不再只是个人计算机或服务器,我们将在数据中心规模上运行

“ Nvidia的DGXA100系统已经发布发售,其中包括第一批用于COVID-19研究的应用程序在美国阿贡国家实验室进行

“我们正在使用美国最强大的超级计算机来对抗COVID-19,并使用最新的可用技术(例如NvidiaDGXA100)来运行AI模型和仿真,”阿贡大学计算,环境与生命科学副主任里克·史蒂文斯(Rick Stevens)实验室(RickStevens)说:“将在阿贡(Argonne)上市的新DGXA100系统的计算能力将帮助研究人员探索治疗方法和疫苗,研究病毒的传播,从而使科学家能够在数月或数天内完成数年的加速AI工作

” NVIDIA表示,微软,亚马逊,谷歌,戴尔,阿里巴巴和许多其他大型云服务提供商也计划将单个A100GPU集成到其产品中

黄说:“安培对全世界所有超级计算机制造商和计算机制造商的采用和热情是前所未有的

” “这是我们迄今为止推出的最快的新数据中心体系结构版本,也是可以理解的

”与较大的DGXA100集群系统一样,Nvidia还允许将每个单独的A100GPU划分为多达7个独立的实例,以执行较小的计算任务

但是,这些系统并不便宜

Nvidia的DGXA100具有出色的性能承诺,但是像其中的8枚A100芯片这样的组合系统起价为199,000美元

目前尚不清楚Nvidia如何直接将放大器开发到消费类GPU中

英伟达已经推出了专用人工智能处理器(张量核心)的Volta架构,这与AMP的发布非常相似

但是,Volta并没有继续为Nvidia的GeForce消费产品线提供动力

研究所

Author: