为了保持在人工智能(AI)领域的领先地位,Nvidia周二推出了一种新的计算架构。Nvidia首席执行官Jensen Huang(黄仁勋)在GTC Taiwan 2018大会上宣布推出HGX-2云服务器平台,这是第一款人工智能和高性能计算(HPC)的统一平台。
“我们相信未来需要一个AI和高性能计算平台的统一平台。”Nvidia加速计算部产品营销经理Paresh Kharya在周二的新闻发布会上表示。
黄仁勋在GTC Taiwan 2018大会上宣布推出HGX-2云服务器平台
Moor Insights&Strategy的高级分析师Karl Freund也告诉SiliconANGLE,“我认为人工智能将使HPC发生革命性变化 ,很多超级计算中心都很有可能部署HGX-2,因为它可以为HPC和AI增加强大的计算能力。”
更具体地说,这种新的架构可以实现包括科学计算和模拟在内的应用,如天气预报,以及AI模型(如深度学习神经网络)的训练和运行,用于诸如图像和语音识别以及自动驾驶汽车的导航。 Kharya说:“这些模型正在以前所未有的速度更新,有时甚至每小时更新一次。”
NvidiaHGX-2云服务器平台
HGX架构由Nvidia的GPU提供动力,该架构的第一个版本HGX-1于一年前宣布。该架构为微软的 Project Olympus,Facebook的 Big Basin系统和Nvidia自己的 DGX-1 AI超级计算机以及服务中使用的数据中心设计,如亚马逊AWS。
本质上,HGX-2由Nvidia的16个高端V100 GPU组成,运用了Nvidia NVSwitch互联结构,16个GPU完全连接,作为一个整体来使用。速度可达2 PFLOPS。
另据雷锋网了解,HGX-2作为云服务器平台,具备多精度计算能力,支持面向科学计算和模拟的高精度FP64和FP32计算,也支持AI训练和推理所用的FP16和INT8精度。HGX-2执行AI训练的速度,在ResNet-50基准上达到了每秒15500张图片,相当于300台只装了CPU的服务器。
“基本上,开发者现在可以将HGX看作有16个GPU计算资源非常强大的池子。”Freund解释说。对于想要生产HPC和AI通用的最先进系统的厂商来说,HGX-2是一个组件。
Nvidia今天也表示,最近宣布的DGX-2 AI超级计算机是第一个使用HGX-2的系统,它将在第三季度销售,售价399,000美元,黄仁勋在会议主旨演讲的直播中开玩笑说,“买得越多,省得越多”,尽管他似乎也是这样认为的。
Nvidia已经推出的服务器将CPU与GPU混合在一起,用于人工智能训练、推理或模型运行以及超级计算的优化配置。Kharya试图将HGX架构定位为类似于英特尔和微软开发的ATX个人电脑主板配置标准,这导致许多公司制造的兼容系统组件爆炸式增长。
在周二宣布计划建造HGX-2系统的公司中,包括服务器制造商联想、广达云(QCT),超微电脑和纬颖(Wiwynn)将在今年晚些时候推出HGX-2系统。另外,黄仁勋表示NVIDIA 正式启动全球顶尖 ODM 伙伴合作计划鸿海精密,英业达,广达电脑和纬创这些全球设计生产大厂都将成为合作伙伴,加速因应 AI 云端运算的各种需求。
雷锋网也了解到,英特尔也正加紧努力扩大其在AI计算方面的业务,上周有消息称英特尔计划在2019年底推出一款用于神经网络的芯片,该芯片旨在更快地构建AI模型。英特尔人工智能集团负责人Naveen Rao对NVIDIA进行了抨击,称其GPU比英特尔最新的Xeon中央处理器快得多是一个“神话”。
雷锋网编译,via SiliconANGLE
现在关注“雷锋网”微信公众号(leiphone-sz),回复关键词【2018】,随机抽送价值 3999 元的参会门票 3 张
相关文章: