资讯 芯片设计
此为临时链接,仅用于文章预览,将在时失效

DPU在数据中心“上位”

作者:包永刚
2021/06/18 17:52

AI、5G、云计算技术的发展已经开始改变世界,数据中心作为承载这些技术,支撑数字化转型的重要载体,面临着众多挑战。这其中,已有的通用CPU和GPU不能完全满足快速变化的应用需求,性能更强大,更加专用,更加异构的芯片更能满足数据中心需求。

DPU在数据中心“上位”

芯片巨头们都看到了这样的需求和趋势,通过收购或者自研拥有了更全面的芯片类型。雷锋网此前介绍过,在数据中心占有优势的英伟达先是在去年十月发布了首代DPU BlueField-2。今年4月,英伟达首席执行官黄仁勋在GTC 21上又宣布英伟达数据中心芯片战略升级为GPU+CPU+DPU,三类芯片,逐年飞跃,自研Arm架构CPU Grace也同时亮相。

DPU(Data Processing Unit)作为一个不被大部分人所熟知的芯片类型,其价值是什么?为什么DPU能在数据中心“上位”?数据中心的未来为什么是3U一体?

DPU的双重价值

了解DPU的价值之前,先解释为什么需要DPU。黄仁勋此前发布DPU时表示,当下的数据中心是由软件定义的,这使得数据中心更加灵活的同时,也产生了巨大的负担,数据中心基础架构的运行能够消耗20%-30%的CPU核,因此需要一种新的处理器,也就是DPU。

或者说,以CPU为中心的数据中心架构已经不能满足需求,以数据为中心才能更好满足市场和应用需求。英伟达网络事业部亚太区市场开发高级总监宋庆春在本周的一场沟通会中表示:“以前计算规模和数据量没那么大,冯诺依曼架构很好地解决了提高计算性能的问题,随着数据量越来越大,以及AI技术的发展,传统的计算模型会造成网络拥塞,继续提升数据中心的性能面临挑战。”

DPU在数据中心“上位”

以数据为中心的架构,意味着数据在哪计算就在哪。宋庆春指出,以数据为中心的新架构可以解决网络传输中的瓶颈问题或丢包问题,典型通信延时可以从30-40微秒降低到3-4秒,有10倍的性能提升。

更具体地说,英伟达DPU属于SoC,集三个关键要素于一身:

也就是说,DPU能针对安全、网络、存储、AI、HPC等业务进行加速,这是DPU的第一层价值。而DPU的第二层价值在于为以数据为中心的计算架构提供了创新的思路,能够实现以前难以或无法实现的功能。

以前的数据中心所有操作都由CPU完成,不仅需要很多CPU内核,效率也很低。如果将一些操作,比如OVS(Open vSwitch,是分布式虚拟多层交换机的开源实现)卸载到DPU上运行,不仅可以提升效率,减少CPU的利用率,还能实现业务的隔离。

DPU在数据中心“上位”

宋庆春举了两个例子,在云场景下,英伟达和VMWare共同开发了Monterey项目,VMWare把它在Hypervisor里的一些功能卸载到DPU上,比如防火墙、存储、管理等,这样把业务和基础设施操作完全隔离,实现了高安全性,也实现了裸金属的业务性能。

“这是VMWare第一次把他的源代码开放给合作伙伴,共同开发基于VMWare企业级的云解决方案。”宋庆春强调。

另一个例子是英伟达与RedHat的合作。RedHat不管在数据中心运行容器还是虚拟化,即便使用所有的CPU核来运行虚拟化或容器,也没有办法达到100G线速。这时,采用DPU运行Hypervisor、OVS或容器操作,可以在不消耗任何CPU的情况下以实现100G甚至200G全线速,并将CPU资源全部提供给业务。

DPU能带来多少提升?

“我们最开始选择DPU,是因为遇到了传统服务器带宽瓶颈,我们想解决网络性能瓶颈的问题,也想降低成本。”UCloud技术专家马彦青进表示,“双方最开始都有相同的认知,那就是DPU可以实现硬件的卸载,软件和硬件的结合会成为未来的趋势。”

借助DPU和与之匹配的软件栈DOCA,UCloud实现了一系列的数据中心性能提升。

马彦青介绍,UCloud原先的网络架构使用的是VPC网关,作为裸金属服务器之间的VPC之间划分的方法,需要很多网关服务器集群来进行管理,集群服务器本身就带来了成本挑战(大概4-8台服务器是一个小集群),当跨网关的时候会有带宽瓶颈。有了DPU就可以将VPC管理集成到DPU内部,包括OVS包转发以及GRE封装都可以通过DPU硬件实现,大幅提高转发效率。原来10G的网卡升级到25G后,性能也大大提升。

这样的改进得到了客户的认可。“有DPU的解决方案已经在一些大数据、金融、数据库、容器云等业务中使用,他们的反馈非常好。比如一家做大数据业务的公司,VPC集群砍掉后,进行N对N数据计算,带宽和性能都有提升,维护成本也降低了。还有一家金融客户,采用原先的VPC架构,需要为他们部署四台服务器,这会造成资源浪费,有了DPU,几张卡就可以替代四台服务器。”

DPU在数据中心“上位”

数据中心的存储也受益于DPU。过去,UCloud使用本地盘来存储,缺点是容易出现坏盘或者掉卡,维护非常麻烦,数据丢失想要恢复也非常困难。在新架构里,UCloud采用RSSD云盘作为后端存储机群,核心是基于DPU的NVMe SNAP功能,实现了计算和存储的解耦。解耦的优势包括用户可以免装机,实现分钟级交付,运维也减少了机型,磁盘可以按需使用,能够快速实现故障迁移,三副本也更加安全可靠。

DPU还让数据中心的安全性有显著提升。据介绍,过去数据中心经常使用CPU运行Hyperscan做深度包检测的政策表达式匹配。“借助BlueField-2,我们测试相比软件的Hyperscan有3.5倍的加速。”马彦青同时介绍,“加解密方面,DPU卡也可以对SSL、TLS进行加解密。IPSec的算法也可以实现硬件的卸载,把CPU的算力释放出来。”

DPU在数据中心“上位”

UCloud的最终极的目标,是实现一张卡实现虚拟化和裸金属架构的统一。他们还在基于InfiniBand网络的DPU,探索如何加速AI和高性能计算。

DPU在数据中心“上位”

DPU在数据中心上位的关键

数据中心和云服务提供商实现更多探索,发挥DPU价值的基础是英伟达DPU硬件的持续提升,以及DOCA软件栈的不断完善。根据英伟达的路线图,下一代DPU BlueField-4预计在2023年发布,将会是业界首个800G的DPU,也会集成GPU。

DPU在数据中心“上位”

DOCA是专为DPU开发的软件包,就像CUDA对英伟达GPU的价值。DOCA通过软件定义,可以调用DPU里的硬件引擎,实现安全、网络、存储等性能的提升。

DPU在数据中心“上位”

DOCA的软件栈一层是Driver和Runtime,主要进行调度硬件加速引擎。一层是DOCA Library,主要是针对业务提供接口。还有DPU管理对接上层,比如做编排(Orchestration)和服务部署(Provisioning)的时候使用DPU管理进行调用。

DPU在数据中心“上位”

目前,DOCA 1.0正式版已经发布。

“我认为,云计算市场是DPU很好的突破点,能够解决合作伙伴遇到的瓶颈问题,让他们能够更加高效、安全、低时延的提供服务。” 宋庆春对雷锋网表示,“云原生超级计算机也应该会很快应用到DPU市场。因为随着超级计算的发展、算力已经变成了服务,如何提供一种安全的算力服务,DPU在这里面就会扮演非常的角色。最终,DPU也会在基础设施、数据中心、通信等领域成为一个核心部件。

DPU在数据中心“上位”

当然,DPU的出现并非要替代CPU和GPU,而是更好地满足数据中心市场的需求。“3U(CPU、GPU、DPU)一体的架构将会让管理程序、调度程序都会变得非常容易。3U一体是要实现从边缘到核心数据中心,统一架构、统一管理、统一调度。”

想要通过3U一体满足数据中心等需求的不止英伟达,英特尔本周也发布了与DPU定位类似的IPU(Infrastructure Processing Unit),趋势已经非常明显,最终会带来哪些变革?

注:文中配图来自英伟达、UCloud 雷锋网

相关文章:

英伟达DPU计算吞吐量三年将跨越近1000倍!Jetson AI机器人价格低至59美元

英伟达最终活成了“三芯”

长按图片保存图片,分享给好友或朋友圈

DPU在数据中心“上位”

扫码查看文章

正在生成分享图...

取消
相关文章