信息时代从计算机时代、互联网时代走向大数据时代,时代变迁的背后是数字化、网络化和智能化的发展。处理器作为信息时代向前发展的最基础的动力,新的时代有不同的需求。英特尔作为PC处理器霸主,面对新的时代的挑战以及来自英伟达和AMD更加激烈的竞争,在去年八月提出了以数据为中心的策略。
英特尔以数据为中心的策略是否奏效以及最大的优势在哪?国内重要的云计算厂商BATJ对英特尔数据中心产品的评价如何?他们共同的观点是什么?
为什么要以数据为中心?
英特尔以数据为中心策略的提出一个最重要的依据是这一市场的潜力。根据IDC的预测,2015年到2025年,数据将以每年25%的速度增长。这意味着,未来十年每三年数据量就会翻倍。数据如此快速地增长,主要是因为数据的产生将不仅仅来自人类,越来越多的设备将产生更多数据。
以往数据产生的数据只需要采集和传输,伴随着数据的增多,需要对数据进行更多的分析处理,才能发挥数据的价值。当然,数据的处理方式也在变化,传统的冯诺依曼处理器正面临越来越大的挑战,量子计算、神经拟态计算的研究引发了越来越多的关注。还有,数据的类型从以前的文本、图像的结构化数据转变为来自神经网络数据、联网汽车、基因数据等的不规则维度和定制类型数据。
显然,大数据时代最重要的就是解决数据的处理、存储、传输的问题。因此我们看到,英特尔提出了六大技术战略,分别是制程和封装、XPU架构、内存和存储、互连、安全、软件。这六大技术战略既是基于已有的技术和产品,也涵盖即将推出的新产品。这些最终也成为了英特尔在数据时代或者说目前的计算市场的一个优势。
在此次举行的媒体研讨会上,英特尔亚太研发中心的专家表示,英特尔团队和中国的云计算厂商有6年的深入合作,这些厂商包括腾讯、阿里、百度、京东、头条等,他们在与英特尔合作时都会提到一点,和其他的厂商相比,英特尔有全面的技术。
全面是否意味着优势?
虽然英特尔全面的技术得到了云计算厂商们的认可,但全面的技术和产品并不等同于竞争优势,每一个产品的竞争力以及产品的协同才是最终竞争优势的体现。我们分别来看英特尔在六大技术方面是否具备优势。
制程不占优势但封装优势已经体现
首先需要关注的是制程,先进的制程是提升算力最为直接有效的方式。在制程的领导力上,英特尔目前并不占据优势。经历了多次的延期,英特尔在本月宣布将于 2019 年推出 10nm 芯片,并将在2021 年生产并推出一款 7nm GPU。
不过需要指出的是,如今的工艺制程的数字早已不再代表实际的晶体管尺寸,带入了更多的营销的目的,因此英特尔的10nm并不一定比台积电已经量产的7nm性能表现弱,我们需要看最终产品的性能。
英特尔在封装方面的优势则已经体现出来,二代基于Hyperflex异构核封装的FPGA,性能相比前一代会提高40%,功耗降低40%。接下来,英特尔还将用其超异构架构发挥其在封装方面的优势。
全面的处理器类型
处理器的竞争力架构非常关键,特别是目前AI发展的早期需要丰富的处理器类型。英特尔以CPU被熟知,如今借助收购已经拥有了FPGA、自动驾驶专用处理器、神经网络处理器,明年还将推出自主研发的独立GPU Xe。
先看CPU,英特尔2017年推出的第一代至强可扩展处理器已经广泛应用于云计算市场。今年4月,第二代至强处理器推出,进行了全面的提升。简单来说,增加了对英特尔傲腾数据中心级持久内存的支持,同时增加了深度学习加速功能,还增加了Speed Select技术,还针对不同的产品推出特别优化的型号。另外,对于近来频频引发关注的安全问题,第二代至强可扩展处理器增加了硬件解决方案,避免以前通过软件解决带来的性能影响。
根据英特尔给出的数据,第二代9200系列至强可扩展处理器相比上一代8180整体性能提升2倍左右,AI性能提升3.5倍。新一代8280和上一代8180相比整体提升在百分之三到六左右。
在第二代至强处理器的众多升级中,雷锋网认为需要特别关注的是第二代至强更加丰富的特殊优化的系列产品,包括支持Speed Select技术的“Y”系列、专为虚拟机密度值推出的“V”系列,对搜索算法和业务特点优化的“S”系列,可以承受更高温度,可靠性更高寿命可达10年的“T”系列,还有专为网络边缘设计的集成外设网络和I/O等的至强D-1600。
作为深耕技术和了解市场的英特尔,这几个系列第二代至强可扩展处理器的推出意味着目前这些市场有着强烈的需求,这也将是英特尔能否在这些市场以及数据中心市场实现领先的关键之一。
FPGA方面英特尔即将推出的是基于10nm Agilex,具备三大特性:高性能、先进3D封装、支持开发人员。其中特别需要指出的是CXL缓存一致性加速,这个技术可以直接访问CPU的内存,而不需要通过PCIE进行映射。I/O方面支持更大的带宽,收发器带宽可以从上一代的56G提升到最大112G,更大的带宽是数据时代重要的特性。
另外一个值得注意的是英特尔称之为eASIC的技术,这是介于FPGA和ASIC之间,可以使硅片和功耗差不多降低为原来的一半。
突破性内存技术
处理器性能的不断增长让更多人发现数据存储也是一个非常关键的问题,在处理器内部,除了架构方面的革新,片上网络等都是解决处理器内部处理性能与数据读取速度不匹配问题方法。
英特尔数据中心事业的首席工程师表示,数据爆炸式增长带来的挑战是如何有效地处理数据。如果数据放在存储介质上是无法处理的,因为数据处理都在内存上处理的。通常计算机架构当中,热数据是存在DRAM当中,冷数据是存在不同速度的存储介质当中。据了解,DRAM的延迟大概是100纳秒,SSD的延迟在100微秒左右,如果容量很大甚至会达到毫秒级的延迟。因此,如果想挖掘数据的价值就需要解决这个问题。
针对该挑战,英特尔拥有一个创新介质叫3D Xpoint,基于该介质有SSD和内存产品。其中,傲腾数据中心级持久内存可以被认为是一个新物种。首先它拥有内存级的延迟,但掉电内存的数据不会失去,相对来说它打破了传统内存和存储的边界,比传统的DDR内存大很多的前提下,可以大大提升编程的模型,提升业务运行的性能。
不仅如此,傲腾数据中心级持久内存有两种工作模式,直接访问模式和内存模式,前者的特点是内存的访问直接可见,应用程序可以直接优化,内存模式只用到了大容量的特点。由于是一种新的介质,读写寿命的问题不用担心。但这不是替代DRAM的产品,用户对于保留DRAM和同时使用新介质的接受程度也比较高。
基于3D XPoint介质的更新的SSD固态硬盘,这种固态性盘相比传统基于NAND的固态硬盘延迟更低,防御性能会更高。
连接让数据传输更快
数据的处理和存储问题解决后,数据的传输问题也需要解决。英特尔在数据传输方面的专家表示,数据在进行大规模部署时,面临的可预测性挑战包括抖动性和数据的延迟,以及响应时间。
英特尔将在今年第三季度发布的下一代以太网100G产品主要有两个创新技术。第一个是ADQ,它针对特定的工作量提升应用性能,减抖动和延时,提高带宽。另外一个是DDP,在800系列产品当中,整个流水线的编程能力都支持,又通过相应的接口和工具来实现。
随着现在数据中心的发展,特别是5G技术的发展,产生的数据是爆炸性的增长,英特尔的目标是要把数据传输得更快,也就是说DDP和ADQ最主要的目的就是让数据传输得更快。
另据了解,英特尔还有基于硅光技术的互连产品,以及基于高性能运算、低延迟网络的OMNI-PATH的物联网络。
软件的重要性更加突显
虽然上面我们一直在强调硬件产品的重要性,但在大数据和AI时代,软件以及软硬一体的能够发挥的潜力正越来越明显。据介绍,英特尔已经上市的SkyLake架构产品,通过不断的硬件软件调优,在某些应用上,SkyLake的性能提高了275倍。
另外一个例子是第二代至强可扩展处理器。至强9200系列与其它厂商的同级别产品对比(基于第三方公开评测数据),整体性能提升从1.4倍到最高的25倍,而这25倍提升很重要的原因就是英特尔在软件优化。
另外,在与ISV的合作中,在AI方面,通过软件方面的调优,可以最大化地应用到英特尔的架构,AI推理方面的性能提升非常巨大。AI性能的提升关键的一点是指令集。通过增加针对推理任务场景加速的英特尔DL Boost指令集,这个指令集已经对主流开源框架进行了优化设计,在使用第二代至强可扩展处理器时,如果数据是FP32的精度,AI性能可以提升3-4倍,如果采用Int8数据类型,经过优化后AI性能也可以获得2倍性能提升。
英特尔FPGA产品线当中最新的一个产品家族Stratix 10也提现了软件的价值,英特尔提供了一套针对深度学习的计算开发库DLA,这个工具库的优点是比较快的让AI的开发者,AI的软件设计者利用他对C++这种语言的熟悉能力,直接编写FPGA的软件应用。
为了更好地发挥软件的优势,兼具简便和可扩展、开放性和提供统一的开发体验,英特尔有个内部项目oneAPI,该项目将在今年第四季度交付。
雷锋网小结
面对大数据时代,谷歌要AI First,国内的互联网巨头们向产业互联网转型,英特尔去年八月提出以数据为中心的策略。但是,想要挖掘数据真正的价值,处理器只是最基础的,数据存储、传输、安全、软件都缺一不可,相比其他芯片巨头,英特尔的特点是拥有全面的产品线,这也是BATJ与英特尔合作直接感受到的。但真正能发挥全面产品线优势的,是不断创新的技术以及更好的整合,我们看到英特尔已经在各个领域有了不同程度的创新,并且想要通过oneAPI实现很好的整合,市场的接受度最终如何?拭目以待。雷锋网
相关文章: