雷锋网按,本文分析了目前AI芯片市场的情况,以及NVIDIA在这一市场的领先地位。不过,随着芯片巨头在AI芯片领域有了新的进展,NVIDIA将会面临更多的挑战,2019年AI芯片市场会如何?
作者将会分三部分进行介绍,本文是第一部分。
NVIDIA的领先优势
过去的五年,NVIDIA在数据中心领域成为了规模数十亿美元的巨头,并且没有一次面对持续且非常强劲的对手,这是一个令人惊讶的事实。NVIDIA快速增长的动力来自人工智能(AI)和高性能计算(HPC)对GPU芯片的需求。NVIDIA首席执行官Jensen Huang喜欢谈论深度学习的“寒武纪爆炸”,指的是神经网络算法的快速迭代。
目前,我们处于AI芯片爆发的门口,全球许多大型和小型公司都加入其中。三年前,芯片创业公司几乎不可能获得风险投资,现在,有数十家资金充足的挑战者在研发AI芯片。
去年,NVIDIA和 IBM为世界上最快的超级计算机提供芯片(据称其中95%的性能归功于NVIDIA的Volta GPU)。虽然这是一项令人难以置信的成就,但许多人开始怀疑NVIDIA的辉煌能否持续。
在最新报告季度,NVIDIA数据中心收入同比增长58%至7.92亿美元,占公司总收入的近25%。过去的四个季度总营收达到28.6亿美元。如果能够保持这种增长趋势,2019年数据中心营收或达到约45亿美元。
毫无疑问,NVIDIA以其强大的可扩展架构为动力打造出受欢迎的产品。NVIDIA现在拥有一个强大且持续更新的软件,高校、初创公司和合作伙伴使其成为由其新创建的生态的主导者。有些人会认为这个生态系统是坚固的护城河,但暴风云正在出现。潜在的威胁来自英特尔,谷歌,AMD以及数十家美国和中国的初创公司。
目前为止,在我看来,大部分竞争者都“火力不足”。因为我非常有信心除了谷歌,其它挑战者都没有抢夺了NVIDIA的市场份额。让我们来看看目前的竞争格局,2019年将会变得非常有趣。
重磅的竞争者
根据纽约时报的统计,有超过40家创业公司进入AI芯片领域,但实际情况是,只有少数公司能在这个市场上取得真正的成功(比如收入超过10亿美元)。对于深度神经网络(DNN)的训练,鉴于其产品的实力,市场占有率和生态系统,NVIDIA难以被击败。然而,目前市场规模还小的推理芯片市场最终将超过训练市场。
与训练不同,推理不是单一的市场。推理包含了云端和终端,每一种应用对深度学习算法、性能、功耗和延迟都有特定的要求。另外,在推理市场还没有绝对的领导者,即便NVIDIA声称在汽车市场拥有领导地位。
出于这些原因,推断市场是大多数新进入者主要或最初关注的方向。让我们来看看重磅的竞争者。
谷歌
谷歌是最早推出专用芯片(ASIC)的公司之一,然而谷歌可能是NVIDIA最大的客户之一。谷歌的“Tensor Processing Units”(TPU)芯片已经更新至第三代,可以加速云端的深度学习训练,最近还可以加速推理处理。据悉,用于训练和处理DNN的Google TPU的性能相当稳定,单芯片每秒性能可达45 TOPS。相比之下,NVIDIA的Volta性能最高可达125 TOPS。第一批TPU只供内部使用,现在谷歌将它们作为服务提供给Google Compute Cloud的客户。
虽然TPU会对谷歌的人工智能的发展产生影响,但除了内部的,对外的服务(这是一个相当大的市场)是故意限制的。TPU只能用于培训和运行Google TensorFlow框架,无法使用它来训练或运行使用Apache MxNet或PyTorch构建的AI,PyTorch框架的重要推动者是Facebook 和微软。TPU也不能用于非AI HPC应用,这一领域GPU占据绝对主导地位。
此外,TPU也不向企业或政府的数据中心出售。但谷歌对此表示满意,因为它将TPU和TensorFlow视为其全面的AI领导力战略。针对硬件的软件优化,可以构建强大而耐用的平台。
TPU更直接的影响可能是验证ASIC可以作为GPU的替代品,至少对潜在投资者而言如此。深度学习芯片初创公司的首席执行官表示,一旦谷歌宣布其TPU,风险资本就开始寻找投资目标,他随后获得了数亿美元投资。
谷歌一直擅长从NVIDIA的GPU技术大会(通常在三月份)的可预测信息中窃取一些引人注意的信息,如果今年谷歌发布性能强大的7nm TPU,对比我不会感到惊讶。
亚马逊也在去年秋天宣布,正在为推理处理研发ASIC。但是,该芯片仍在开发中。
英特尔
英特尔是非常重磅的玩家,虽然该公司打算使用Nervana芯片在2019年参与人工智能训练和推理的竞争,但它意识到推理将是更大的市场,并且拥有非常强大的实力。
除了Xeon CPU(最近更新后,推理性能得到显着提升),该公司还分别收购了MobileEye和Movidius,用于汽车和嵌入式推理。我已经看过这两种设备的演示,它们的确令人印象深刻。英特尔还推出了OpenVino软件工具包,它允许开发人员在任何地方进行训练,然后在英特尔处理器上进行优化和运行。
CES 2019上,英特尔透露正在与Facebook密切合作准备推出Nervana神经网络处理器(NNP-I),因为许多人猜测Facebook正在开发自己AI加速器。与此同时,英特尔副总裁兼AI产品总经理Naveen Rao在 Twitter上分享,NNP-I是采用英特尔10nm的SoC,并采用IceLake x86内核。
对于训练,英特尔最初的计划在收购Nervana一年的2017年宣布“Lake Crest”Nervana NNP。之后推迟到2018年,然后,公司决定重新开始。这可能是因为英特尔意识到第一款Nervana设备不足以大幅超越NVIDIA。
高通和苹果
为了完整性,我将高通和苹果也包括在内,因为它们都提供了令人印象深刻的手机人工智能功能(高通也布局IoT和自动驾驶汽车)。苹果专注于iPhone A系列CPU和用于手机AI的iOS操作系统支持。随着移动平台成为语音和图像AI推理的主要平台,这两个玩家拥有大量可用于建立领导力的IP(尽管华为我们也非常努力地推动人工智能。)
AMD
过去三年,AMD一直在努力让AI的软件正常运转。当我2015年在那里工作时,如果没有启动Windows,你甚至无法在Linux服务器上运行GPU。从那时起,AMD进行了很多工作,ROCm软件和编译器简化了CUDA的迁移,并且在其芯片上加速数学库MlOpen(不要与OpenML混淆)。然而,目前AMD的GPU仍然至少落后NVIDIA V100产品一代,而V100推出已经接近两年了。
AMD是否有能力在7nm上与NVIDIA TensorCores竞争,还有待观察。AMD可能会决定更多地关注推理市场,可能推出自动驾驶汽车平台,类似NVIDIA Xavier SoC,时间会证明。
赛灵思
Xilinx 的FPGA在2018年表现出色,除了宣布其7nm的下一代架构外,还与微软、百度 、亚马逊、阿里巴巴、戴姆勒-奔驰等合作伙伴达成合作。在AI推理中,FPGA具有优于ASIC的优势,因为FPGA可以针对特定的应用进行即时重新配置。当基础技术快速变化时,这很重要,就像AI一样。
例如,微软展示了其FPGA(来自赛灵思和英特尔)如何在深度神经网络中对特定层,可以使用1bit,3bit或其它精度的数据。这可以大大加快处理速度,并减少延迟,同时降低功率。此外,即将推出的Xilinx 7nm芯片称为Versal,具有AI和DSP引擎,可加速特定应用程序处理以及自适应逻辑阵列。Versal将在今年的某个时候开出货,我认为这可能是推理处理的改变者。
雷锋网编译 via forbes 雷锋网