谷歌设计了用于驱动深层神经网络的计算机芯片,深层神经网络的人工智能技术重新发明了互联网服务运营方式。
美国时间18号上午,在谷歌I/O 2016,CEO桑德尔·皮蔡(Sundar Pichai)表示,谷歌设计了一个ASIC(Application Specific Integrated Circuits:专用集成电路),专门针对深层神经网络。这些硬件和软件的网络,可以通过分析大量的数据学习特定任务。谷歌使用神经网络来识别照片里的物体和面孔、理解你对Android手机说出的命令、或者翻译语言文本。该技术甚至开始改变谷歌的搜索引擎。
谷歌将其芯片称为张量处理单元(Tensor Processing Unit:简称TPU),因为它支撑着TensorFlow(研发的第二代人工智能学习系统),软件引擎驱动其深度学习服务。
去年秋天,谷歌发布了TensorFlow的开放源代码许可证,这意味着公司之外的任何人都可以使用,甚至修改这个软件引擎。谷歌不会共享其设计的TPU,但外人可以通过不同的谷歌云服务利用其机器学习硬件和软件。
谷歌只是将深度学习加入到广泛的互联网服务的众多公司之一,还有Facebook、微软和Twitter。通常,这些互联网巨头推动他们的神经网络与图形处理单元,或GPU,如芯片制造商NVIDIA。但包括微软在内的一些公司,也正在探索现场可编程门阵列(field programmable gate arrays:简称FPGA),可以编程为特定任务的芯片。据谷歌所说,驱动在线服务的数据中心内部的海量硬件机架,TPU板就像硬盘驱动器一样安装到相同的插槽,对比其他的硬件,它提供了“一系列每瓦数量级更好的优化性能的机器学习”解决方案。“TPU是专为机器学习应用而设,让芯片更加兼容的减少计算精度,这意味着每个操作它需要的晶体管更少。”谷歌在博客文章中发布。 “正因为如此,我们可以把每秒的操作更多地集成硅,使用更复杂和强大的机器学习模型,更快速地应用这些模型,让用户更为迅速获得更智能的结果。”
这意味着,除其他事项外,谷歌使用芯片的方式不像Nvidia,也不像其他公司使用更少的芯片。同时我们还可以看出,谷歌希望打造自己的芯片,对芯片制造商来说是个坏消息,特别是世界上最大的:英特尔。英特尔处理器驱动着谷歌内部庞大的计算机服务器,而英特尔的烦恼在于,谷歌有一天会设计自己的中央处理器。
via wired