9月9日,在第五届深圳国际人工智能展(GAIE)第二届智能算力发展论坛上,中昊芯英(杭州)科技有限公司(以下简称“中昊芯英”)与中国联合网络通信有限公司深圳市分公司(以下筒称“深圳联通”)联合举办了“智算基建,加速未来”高性能 AI 智算中心项目启动仪式,标志着双方将携手合作共同建设广东地区首个采用国产 TPU 技术的智算中心。
据深圳联通副总经理赵桂标介绍,“项目一期由32个算力节点通过高效互联构建而成,整体算力不低于50P,后期将扩容至千卡规模,形成训推一体化的枢纽,成为中国联通在深圳的核心智算高地的重要组成部分。”
谈及合作共建智算中心的具体布局,他进一步表示,“中国联通以国家智算能力布局要求和市场实际需求为牵引,根据‘规划先行、市场驱动、适度超前、小步快跑’原则统筹规划构建中国联通智算体系,构建形成‘1+N+X’智算能梯次布局。”
优势互补,提升算力利用率
此次中昊芯英与深圳联通的合作,是基于双方在各自领域的深厚积累与优势互补。
据了解,中吴芯英作为国内领先的 TPU 架构 AI 芯片企业,此次提供了搭载其自主研发的高性能 TPU 芯片“刹那®”的人工智能服务器及大规模 AI 计算集群系统“泰则®”,为项目搭建坚实的AI 计算底座。
深圳联通则凭借其网络资源和运营经验,将配合政府及行业伙伴,建设针对特定行业的智算节点,预部署相应软件和模型,为社会提供智能算力服务或 MaaS 服务,赋能产业发展。
该项目优势在于算力的共享,避免单个企业因业务需求波动导致的算力闲置或不足问题,提高算力整体利用率,降低运营成本。同时,该项目将搭载联通云自研“星罗”算力管理平台,实现多元异构算力的适配和服务编排,形成“通算+智算+超算”的融合调度能力,可面向客户提供一体化算力运营服务,也可用于企业私有化部署的智能算力网络搭建及运菅管理。
谈及合作的优势,中昊芯英创始人兼 CEO 杨龚轶凡介绍道,“中昊芯英的优势在于芯片设计、软件优化以及集群的软硬件栈构建,为 AI 算法提供了坚实的硬件基础;而深圳联通则擅长云平台建设、物理层面的突破、智算中心管理以及能耗控制,为 AI 算法的运行提供了高效、可靠且可扩展的云端环境。双方合作不仅弥补了彼此的短板,还共同构建了高效、可靠的人工智能算法基础设施资源平台,实现了资源的最优配置和效益的最大化。”
此次项目的成功启动对于双方都具有深远意义。对于深圳联通而言,这不仅是对其智算体系布局的重要补充和完善,也是其推动深圳数字经济高质量发展的具体行动。而对于中昊芯英而言,则是其在华南区域落地AI 高性能智算中心的重要里程碑,标志着其在国产 AI 算力运营和产业智能升级方面迈出了坚实的一步。
近年来,各地都在布局智算中心落地,而在智算中心的运营成本中,电力成本占据了相当大的比例。针对耗电问题,赵桂标向 AI 科技评论介绍表示,“压降能耗主要从以下两个方面着手;一是要在规划设计层面进行大胆创新,拥抱新技术,如液冷、磁悬浮冷机、模块化电源、间接蒸发冷却等,采用高效能的设备,尽可能多的利用自然冷源来压降能耗;二是要在运营层面不断积累精细化能耗管控的经验,多措施并举持续优化 PUE,达到节能降碳的效果。”
而杨龚轶凡则从 TPU 的优势切入分析道,“TPU 更针对于大模型的模型训练和推理性设计,软件和网络的架构和结构比 GPU 实现同样性能的网络架构更为简洁和简单,所以在软件的运维层面来说会变得更加高效,在硬件的搭载过程中也会设计让它能够可运维,整体来说会尽可能降低生产成本、运维成最后实现对模型的高算力的支持。”
TPU 要做 AI 界的 X86
中昊芯英与深圳联通的合作,不仅仅是技术层面的深度融合,更是对未来人工智能产业发展趋势的把握。
随着 AIGC 时代的到来,大模型训练、神经网络开发等应用场景对算力的需求日益激增。中昊芯英自 2018年成立以来,便致力于为 AIGC 时代的超大规模AI 模型计算提供高性能 AI 芯片与计算集群,作为国内唯一掌握 TPU 架构 AI 芯片核心技术的企业, 中昊芯英通过“算力基础设施+生态合作+产业应用场景 ”的三位一体化方案,为客户提供具备生 产变革能力的 AI 创新技术方案,加速 AI 的工程落地与产业化进程。
而 TPU 和 GPU 相比究竟优势何在?
杨龚轶凡向 AI 科技评论介绍称,“就整个 TPU 来说,我们想把这个架构做成 AI 界的 X86,因为英特尔 X86 是统治 了 PC 时代,CPU 的时代所有架构里没有任何东西能够跟 X86 去 PK,直到手机出现有了 ARM 才分走了一部分的市场份额。 我们希望 TPU 架构就是 AI 界里未来最核心的架构方式。他指出,随着技术的发展,在相同制造工艺、芯片尺寸和能耗条件下,TPU 相较于传统 GPU 架构,其不可替代的优势在于 专为AI 深度学习定制。”
他进一步说道,“TPU 舍弃了 GPU 的部分灵活性,如光线追踪等复杂计算,转而专注于优化深度学习中的非线性计算, 性能可提升 3 到 5 倍,具有显著的性价比。在 AI 领域,尤其是深度学习模型的训练和部署,性价比是决定模型能否广泛落地的关键因素 ”。
同时,“TPU 的架构设计使其在处理深度学习模型时,无论是单线程还是集群性能均表现出色,特别适用于大规模模型训练和推理。其网络基础架构和网络形态专为深度学习数据流量特征设计,无向前兼容负担,进一步增强了AI 算法运行的性价比。”
在杨龚轶凡看来,“从所有的实际证据和研发的指标来看,面向AI大模型计算场景,TPU 比 GPU 更有核心竞争力。预期 3-5 年之后主要的 AI 算力硬件市场会让 TPU 和类 TPU 的其他 ASIC 占领,GPU 会回到原有的20%的市场地位。”
此外,值得一提的是,此次和深圳联通合作的 TPU 智算中心采用的是纯 TPU 技术,和异构智算中心相比也有自身优势。
杨龚轶凡表示,“任何东西只要异构一定面临性能损耗, 无论是拿什么样的芯片异构,最后网络性能节点上一定有打折,这个折扣基本是 5 折到 7 折不等。如果能够有纯构的计算平台,当然性价比是在服务客户时,假如成本一致的情况下,性能是它的 1.3-1.5 倍,其实性价比是更高的,服务的费用可以比异构平台更低一些,对于终端客户而言成本是降低的。”雷峰网雷峰网(公众号:雷峰网)