9 月 2 日,无问芯穹(Infinigence AI)宣布完成近 5 亿元 A 轮融资,本轮融资联合领投方为社保基金中关村自主创新专项基金(君联资本担任管理人)、启明创投和洪泰基金。
跟投方包括联想创投、小米、软通高科等战略投资方,国开科创、上海人工智能产业投资基金(临港科创投担任管理人)、徐汇科创投等国资基金,以及顺为资本、达晨财智、德同资本、尚势资本、森若玉坤、申万宏源、正景资本等财务机构。
至此,无问芯穹的累计融资金额已达近10亿元。
值得一提的是,其过往投资方还包括百度、智谱、同歌创投等战略股东,以及红杉中国、砺思资本、徐汇资本、北极光创投、真格基金等众多知名投资机构。
而对于本轮融资的使用方向,据无问芯穹战略运营SVP 王梦菲介绍,首先,“最重要的方向还是技术的储备,我们做的事情对人才密度要求高,所以在技术上会继续做一些配置。”
其次,“是产品的商业化,虽然公司成立的时间还比较短,但我们在商业化上今年已经有一些规模化的收入了,明年会进一步的扩大市场份额,所以也会在商业化上加重布局。”
最后,“是生态的建设,我们需要上下游模型厂商、芯片厂商,包括大客户和这个产业链上的很多关键的甲方都能够认可我们的生态,所以在生态建设上我们也会继续投入。”
AI模型算力的“超级放大器”
大模型能够支撑的实际产业规模,取决于AI模型的实际可用算力,是一个壁垒更高、玩家更稀缺、价值量更高的领域。
基于对AI行业的深刻理解和长期实践,无问芯穹判断,大模型的实际可用算力不仅取决于芯片的理论算力,还可通过优化系数放大算力利用效率,通过集群规模放大整体算力规模。
由此,无问芯穹提出“芯片算力×优化系数(软硬协同)×集群规模(多元异构)=AI模型算力”公式。
遵循这一公式,无问芯穹将通过软硬件联合优化技术,持续提升芯片算力在大模型任务中的利用率,并通过多元异构算力适配技术,提升集群算力利用率,扩大行业整体算力供给。
在软硬件联合优化方面,当前大模型推理需求逐步高涨,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA。
同时,完成了多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果。
基于这一方案取得的优化效果,无问芯穹也与AMD签署战略合作,携手推动商用AI应用的性能提升。
在多元异构算力适配方面,7月,无问芯穹发布的大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练。
集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。
当前,无问芯穹主要聚焦于 GPU 异构,不过,除 GPU 架构芯片外,当前市场上也出现了一些专用芯片。
对此,王梦菲向 AI 科技评论介绍表示,“未来可能会有很多专用场景的芯片,这方面我们也有在做一些布局和预研的工作,我们也对这个方向比较看好。”
打造Infini-AI异构云平台
近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。
然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。
随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。
无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出Infini-AI异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。
此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。
据无问芯穹介绍,AIStudio一站式AI平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。
而GenStudio大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖了从大模型开发到服务化部署的全流程,有效降低了开发成本和门槛。
自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。
大模型时代的“算力运营商”
无问芯穹构建的 Infini-AI异构云平台不仅可帮助下游客户屏蔽硬件差异,高效使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。
遵循算力利用率提升思路,结合软硬件联合优化实力,无问芯穹在端侧大模型和LPU IP领域亦有所布局,致力打造“端模型+端芯片”闭环能力。
无问芯穹坚信端侧场景快速增长和应用爆发的必然趋势,AI PC、AI手机将成为未来人机交互的重要接口,将助力每一个终端实现AGI级别的智能涌现。
以“释放无穹算力,让AGI触手可及”为使命,无问芯穹致力于成为大模型时代首选的“算力运营商”,目前正在强力推进和产业链中最具价值的客户建立战略合作,再推广到更广泛的市场中实现标准化、批量化复制,建立规模优势。
通过激活多元异构算力和软硬件联合优化,无问芯穹目标让大模型的落地成本降低10000倍,如同“水电煤”一般,成为行业触手可及、广泛受益的新质生产力,加速AGI的普惠进程。
而“算力运营商”的定位也意味着无问芯穹与国内 AI Infra 企业存在较大差异性。
无问芯穹联合创始人、CEO 夏立雪在接受 AI 科技评论等媒体采访时表示,“我们认为在国内AI Infra往往会被大家理解为比较单点优化工具或软件。在过往的很多实践当中,证明了这一类的商业模式在国内其实存在着一些难题。”
夏立雪认为,“从客户的视角出发,他们并不期望我们仅仅提供单一的工具解决方案,再由他们自行整合。客户真正想要的是一种已经优化完善、即插即用的算力服务。因此,我们的工作定位为一步到位的满足客户需求,减少他们对技术细节差异的理解负担。”
同时,“技术PK或者和客户讲谁的技术更好并不是最优的方案,我们希望的是致力于把算力做到足够的标准化,降低客户使用算力的难度和门槛。这也是我们跟市面上一些AI Infra初创公司从愿景上的区别。”夏立雪进一步说道。
值得一提的是,从海外 AI Infra 公司方面对比,王梦菲也表示,“我们实际上是无法直接对标海外其他公司的,我们所做的事情和我们的商业模式是比较符合中国国情的,另外中国的客户更希望面向的是All in one平台,而非专业化、细致化,每人只做其中一部分这样的平台。”雷峰网(公众号:雷峰网)雷峰网