价格战并未使所有业者迷失方向。
在各大厂纷纷举办大模型降价发布会后,雷峰网(公众号:雷峰网)走访了中关村创业大街的两家 AI 应用创新公司,发现他们并未立即选择调用更便宜或免费的大模型 API,而是继续使用去年 10 月发布的文心一言 4.0 版本。
面对近期大幅降价的情况,两位创业者反应平淡,“本轮价格战确实吸引了大量公众关注,但对我们影响不大。”
这两家创业公司中,一家从事 CRM 服务,另一家专注于高端营销,均面向 B 端市场。从事高端营销的创业者算了一笔账,他们的获客成本极高,每次成交的客单价都在 2000 元以上,且目前服务的客户数量有限,主要是回头客。
用他的原话说,他是“踮着脚尖满足客户的每一次需求”,生怕客户说他的产品“还不如直接用大模型”,就差亲自帮客户改稿子。他在调用大模型 API 时,最关心的只有一点,那就是能否真正解决用户的问题。
另一位创业者也告诉雷峰网,作为应用开发者,他们最担心的是大部分大模型应用只是好玩,而不好用,包括国外的几款应用也是如此。
如果要将自己的应用交付给客户,就必须跨越“从好玩到好用”这一最艰难的阶段。因为在 B 端市场,好玩并不值钱,好用才是关键。
对于应用开发者而言,要想让产品继续获得资金支持,让投资人继续看好产品,就必须将应用的可用性提升到极致,价格是以后才需要考虑的事情。从产业创新发展的角度来看,本轮价格战爆发得过早了。
为什么价格战爆发在当前这个时间点?
价格战作为市场竞争的常用手段,具有杀伤力强、威慑力大、造势效果好等诸多优点,一直是各大厂惯用的策略。
从互联网科技史著作《沸腾新十年》的记载来看,在移动互联网发展过程中,每个赛道的决胜局都至少有一场价格战。
然而,当前大模型赛道的竞争才刚刚开始,更多的是技术竞争,而非商业竞争,难道已经发展到需要打价格战的地步了吗?
当然没有。
当前大模型赛道的价格战是早产的。
首先,价格战的本质是竞争,而非驱动。哈佛历史上最年轻的终身教授曼昆在其名著《经济学原理》中提到,价格战是消费者自由选择的必然结果。
但价格战通常只发生在高度同质化的行业。在高度同质化的行业中,厂商为了说服消费者选择自己,不得不大幅降价,结果往往是两败俱伤。
然后,实力较弱的一方被迫退出市场,实力更强的一方能够承受损失并获得市场主导地位。因此,价格战又被称为割喉战,拼的就是谁的血量更厚。
不过,价格战很少发生在高度差异化的行业。因为高度差异化的服务效果,不一定能满足同一类用户的需求。你卖牛皮,我卖牛皮糖,虽然听起来相似,也都姓牛,但实际上解决的用户需求根本不同。
目前,各大模型之间仍然存在很大差异。在当前这个时间点,大模型技术仍在高速发展,通常情况下不应该爆发价格战。
为什么这么说?因为尽管大家都在做大模型,但各家的技术路线和应用开发路线差异很大。
在这次价格战中,声量最大的是百度、阿里、字节三家,紧随其后的是腾讯,但从腾讯的表现来看,参战的意愿并不强烈。讯飞和智谱虽然也降价了,但都没有召开大会。百川智能的王小川更是明确表示,绝对不会参与大厂之间的游戏。
从各家的不同反应来看,我们不难发现,这次价格战的主要参赛选手都是云厂商。而单纯做大模型的厂商,只是进行了简单的防守性跟随,没有任何进攻的意图,越到后面,越保持观望的态度。
为什么会出现这种情况呢?因为这一轮价格战的真正原因是云厂商的内卷外溢。一位外部开发商告诉雷峰网,本轮大模型价格战的出发点并非大模型的竞争,而是云赛道的竞争。
前段时间,云赛道的大幅降价和高度内卷向外溢出,各家平台在直播中高调宣布大幅降价。云厂商之间的疯狂内卷早已不是新闻。今年上半年,老罗更是将复杂的云计算产品带入直播间,说实话,云厂商找老罗带货并不是一种真正的直接获客行为。他们只是想给业界留下一种印象,即他们的云计算现在真的很便宜。
在各大厂都将云厂商和大模型平台相结合的当下,大模型只是受到影响,被迫卷入竞争。云厂商之间的价格内卷,引发行业集体应激反应,导致了这一轮价格战。
然而,目前国内大模型技术与海外相比仍有明显差距,正处于技术追赶的关键时期。在这个赛道上,国内大模型产业更需要的不是竞争,而是竞合,是技术上的较量,这才是改变生态的驱动力量。
对于开发者来说,他们真正看重的是什么?
对于开发者来说,他们真正看重的是买的产品能否给自己带来价值。而产品是否有价值,则取决于其是否建立在一套技术先进、系统稳定、响应迅速的大模型平台之上。
从开发者视角来看,他们选择调用API时至少会做出如下三种考虑:首先,开发者购买的不是 tokens,而是解决问题的能力。
开发者在购买大模型相关服务时,真正看重的不是大模型 tokens 本身,而是通过这些 tokens 所能实现的功能。因为开发者的目的是实现某种特定的产品能力,解决某个特定的问题或需求。
例如,一家营销科技公司希望通过 AI 在几秒钟内获取市场数据,生成营销渠道、效果和布局的一体化解决方案。当选择接入大模型 API 时,最重要的判断标准是哪一款大模型更能实现这一目标。
就像前文提到的两位开发者,他们最关心的始终是客户是否满意,业务能否继续。在这种情况下,哪家效果好,产品体验更到位,他们就会选择哪家。其他因素则相对次要。
其次,开发应用拼的不是便宜,而是不出错。
开发者不能犯任何错误。一行代码的失误都可能导致系统崩溃、数据丢失、用户体验下降,甚至影响整个业务的运行。更不用说作为基础的大模型了,选择时必须更加谨慎。便宜能便宜多少?如果整个产品系统出现问题,所有的前期投入都将血本无归。
去年年底,某大厂云服务大规模宕机,不仅导致自己的重要业务停止运行三个半小时,还使无数开发者的产品崩溃,引发了一系列后续问题。如果早知如此,有一个永不宕机但价格稍贵的云服务,和一个不知道何时会突然宕机三个半小时的云服务,相信绝大多数开发者都会选择前者。
因此,免费的吸引力只对那些想要尝试将大模型与场景结合的开发者有效,他们可以用极低的成本逐步探索业务的可行性。而对于已经拥有成熟业务模式的产品来说,他们更需要的是一款效果有保障的好平台。
其三,对于大多数应用开发者,工程能力仍是最大挑战。
拥有良好的开发能力并不意味着一定能做出成功的产品。因为一款成功的产品需要具备大规模应用的能力,能够适应各种不同的场景,处理多种长尾需求,并应对各种意外事件等。
我们经常看到一些才华横溢的开发者,他们拥有出色的技术,但做出的产品却不好用。有一家语音识别产品,无法处理一些行业“黑话”或区域性方言,却被投放到有大量此类使用者的场景中,最终以失败告终,这就是对场景结合的失误。
家装大模型公司万幸科技就曾遇到过大模型适配性问题。由于 Stable Diffusion 文生图模型出图速度慢,导致用户等待时间过长,他们需要排查是网络问题、显卡问题还是模型问题。一旦出现这种情况,如果没有针对各种情况的成熟解决方案,排查时间就会成倍增加,再加上要临时设计一套各种可能性的解决方案,不用说,肯定会投入更多资源,解决问题的速度也会更慢。
幸运的是,当时万幸科技使用了百度千帆,合作方之前解决过类似问题,将之前研究出来的解决方案应用到这次的故障中,问题自然就很快解决了。
工程优化提升往往需要厂商长期积累,只有一个细节一个细节的打磨调教,才能积攒出优势,这不是一个投入资源就能一蹴而就的事情。
更重要的是,厂商的工程化能力会带来极大的性能提升和成本降低。比如,百舸异构云计算平台可以将智算中心、超算中心、边缘节点等分散的算力资源统一管理起来,通过芯片性能优化、自动芯片选型、潮汐混部这些经验和技术,真正把每一张卡的价值都发挥到极致。
这里可以说个细节,百舸可以实现一云多芯,也就是对昆仑芯XPU、昇腾NPU、海光DCU、英伟达GPU、英特尔CPU等国内外主流AI芯片的兼容,无需为每个芯片平台重新设计和优化模型,帮助用户摆脱单一芯片的依赖,节省了大量的时间和资源。
目前,百舸已经实现单一训练任务下不同厂商芯片的混合训练,而且在多芯混合训练性能损失可控制在3%,这是目前国内最好成绩。
针对大模型和智算集群,百度百舸·AI异构计算平台的万卡集群上的有效训练时长超过98.8%,线性加速比、带宽有效性分别高达95%。这三个指标意味着,百舸的单个芯片的利用率最高、芯片间通信效率最高,整体集群效能最高,这是目前国内业界最高级别的算力效能。
一位开发者曾经对雷峰网说过,跑同样的任务,在百舸上,开发的总体成本会比别人少一半。对于开发者而言,这真的是用得越久省得越多,如果能与一个具有丰富场景落地经验的大模型团队合作,并随时调用对方的经验,那么他的产品一定会如虎添翼,迅速实现工程化。如果开发者只能从大模型团队那里获得一份技术文档,那么就只能自己去尝试解决这些问题了。
对于厂商来说,拼战略拼的到底是什么?
To B 的生意需要建立在信任的基础上,企业和开发者不会将业务交给不信任的合作伙伴。而建立信任的最佳方式,就是让开发者意识到,这家大模型产品方向最明确、定位最清晰、未来最具确定性。
对于厂商来说,大模型的研发需要持续投入大量资金和时间,过程中可能会遇到各种挫折,包括财务问题、技术障碍和竞争中的巨大冲击。
如果厂商没有足够的决心和意志,内部对大模型存在不同声音,每当遇到挫折时,这些声音就会反复出现,那么一旦遇到暂时无法解决的障碍,反对的声音就会如潮水般涌来,影响整个大模型产品和所有开发者。
公司是否将大模型作为最高战略来做,是否有能力和意愿进行长期投入,这才是开发者和企业客户关心的问题。
要判断大模型业务在公司内部的战略高度,可以从三个维度来看:
首先,资源投入是否足够大。如果之前的投入足够大,那么放弃或转向的沉没成本就会很高,这也显示了公司之前在大模型上的决心。
其次,时间投入是否足够早。这意味着整个团队,甚至更极端的情况下,一号位是否具有优秀的战略眼光和技术前瞻性,这样的一号位能够确保他们不会轻易放弃追随最前沿的大模型技术。
最后,战略坚持是否足够久。在过去的发展过程中,他们经历了多少困难,在这些风风雨雨中坚持下来的公司,未来也一定能够继续坚持下去。
将大模型视为“一把手工程”的典型公司是百度,李彦宏是 AI 技术的坚定信仰者。自 2010 年王海峰加入以来,百度就拥有了成建制的 AI 团队,致力于 NLP 研究。2018 年 BERT 问世,2019 年,文心大模型 1.0 版本正式发布。
23 年春节后,在李彦宏的亲自带领下,“项目组”成立,并与王海峰保持每天与所有相关技术和产品人员开会的节奏,在国内率先发布了“文心一言”。
百度对大模型的重视程度如何?去年的中关村论坛上,李彦宏表示,百度要做第一个将全部产品重构的公司,因此在过去一年中,百度十余款应用完成了 AI 重构,包括输入法、搜索、网盘、地图、文库等一系列用户量过亿的产品。
事实上,对于这种投入周期长、回报不确定性强、市场竞争激烈的业务,只有一号位亲自下场,才能真正体现其重视程度,也才会成为一家最让人放心的大模型厂商。
我们完全可以按照这个标准来判断某一大模型厂商是否是一个值得信任的合作伙伴,值得信任的标准包括:会不会在关键时刻中途放弃或出售,有没有决心保持长期投入,是否对自己的大模型能力有足够信心,愿意将自己的产品全部在这套基座上进行重构。
大模型竞赛是一场长跑,最终的竞争是什么?
5月22日,在法国巴黎的“欧洲科技创新展览会”上,李彦宏谈到:中国AI与西方的最大差别在于应用。大模型大规模降价,与芯片和互联网普及时极其相似的成本驱动生产力革命已经开启,并将催生应用快速迭代和成熟。全球的人工智能大模型之战即将分出胜负。
从 OpenAI 过去一年的动作来看,降价一直是其升级的主线。5 月 13 日,OpenAI 发布了 GPT-4o,不仅在功能上大幅超越 GPT-4 Turbo,而且价格只有一半。从 2023 年年初到现在,OpenAI 已经进行了 4 次降价。
中国的厂商也不遑多让,5 月份堪称降价黄金月。
从 5 月 6 日开始,幻方量化旗下 DeepSeek(深度求索)发布了第二代 MoE 模型 DeepSeek-V2,API 定价为每百万 tokens 输入 1 元、输出 2 元(32K 上下文),价格仅为 GPT-4 Turbo 的近百分之一。
11 日,智谱大模型宣布了新的价格体系,门级产品 GLM-3 Turbo 模型降价幅度高达 80%。之后就是大家都看见的字节跳动。
在 5 月 15 日举行的火山引擎原动力大会上,字节跳动旗下火山引擎总裁谭待宣布了豆包主力模型在企业市场的定价为 0.0008 元,宣布自己最低。
随后,阿里通义千问似乎下了决心一较高下,也做出了回应。5 月 21 日,阿里云宣布:通义千问 GPT-4 级主力模型 Qwen-Long,直降 97%。反正自己就是要比字节低。
百度文心大模型则直接梭哈,在国内最先打出了免费的旗号,宣布百度文心大模型的两款主力模型 ENIRE Speed、ENIRE Lite 全面免费,即刻生效。
那么,为什么当其他家都宣布降价的时候,百度敢于直接梭哈免费呢?
第一个原因是他们家是云服务平台,当然前面两家也是,这不是关键因素。关键因素是,他们家攒了这么多年算力家底,已经成为国内算力储备最多的厂家之一。哪怕是OPEN AI和Runway现在搬上去,百舸都接得毫无压力。
在公有云层面,中国一半以上的大模型训练、推理都在百舸上,而且从来没有崩过。光没崩过这一点,就已经显得深不可测了。
现在看起来,价格战似乎成为了大模型竞争的主角。但实际上,远非如此,大模型的竞争任重道远。
正如前文所述,价格只是市场决策中的一个因素,而且并非首要因素。而且真正高质量、大规模、高并发的模型仍然需要收费。
说个细节,微调大模型的价格一直居高不下,短时间内成本根本不可能降下来。你让各个大厂打价格战试试,怕不是要被薅秃。
那么,为什么这些大模型厂商还要大声宣布降价或者免费呢?除了上文提到的,各家厂商云内卷的牵连,其实还有一个重要原因:各家大厂,不是怕丢客户,而是怕丢声量。
各家各自都有一批客户基本盘,而且根本不怕对方来薅,他们更怕的是新生代的应用创新者们看不见自己。这也是为什么百度创始人李彦宏在上个月,会开出5000万的悬赏奖励AI应用创业项目的原因。这应该也是目前国内AI领域,针对基于特定大模型的应用开发所给出的最高“赏格”。
因为各大厂争做大模型平台,不惜工本,投入巨大,他们最终竞争的仍然是生态。在各大厂的预期中,在安卓之上再打造一个 AI 安卓并非不可能。
现在,大厂们扮演着基础设施的角色,每天都在鼓励、孵化、扶持各类应用,等待有一天,所有 AI 应用都基于自己的大模型平台时,他们就会进化到终极模式——AI 时代的操作系统,这才是微软和谷歌那种掌控生态的好生意。
从过去的操作系统发展经验来看,这将是一个5-10年的漫长的过程,因此大厂作为基础平台必须戒骄戒躁,将更多注意力放在技术基础和应用服务上。
毕竟,大模型生态的竞争注定是“长坡厚雪”,在这场长达一代人的长跑中,谁能长久和稳定地陪伴创新应用成长,谁才能站在最终的巅峰。