跨入2023年,大模型兴起、诸多公司「跑步进场」的头几个月,大模型一边倒向 C 端类 ChatGPT 的研发,对成本、效率更敏感的企业客户似乎不在关注焦点。
然而近两个月,情况发生了变化。基于医疗、金融、教育等垂直行业的大模型开始出现。而已经发布通用大模型的公司,也在针对行业推出模型服务。
这将给大模型的市场发展带来什么变化?雷峰网(公众号:雷峰网)
1、MaaS 的疑问
随着「大模型是AI时代的基础设施」的提法深入人心,MaaS(Model as a Service,模型即服务)的概念逐渐广为人知。简单来说,用户可以直接在云端调用、开发与部署模型,而无需投资构建和维护自己的模型所需的基础设施、硬件和专业知识。
但从「用家」的角度来看,这一模式还有疑问。雷峰网
现任某知名智能家居品牌 CTO 的陈平告诉雷峰网,他们的智能产品销往全球各地,对大模型有突出需求,就是想用大模型来提升多国语言识别与处理的能力。以前的语音识别做不到「一模通用」,而是要根据不同的国家设计不同的方案,但 ChatGPT 出来后,他们调用 API 调试,发现大模型能有效地解决这个问题。
在海外,该品牌与亚马逊进行合作。他们的产品本身就需要通过亚马逊的平台在海外销售,亚马逊自己做的 Echo 音箱也卖到海外很多个国家,验证了亚马逊语音识别技术的成熟度。尽管亚马逊的效率成本比较高,但能够较好地满足他们的需求。但在国内,他们还不知道该用哪一家的模型:目前国内已发布的大模型数量太多,如果他们要将所有的模型都验证一遍、一一对比模型的效果,那么所消耗的人力成本会非常大。
国内模型能力的「卖方」可分为两类:一类是BAT等大厂和大模型初创公司(如智谱、MiniMax)为主;此外还有大模型的「中间商」,主要是基于大模型开发应用型服务的创始团队,包括底层算力与框架的提供者,甚至还包括提供大模型微调的第三方公司。
陈平的想法,反映了部分B端大客户的需求,他们希望有一个专属于自身行业的大模型,这正好介于两类卖方所提供的产品与服务之间。
一位大厂工程师在与雷峰网的交谈中,将市场需求分为金字塔的底层、中层与上层:
底层是通用大模型,如 ChatGPT。据不完全统计,过去三个月里,国内发布了超过 70 个 To C 通用大模型产品,如百度的文心一言、阿里的通义千问、科大讯飞的星火等等。
中层是行业大模型,如彭博发布的金融大模型 Bloomberg GPT,这类大模型或是与底层想做大模型基础设施的通用大模型厂商合作定制,或直接调用 API 接口,或大厂云厂商自研。
上层是一系列应用型服务,基于通用大模型或行业大模型开发 AI 工具,如构建一个专注于论文解读(含翻译、摘要总结、生成等等)的学术平台。
从数据安全的角度看,陈平更青睐与大厂合作,因为第三方公司虽然懂得训练大模型,但不懂智能家居的知识,他们依然要提供大量的数据给对方训练,而数据提供过去后,他们一是无法保障模型的能力得到延展,二是无法避免第三方公司将这些数据与对应的模型卖给陈平所在品牌的竞争对手。
当理论落地现实,陈平的困境也是许多 B 端企业的共同难题。
2、重回焦点
过去三个月,国内大模型产品设计一味追随 ChatGPT,将问题的定义交给用户自由发挥(俗称「AI 召唤师」),造成了严重的同质化,大模型的应用局限于文本生成、代码生成等通识属性强的场景上,满足用户社交、娱乐或创作的需求。
更接近生产,对于成本效率要求更高的产业市场,并未被过多提及。
今年 5 月份,陈平曾经尝试联系一家大厂的大模型团队,希望探讨大模型落地方案,得到的回复是优先级不在智能家居行业。
但眼下,大厂和创业公司们正在将眼光重新聚焦于产业。
之前,国内类 ChatGPT 的大模型产品都无一例外地侧重「对话交互型」,而非「知识增强型」,大多数 C 端用户与 AI 的对话内容趋向于「Chat」(闲聊)而非「GPT」(生成/创造)。但另一方面,C 端用户的付费意愿低,To C 的通用大模型产品短期内无法复制 ChatGPT 的成功模式,在同质化产品的围攻下被迫加入资源竞赛的烧钱游戏。回过头看,To B 客户付费意愿高。随着市场回归理性,大模型选择 To B 几乎成为行业内心照不宣的一个范式。
有报告指出,B端的Mass服务需要针对行业领域和业务场景进行大量工程工作,但B/G端客户付费能力更强,未来盈利空间以及成长空间广阔。
但To B客户的需求也更「强势」,一不小心走歪,很可能回到上一代 AI 模型定制化的老路。
例如,市面上已经出现了一些专门提供模型精调服务的第三方公司。
雷峰网了解到,这类第三方公司采用一次性开发+订阅的收费模式,如初始研发费用 100 万、再加上终身授权许可的设备费用(8块钱一个),帮助 B 端客户根据需求训练出满足它们行业需求的大模型,然后在客户的平台上进行私有化部署。因为在市面上暂时找不到合适的标化产品,这类公司受到了没有自主研发团队、同时又渴求大模型能力的B 端企业客户(区别于大 B)的青睐。
3、两个盲区
雷峰网也关注到,越来越多大模型的研发团队准备弯道超车,绕过激烈的C端市场,专注研究面向行业的大模型,如王小川建立的百川智能就刚刚推出了一个参数规模 7B的开源商用模型。
腾讯也计划在 6 月 19 日发布行业大模型及商用训练平台。在此前4月,腾讯发布了的面向大模型训练的新一代HCC高性能计算集群,整体性能比过去提升了3倍,并通过腾讯云MaaS面向企业输出模型训练相关服务。雷峰网
看起来,腾讯没有急于推出聊天助手产品,而是选择了通用大模型、行业大模型两条腿走路,进一步对外释放行业大模型服务能力。在刚刚结束的中关村论坛上表示,李彦宏提出未来每一个行业都会有属于自己的大模型。大模型会深度融合到实体经济当中去,赋能千行百业,助力中国经济开创下一个黄金30年。阿里公布的模型即服务三层架构中,也涵盖了企业专属大模型。
可以看出,企业客户对大模型落地很迫切,各类厂商与创业者也在追赶需求。
事实上,B 端企业客户往往自带场景与数据,是大模型落地的最佳检验场。那么,在大模型的落地上,企业客户最关心什么?
据雷峰网调研,大模型在企业落地有两个盲区:一是数据安全,二是成本可控。数据安全包含「数据隐私」与「专业知识」两块,行业人士认为,ChatGPT 生成的答案应该由相关领域的专业人士判断。基于通用大模型,目前用户并非将专业知识输入模型后就能得到专业的结果。此外,陈平指出,应用型的公司基本不愿意将自身微调的模型贡献到公有版本里与其他人分享,所以企业还是倾向于训练自己的大模型。训练完后在本地进行私有部署。
行业现有的通常做法是,提供一个通用大模型,然后开放给行业的客户去微调,再进行私有化部署。可陈平的经验是,以 Open AI 为例,虽然它们开放了 API,但API无法私有化部署,客户无法在最新的模型版本上微调;大模型的技术变化太快,对企业来说,跟上潮流的成本太高。
一家企业的CTO向雷峰网表示,目前大模型在企业落地的成本分两块:一是模型前期微调与训练的成本,二是模型后期与业务结合的运行成本。大模型的训练需要算力、数据与工程等几块体系的支持。「企业要考虑训练定制化模型的人力与时间成本,更倾向于选择能同时提供两种能力的厂商,将模型训练与运行成本降到最低。」
一个值得警惕的点是:目前看来,并非所有的场景都适合大模型落地。大模型刚火起来时,一些行业与未及时推出大模型技术或产品的公司担心自身业务被大模型改写,观望两个月后,他们发现「自己想多了」。他们认为,原因可能有两块:一是缺少提出好问题的 AI 产品经理,二是大模型的技术属性所限。找场景一直是技术公司的难题,同样也是 To B 的难题。大模型团队寻找合适的场景,也是深入 To B 服务的关键一步。
每个掌握大模型自研能力的公司都想做大模型时代的「基础设施运营商」。三个月下来,行业目前只能确定,如果大模型真的是 AI 时代的智能运营商,如水电网等社会基础设施,无论现有的行业玩家再多,最终也只有少数几家能成功。
先发有先发制人的优势,后发有后来居上的可能,大模型驱动新生产力的游戏还在继续。如果大模型真的代表一个新时代,行业集体多花点时间进行深入思考也无可厚非,目前看来,继续留在牌桌上就已经是正确的一步。