对来也科技CEO汪冠春来说,ChatGPT带来的冲击和颠覆,让他想起了20世纪末的柯达和尼康。摄影从胶片时代步入数码时代,似乎只是一眨眼,尼康没有抱着以前的胶卷产品不放,而是全线转向了数码影像。
“我们做的事情,有点像尼康当时在做的。”汪冠春告诉雷峰网。
过去半年时间里,来也科技内部完成了一场“急行军”:1月吹响号角,4月已经可以在国内外接入ChatGPT并提供服务;到了6月,来也科技完成了现有产品矩阵与大语言模型的第一轮融合。
融合的成果,在今天刚刚结束的发布会上,正式面世;新的产品架构和未来一年的产品研发路线,也已规划成形。
在外部环境里,市场对带有RPA标签的创业公司们,却产生了一些担忧:RPA会是那个最先被ChatGPT彻底颠覆的赛道吗?
发布会开始之前,我们与来也科技CEO汪冠春、CTO胡一川、CPO褚瑞三位RPA+AI老兵谈了谈这个问题的答案。有一点他们非常明确:大语言模型的时代到来,自动化能解决的场景流程变得更加多元化,广义RPA市场可能是原来的10倍、甚至100倍,把蛋糕做大的同时也将重构流程。
具体到RPA与人类的每一次交互,RPA的鲁棒性和容错性变得更强,大语言模型也让交互更接近人类的真实对话,而不再拘泥于此前在软件界面上的拖拉拽。
ChatGPT之于RPA,在有些人眼中是乌云压顶,但在汪冠春和来也团队的眼中,那道云上的银边,清晰且震撼。
以下是雷峰网与汪冠春、胡一川、褚瑞等人的对话实录:
雷峰网:在来也内部,大语言模型是什么时候开始被重视的?
汪冠春:今年1月,我们的内部战略研讨就提出要全面拥抱GPT,组织全员集中学习;会找一些有经验的同学去给大家讲,大语言模型到底怎么回事,怎么去用,还办了一场黑客马拉松,把所有同学都发动起来,群策群力。
雷峰网:这些学习应该也是有产出了。
汪冠春:是的,产品和组织层面都有落地动作。过去一个季度那些黑客马拉松上的好主意都已经开始在产品上得到实现。公司内部很多员工也都开时使用基于大语言模型的工具进一步提升工作效率。
胡一川:去年我们把RPA、IDP、Chatbot这一系列产品升级成一体化数字化劳动力平台,我们这次(6月28日的发布会)的主题就是把大语言模型全面融入数字化劳动力平台。
雷峰网:这股大模型热潮下,来也的客户们是怎样的反应?
褚瑞:今年Q1,我们拜访了大概二十家中大型客户,发现他们心态很矛盾——一方面是对GPT高度关注,一说有什么应用都脖子伸老长去听,非常很感兴趣,但他们也很担心合规和保密方面的要求。
他们对这个新能力非常好奇,但至于它怎么能够帮助业务直接获益,其实他们也还没有想清楚,所以会向我们直接提问:现有的能力平台上可以集成这个能力吗?可以具备类GPT的能力吗?好让他们更好地开发对话机器人。因为以前需要专业人士用我们的工具去创建很多泛化的语料,但现在这些训练语料可能全部让大语言模型生成,这个开发成本肯定是大幅下降了的。
雷峰网:大模型的选型上,有考虑吗?
汪冠春:面向海外的产品是直接用的OpenAI,4月我们还优先拿到了微软Azure提供的企业级Open AI接口服务。我们在2021年和微软签下战略合作协议现在看价值更大了。
国产大模型方面,我们与百度、阿里、华为等都在接触。当然和百度的对接最快,文心一言发布后来也科技就是首批使用方。
雷峰网(公众号:雷峰网):或者,来也考虑自己做大模型吗?
汪冠春:如果是像OpenAI、百度那种投入,去做通用大模型,那我们不会做。因为这需要至少上亿美金的投入和在Transformer模型这个特定AI方向上的深度积累,我觉得极少创业公司能驾驭。
但基于开源版本,封装出一些针对特定领域的定制模型,对特定场景微调,这我们会积极拥抱。尤其大客户对私有化部署大模型有强需求,我们团队也具备很强的针对特定领域去判别和优化开源模型的能力。
雷峰网:ChatGPT崛起,有观点认为RPA和低代码这种细分赛道首当其冲,要被颠覆,您是怎么看的?
汪冠春:这可能是因为不太理解企业服务市场又非常期待革新技术诞生颠覆而过快下的结论。
就说RPA,狭义上指的是交互界面自动化的能力,此时会出现的问题是:复杂流程下的较高开发成本,流程运行还是基于强规则。这也是为什么今天只有大企业做RPA项目的投资回报率比较高:能接受高开发成本,流程偏固定。
但有智能化的能力、有大语言模型加持,RPA开发变得更加柔性。AI可以更好理解很多场景,今天就可以通过自然语言的方式来开发RPA流程,而不是必须基于强规则。这时RPA的鲁棒性和容错性都变得更强,交付成本也进一步下降。大语言模型对狭义的RPA来说,肯定是利好。
而在广义RPA的语境下,所有自动化和数字员工都可以理解成是RPA的延伸,ChatGPT和大预言模型是让这个市场空间又增加了10倍甚至100倍。所以我相信RPA还在产品生命周期的上升期。
雷峰网:这类观点会认为,企业是可以直接使用大模型、取代RPA的。
胡一川:我们看到已经有一些企业尝试在使用ChatGPT等这类应用,但企业要大规模应用大模型,依然面临挑战。
一方面,ChatGPT、文心一言属于偏C端的大模型应用,在企业业务场景下,执行业务动作的能力和效果不够理想。比如你跟ChatGPT说分析上个月的销售订单,它肯定做不到,因为在哪里获取、怎么自动化获取销售订单,ChatGPT都不知道。当然,如果CRM系统有API,ChatGPT可以去调用。但这里依然有两个挑战:第一,并不是所有系统都有适合大模型调用的API;第二,企业出于数据安全、合规等考虑不一定愿意把API和数据提供给大模型。这时候还是需要RPA、IDP等各种能力去补位。
另一方面,企业落地大模型时,会有更多企业级的需求。比如,企业可能需要使用多个大模型,或者在使用过程中对不同人使用同一个大模型的权限进行管控,这都是企业级场景下会遇到的问题,ChatGPT并没有考虑和解决。
雷峰网:二者其实应该强强结合,大模型“帮助”RPA去迭代进化?
胡一川:过去因为机器对自然语言的理解能力比较弱,人类员工与数字员工之间的交互,主要还是得靠软件界面去交互,搭建RPA流程要手动拖拉拽。实际上,我们在工作里要让同事去做什么,肯定是直接给他发消息。现在大语言模型是补上了这块的短板,让人类员工与数字员工之间能够用自然语言去交互。
雷峰网:RPA规模化落地有什么挑战吗?大模型能有什么助力?
胡一川:我们观察到RPA规模化落地有三点挑战,首先是开发效率不高,RPA有成百上千条命令,开发者要先熟悉,按需要编写;其次是维护成本太高,已经开发好的RPA机器人要跟着业务发生变化时,新来的维护人员未必能完全理解原有的流程;第三,业务场景实在是太多了,RPA不能覆盖完全,还得依赖工程师去编写扩展命令。
所以我们这次推出了“魔法帽”(Magic Hat)这个产品,让开发者通过自然语言去生成自动化的流程片段。也就是说,以前需要自己记住、编写一条命令,现在可以直接告诉“魔法帽”,说希望这个机器人去干什么,它自动生成流程片段,提升RPA的开发效率。对于已经开发好的RPA流程,它可以直接阅读、理解机器人在干什么,给维护人员提供注释,提升RPA的可维护性。“魔法帽”也能够帮助开发者去生成自定义的扩展命令,快速地复用到其他场景。
雷峰网:这个新的四层架构,引擎层是出于什么考虑来设计的?
胡一川:过去,对于RPA而言,引擎层是相对简单的,主要是基于业务规则去调度RPA机器人。有了大语言模型之后,引擎的能力大大提升,它让数字员工真正具备了一个“大脑”。具体而言,借助大语言模型的推理能力,引擎层能够让数字员工将用户的需求拆解成可执行的步骤和动作。有了这样一个引擎层,用户可以直接表达需求,机器人自己知道每一步应该做什么。
雷峰网:企业想自主选择集成哪个或多个大模型的时候,来也会怎么做?
胡一川:这也是为什么我们把模型层作为单独一层,我们会接入多个非开源或开源的大模型,提供评估数据和评估工具,以及做好安全合规工作,然后把选择权交给用户。
雷峰网:过去半年的产品研发是围绕着这个四层架构来做的,接下来的规划是什么?
胡一川:我们会继续沿着现有四层架构进行规划。在交互层,我们会集成主流的企业办公协同工具,同时提供消息双向合规检测,让企业员工在自己的办公协同工具里安全、合规的使用大模型驱动的数字员工;在引擎层,我们会给予大语言模型的推理能力去开发各种内外部API的管控和编控功能;在执行层,我们已经发布了RPA“魔法帽”和下一代大语言模型驱动的智能文档处理,我们还将发布企业级插件中心,它相当于是企业内部的ChatGPT Plugin Store;在模型层,会跟ChatGPT、文心一言以及一些开源进行集成,并且提供大模型的评估数据和评估工具,供用户在不同大模型时参考。
雷峰网:回到SaaS这个行业来看,可能今年上半年,悲观的声音更多一些。
汪冠春:其实中国的企业软件公司一直都是处在Hard模式里,很难做到增长和盈利的平衡。如果就是看最近几年上市的中国SaaS龙头企业,投资人一定是紧张和失望的。放到全球范围来看,美国的SaaS公司在过去一年表现也比较惨淡,很对都估值回调50%甚至更多,当然这主要因为美国央行加息之后让整个财务模型发生了很大变化。
但在中国首先客户需求和市场规模增长都还是在不断加速的。而且把时间线拉长到5-10年,低价恶性竞争、服务与产品无法分离等问题还是会随着市场和生态逐步成熟得到缓解,软件公司的价值会更好地释放出来。
投资人当下有回撤情绪很容易理解,但这时候也是反向思维,建仓抄底的好时候。