自去年年底ChatGPT问世以来,大模型火爆的浪潮已经持续了大半年,数据显示截止10月份国内已经发布了238个大模型。与众多基础大模型形成显著对比的是国内AI应用的极度匮乏。这也是现阶段中美大模型发展的显著差异之一。
早在今年3月,OpenAI推出ChatGPT插件功能之际,英伟达AI科学家Jim Fan就曾表示,如果说ChatGPT可以看作苹果手机的出现,那么第三方插件的出现就意味着类似于苹果应用商店的模式出现了。而在刚刚过去的OpenAI开发者大会上,OpenAI更是推出了GPTs—人人皆可零代码实现定制化个人聊天机器人,甚至可以在应用商店进行商业运作。
可以说这预示着利用大模型的公司进入成本效率和创新的新时代,将重塑大模型在业务和开发中的应用格局。事实也的确如此,如果不重视AI应用,大模型将永远停留在空中楼阁,热潮也将逐渐冷却。大模型可能仅仅会成为一个概念词,无法产生真正的生产力变革。
而另一方面,与大模型更强的泛化性能力一同前来的是在AI可信和安全性上的更大挑战,深度学习的奠基人之一Yoshua Bengio在前一阵便联合多位大佬,发文探讨了如何在人工智能(AI)快速发展的时代管控相关风险,共同寻求当下生成式人工智能迅速发展时期的潜在风险管理措施。AI可信和安全从始至终都是需要解决的重点难点,AGI时代带来的安全隐患和威胁,可能不会突然爆发,但一定会不紧不慢地向我们走近。
11月15日,在深圳2023西丽湖论坛上,全球科教领军人物齐聚深圳,图灵奖得主马丁·爱德华·赫尔曼,澳门大学校长宋永华,香港科技园公司主席查毅超,硅谷人工智能研究院创始人、《硅谷百年史》《智能的本质》《人类2.0》作者皮埃罗·斯加鲁菲,百度创始人、董事长兼首席执行官李彦宏纷纷亮相,共同探讨人工智能的发展下半场的走向与关注重点。
在整个论坛之中,我们发展,大模型发展的下半场,AI应用和可信是无法忽视的议题,人工智能要想长远发展,AI应用和可信必须两条腿走路。
近期AI圈最火的事件莫过于上周OpenAI的开发者大会引起技术圈的全民性讨论,OpenAI丢出面向开发者的 GPT 4 Turbo 整体降价、GPT Assistant API 发布、自定义 GPT、GPT Store……都给 AI 行业带来了巨大的冲击,引发了极大的思考,OpenAI丢给广大中国大模型公司的一个显著议题便是,卷可以,但是我们是不是卷错了方向。
在OpenAI开发者大会结束后,最为被动的是一众创业者们,前斑马智行联合创始人、阿里钉钉副总裁、明略首席战略官张斯成博士就曾向AI科技评论表示,作为一家准商业公司,OpenAl的终极对标是Google,这一点和Microsoft的战略利益高度一致,也是长期稳定伙伴关系的压舱石。
而作为宇宙头部AI企业,OpenAl的无代码编程、降价等一系列措施无疑在往杀掉中间层的趋势上发展。这为整个国产大模型划分了两条清晰的路径:要么是和OpenAl血拼,继续再造基础模型,要么开卷上层应用生态,在已有大趋势下杀出血路。
华尔街见闻近期就指出,在应用端,海外市场已经涌现出众多新星。如数据服务软件lamaindex.ai,周计访问量同比成长122.69%。Llamalndex可以将大模型和企业数据连接起来,做定制化的LLMs,管理数据流和任务调度。类似的工具还有LangChain 。
而近期成为AI圈明日之星的的Character.ai表现同样亮眼。该公司正在研发下一代的对话机器人技术,应用范围也极其之广,包括娱乐、教育、常规问答等。AI应用最本质的价值,可以从新一波AI的早期受益者之中看出端倪,Adobe、Abnormal、Coda、Notion、Cresta、Instabase、Harvey、EvenUp、CaseText 和 Fermat,这些均是已经能够将生成性AI加入其应用的现有公司和初创公司。而放眼至国内,最早造成全民效应,实现C端盈利的不是资源雄厚的国家队,也不是有着长久技术积累的BAT,而是那个只需要一杯咖啡的价格,就能解锁近70套不同风格的个人写真的AIGC应用妙鸭相机。
从这一点上而言,对于AI应用的重视一方面是来自外围竞争对手的启示,另一方面也是商业本质规律的必然驱动结果。在今日的西丽湖论坛上,李彦宏也指出,相比起国外已经不断成熟的AI应用生态,我国现有的AI应用可以说是十分稀有,在他看来“不断地重复开发基础大模型是对社会资源的极大浪费”。
百模大战的背后,是对资源的浪费:算力被反复糟蹋,人才被割裂稀释,数据依然小院高墙。国内下半场的主题并不是奋勇追赶,而是淘汰与整合。人类进入AI时代的标志,不是产生很多的大模型,而是产生很多的AI原生应用。
他指出,现在的行业现象是,众多企业都十分重视这个机会,但是往往最后就演变成CEO把任务交给IT负责人,以为“自己搞个基础模型,或者按照网上传播的评测方法来挑选一款评分高的大模型,”就是拥抱AI时代了,这其实是对公司和社会资源的极大浪费。
上海人工智能实验室的首席科学家林达华也向AI科技评论表示,大模型体现出来的是更强的泛化性能力,能够在更多领域带来通用的智能化变革。这个过程中其实最终还是要回归到一个技术本身的价值,要应用和落地。如果大家都在同样一个基座大模型上卷,势必孵化不出创新之果。
顺着这个思路,我们会发现,卷AI应用是必然趋势,但是即使知道了这个方向,在行进的过程中又会存在哪样的难题与壁垒呢?梅特卡夫法则提出,如果一个产品或服务的每一个额外用户都能为所有其他用户带来更多的价值,那么你的产品或服务就具有"网络效应"。
雷峰网创始人林军在近期评论什么才是好做的生意时也表示,当一个生意可以传承可以一代接着一代顺延下去时,就证明是顶级的好生意。简单好用好传承对于技术还是商业而言,都是制胜的不二法则五。在这一点上,上一代互联网公司的发展也提供了很好的佐证,无论是Windons、Facebook,还是Twitter,他们都是开源生态,会把所有的东西开给你,然后你去做第三方应用的对接,大家一起把生态做起来,这是原来的做法,也是为什么顶级技术都会最终走向开源的原因。
而回到如今的AI应用发展,大家会发现,OpenAI他突然开始让很多小团队无路可走了,出现和上一代完全不一样的结果,这是为什么?其实是因为OpenAI自己做了各种各样的东西,做了API,做了中间层,又在往应用方面切,本质原因就在于,不同领域的训练和迭代都是闭环效应,如果应用和用户都在他的手里,他就会更好的训练和迭代。
所以超级头部有足够强的意愿以及能力,他一定会这么干。在这种方式下,个人小团队做应用很难做出来,这就要求厂商的商业变现逻辑极大缩短,比如一两年之内能够完成整个周期,否则很容易被拍死在沙滩上。AI原生应用之路除了对企业商业模式提出了极大要求,对于环境和政策也提出了较大要求。
西丽湖论坛上,李彦宏以新能源汽车产业作类比表示,新能源减免购置税、上路不限号不限行等措施,有效拉动了新能源汽车产业的快速增长,AI产业也是需求驱动,应该在需求侧、应用侧发力。
在这一方面,前旷视员工也曾向AI科技评论表示过类似的观点,AI大潮之中,大型AI企业都在等两个强国战略的落地。一个是质量强国,一个是知识产权强国。大家都说美国都开始卷垂直领域和应用层了,中国怎么还没开始卷,这是因为在美国知识产权的情况跟中国不一样。
两个国家的人口结构和知识产权的结构,决定了在同样一个技术出来以后,演化速度和演化方向肯定是不一样。而回归企业本身,整个大环境带来的是同样的难题,一味地等待其实并不是良策,主动拥抱,做好准备方为正道君子生非异也,善假于物也。
大模型不会真的创造一个应用场景,造一百个大模型和造一个好用的基座大模型在商业上没有什么本质区别,这的确是对资源的浪费。但如果能充分利用现有的大模型的基础,发力自己的已有优势,调用大模型来开发AI原生应用,用市场推动产业发展,或许是一个新的解题思路。
(在企业具体的行进道路上,如何细化用市场推动产业发展这一解题思路?或许可以与本文作者郭思聊一聊哦,微信:lionceau2046)
人类现阶段是否可以信任人工智能?这个问题从近期的报道中可以找到答案,6月22日,纽约南区法院作出 判决 :Levidow,Levidow &Oberman律师事务所因向法院提供虚假信息,行为恶劣,被处以5000美元的罚款。引起关注的原因是,在这例判决中,虚假信息的提供并非是律师出于利益而故意知法犯法,而是因为他们过于相信了AI的能力。
人类现在无法完全信任AI,但人与AI之间的关系如果没有信任便无以为继。今日西丽湖论坛上,硅谷人工智能研究院创始院长 Piero Scaruffi(皮埃罗·斯加鲁菲)对AI可信和安全的重要性进行了论述。他指出,Transformer 是大模型的基础,目前席卷全球的人工智能热潮都可以直接追溯到transformer的发明,Transformer性能强大可用,也因为这一点,我们在健康医疗、金融、自动驾驶等众多领域都见到了它的身影,但这些领域具有高隐私性、高安全性的诉求,可信 AI 是一个非常值得关注的重点。除他之外,行业对AI可信和安全的关注其实一直都有声音。
今年4月,AI早期创始人马斯克联合业内千名高管和专家发布公开信,倡议所有人工智能实验室应立即暂停训练至少6个月,以应对AI脱离人类掌控的威胁。曾获得图灵奖、被称为“AI 教父”的加拿大计算机科学家 Yoshua Bengio 在近期一次采访中呼吁,AI 领域被少数科技公司控制的可能性,将会是该技术带来生存风险之后的“第二大问题”。
而进一步追问,我们会发现GPT的可信性其实可以拆分为体现在多个细分领域,截至2023年10月19日,共有171台支持人工智能(AI/ML)的医疗设备被添加至FDA批准的人工智能设备列表中,但是巨大的问题是人工智能医疗设备、疗法和诊断可信吗?放至网络和社交媒体之上,互联网的内容可信吗?电话交谈可信吗?人类又该如何创建一个更值得信赖的社交媒体生态系统?
在商业上也同样如此,人工智能可以带来指数级的效益,但也可能损害公司的声誉,在皮埃罗看来,如今随着大模型技术的演进,AI的可信度现阶段也正在不断进化,安全可信的AI必须具备可靠性、安全性、安保性、可用性、易用性。面对大模型带来的企业管理风险,
行业也应该帮助企业在整个人工智能生命周期(从构思到设计、开发、部署)制定道德保障措施的框架。
这些都是亟待解决的问题。
在这些问题上,美国对于人工智能的管理其实早已从各方面开始了布局。2023年10月30日,美国白宫发布拜登签署的最新行政命令——《关于安全、可靠和可信的AI行政命令》,以确保美国在把握AI的前景和管理其风险方面处于领先地位。
作为美政府负责任创新综合战略的一部分,该行政令以美国总统之前采取的行动为基础,包括促使15家领军企业自愿承诺推动安全、可靠和可信的AI发展的工作。美国出台的最新政策包含安全测试、标准、最佳实践、网络安全等多个方面。
此外,美国国家科学基金会计划拨款1.4亿美元,用于启动7所新的国家人工智能研究院,涉及法律与社会可信人工智能研究所,基于代理的网络威胁情报与操作人工智能研究所等。除了出台的政策之外,皮埃罗也指出,脱离于政府的各类非盈利机构也应该密切关注这一议题,例如分布式人工智能研究所、加州理工学院的Anima AnandKumor和Michael Alvarez等等均做出了良好的表率。
各类跨国学科会议也应密切关注这一问题。而放眼至我国对于可信AI的关注,在政策以及企业和机构的合力上其实也动作频频。
7月13日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》。对生成式人工智能服务提出了多项规制,开启了中国对生成式人工智能产业的监管之路。同月OPPO联合西安交通大学、中国信通院华东分院共同发布了《可信赖AI安全隐私技术研究》白皮书。
当全部人的目光都聚集至可信AI时,我们发现光有政策其实还不够,因为可信AI从技术上以及商业成本上而言本身就是一个非常大的难题。在技术技术层面,可信领域专家伊利诺伊大学香槟分校(UIUC)的李博教授曾表示,AI 系统的安全性并没有单一的解决方案可以解决所有问题,而需要多方面、持续的努力才能实现,大模型的有害内容(toxicity)、刻板偏见(stereotype bias)、对抗鲁棒性(adversarial robustness)、分布外鲁棒性(out-of-distribution robustness)等多个特点都值得我们深入关注。随着大模型的发展,巨大的参数量和成本也成为可信AI领域一个迈不过去的门槛。
一位过去做隐私计算的行业人士在此前向AI科技评论表示,以前做隐私计算就三个技术:联邦计算、多方安全计算、可信计算,而如今因为大模型的发展,成本不断激增,就拿安全多方计算来说,在处理大模型数据训练上,要把原本训练周期扩张到2-6个数量级,联邦学习也是要好几倍的开销。这些活在大模型训练里都做不了。而放观全局,可信 AI 的落地需要跨领域的系统协作。
可信赖 AI 涉及学术界到工业界整个流程,仅仅关注算法是不够的。在工业界,要做一个可信赖 AI 的系统,需要从用户需求的调研和用户问题的提出开始,就要思考这是不是可信赖 AI 的问题,再到数据的收集标注,算法设计,开发上线,最后到产品交付,保持用户体验,从工业角度来讲,关注的是全部的流程,学术界更关注的是中间算法部分,可信 AI 的落地需要学界、产业界和监管部门一起努力由此可见,可信AI对于整个行业而言都是一个难且重要的议题。(关于可信AI的探讨,还有哪些角度可以思考?欢迎与本文作者:郭思微信:lionceau2046,共同探讨。)
人工智能的崛起可能是人类遇到的最好的事,也可能是最坏的事情,但我们还不知道答案。一方面我们看到了大模型带来的巨大可能性,GPT4 Turbo一出,OpenAI再次遥遥领先,差距大,但还没到完全垄断的地步。这个领域整体目前看应该还不存在绝对的护城河。
国内这个全球最大单一市场也仍在酝酿期,但是如果我们持续现在的竞争模式,统统发力基座模型,而忽视AI原生应用与人类与AI之间的安全可信问题,那么在追逐再造一把普罗米修之火的过程,或许还没等到我们把火苗造出来,同行便早已将柴火打湿,我们的身后也会因为没有完善的护盾而早已遭万虫侵蚀。
“斗争,失败,再斗争,再失败,再斗争,直至胜利——这就是人民的逻辑,他们也是决不会违背这个逻辑的。这是马克思主义的又一条定律。”丢掉幻想,不要贪大,或许再造不出中国版的OpenAl,但或许可以成为世界版的中国某某某。
(本文作者郭思:微信号lionceau2046,长期关注大模型领域动态与故事,欢迎添加微信交流。)
雷峰网(公众号:雷峰网) 雷峰网 雷峰网