中国AI大模型,应该如何商业化?

资讯 11个月前
160

 虽然大模型商业化的路径较为清晰,目前国内厂商也都在积极探索,但大模型的商业化之路,不能仅限于商业模式的探索尝试,更在于解决大模型发展的底层问题。

作者|斗斗

编辑|皮爷

出品|产业家 

如今,大模型的商业化问题再次被摆在台面上。

一个事实是,当下的大模型训练需要强大的算力支撑,尤其是参数量大的模型,花费极大。比如OpenAI的语言模型GPT-3,成本接近500万美元,也就是人民币4000万左右。庞大的模型训练需要巨额的资金来支持。

投入了巨额资金之后,企业一方面是希望尽快商业化来解决后续研发资金的问题,一方面也是希望通过商业化来达到赚钱的目的。

那么矛盾也接踵而来,迅速的商业化,难以避免的是一些安全性、伦理性的问题被暂且搁到一边,更为真实的情况是,如今大模型迅速商业化之后的发展路径思考的其实并不多,因此也就看到了很多大模型基本上就是浅尝即止,最后引发商业化与非盈利之间的矛盾。

OpenAI前段时间的“宫斗”,便是一个很好的例证。

11月18日,OpenAI管理层发生巨变,CEO奥特曼被解雇。至此,OpenAI“宫斗”上演。

在公开报道中,OpenAI的六人董事会中,被开除的奥尔特曼和Greg Brockman倾向加速商业化,以获得更多资金来支持AI模型的算力需求;而独立董事Tasha McCauley和Helen Toner更关注AI的安全。

简言之,一方以技术为主导,追求模型的卓越性,以实现通用人工智能为目标;一方则认为商业化是公司发展的必经之路,应该积极拓展市场应用,从而实现盈利为目标。由此,一个猜测是,倡导商业化的阿尔特曼碰到了强调AI技术、安全属性的Ilya Sutskever,直接正面引发了冲突。

经过反反复复地拉锯。11月30日,OpenAI宣布组建新初始董事会,Sam Altman重新担任CEOMira Murati担任首席技术官。这次“宫斗”胜利者似乎属于商业化的那一方。

但在这场由世界顶级大模型公司引起的“商业化与非盈利之争”的闹剧下,引发的一些问题使人陷入深思,即大模型的商业化正面临着哪些困局?大模型应该如何商业化?

而在中国市场,大模型厂商除了已经展现出来的算力层面商业价值外,还可以在哪些方面进行商业化尝试?以及,这条路已经走到哪了?

一、大模型商业化众生相

在大模型的商业化方面,以百度、阿里、腾讯等为代表的互联网厂商,目前商业化前景较为清晰。这一点与其自身庞大的业务体系不无关系。

即互联网巨头可通过将大模型集成到现有产品和服务中,比如百度文库文档助手、淘宝问问、Bing搜索引擎等,来增加用户粘性并带动营收增长。主要方式是将生成式AI作为辅助功能,嵌入原有业务,视为一项增值服务。

其次是订阅服务,即采用按月或按使用量计费的订阅模式,为客户提供持续的大模型访问权限。例如OpenAI的ChatGPT、百度等文心一言、阿里的通义千问等。目前国内文心一言等也在通过订阅制的商业模式,为大模型应用带来一些营收,但其他厂商收费意向不明。

此外以智谱AI这类国家队厂商为代表的商业化前景亦比较清晰。业内普遍认为,诸如国内大型企业、央国企想要与大模型结合,智谱AI是一个绕不过去的选项。

但尽管如此,国内大模型商业化仍处于初级阶段,商业化进程面临着诸多挑战。

首先,大模型的研发和应用需要大量资金和时间投入,而回报却往往难以预测。这导致许多企业在商业化过程中犹豫不决,错失市场机遇。

其次,大模型的伦理道德和安全性问题也给商业化带来了一定的压力。例如,算法偏见和歧视、数据泄露和滥用等问题时有发生,这使得一些企业在大模型应用方面持谨慎态度。此外,国内大模型商业化还面临着市场接受度和应用场景等问题。

目前,大部分企业的应用需求主要集中在智能客服、智能推荐、智能营销等领域,其他领域的应用仍处于探索阶段。这使得大模型商业化进程相对缓慢,难以实现规模化发展。

更值得注意得是,尽管国内在人工智能领域取得了显著进展,但与国际领先水平相比,国内的大模型技术还存在一定差距。这使得国内企业在国际市场竞争中处于劣势地位,也就很难向出海、跨境方向延伸。

此外,国内大模型商业化还面临着商业模式不成熟的问题,比如如何收费,以目前国内普遍采取的算力收费形式而言,这种模式似乎与云计算的收费模式一致,而从利润率来看,这显然不是一个优质的收费模式。

对于国内的大模型厂商而言,商业化的路如何走成为当下亟待解决的问题。

二、MaaS、开源与Agent

大模型的商业化,应该解决的是让企业和用户更少了解原理,更简单直接使用成果,让用户回归价值和自身业务问题解决。换言之,也就是大模型的“一体化黑箱模型”。

因此,如今的一些商业模式成为了大模型赛道玩家和创业者们的聚集之处。

其中,MaaS模式是最为常见的一种。在这种模式下,一般是由云厂商或科研机构对大模型封装,在各类任务上的推理能力封装成统一的应用程序接口,对外提供服务的模式,虽然提供的是API,但是本质上调用的是模型。

下游企业可以获得这些接口,并按照自身的业务需求,调用服务嵌入已有的应用和服务中,让大模型的API为整个程序进行赋能。

这种方式使得企业不需要过多了解模型的技术细节,而是像调用云能力一样,直接调用服务。目前、文心、通义、盘古等大模型厂商,基本都在提供此类服务,比如阿里的魔搭社区,百度的飞桨等等。

此外,开源模式也是大模型商业化的一种重要方式,在这种模式下,计算机程序、软件的源代码等内容公开,并根据开源协议进行分发的方式。

开源是目前计算机领域一种普遍的软件开发模式,大量开发者在协议许可的情况下对开源代码进行修改,并集成到已有的系统中,为软件和系统增加新功能和特性。

在开源的模式下,可以快速共享好成果,让好的成果快速培养社区,下游用户利用开源成果,可以快速搭建自己的应用系统。在国内,智谱AI、阿里通义都在强调开源的价值。

开源本身是免费,但涉及到后续的数据训练、数据监督、数据微调等等,则对应的是较为明朗的收费模式,恰等同于开放井水,但做卖铲子的人。

再有就是平台即服务模式,即不再提供单一的模型API,而是将大模型当作平台服务中的一种技术,集成到AI平台上,通过统一的平台对外提供服务。这种模式中,企业构建包含开发工具、AI服务、流程化的平台,而大模型只是平台中的一个组成部分。

用户购买或使用平台的过程中,可以利用平台提供的工具,对大模型进行开发和应用,集成于自有的体系中,用户不能单独获得模型的能力。用户通过使用平台和工具,获得利用大模型开发的能力,也因此付费。

例如,文心大模型已经发展出了NLP/CV/跨模态/生物计算大模型,并且在此基础上,推出了众多行业大模型、大模型套件。向上又有Easy-DL、BML大模型、大模型API、文心一格(AIGC)等。

还有一种软件即服务的模式。目前国内大厂、头部政企和科研机构,正在提供强大的新基建,中小厂商可以基于这些基建,开发自己的saas服务,并提供给企业、个人。AI Agent便是当下炙手可热的大模型创业路径。

此外,无论是对于OpenAI、Meta这样的AI领头企业,还是对于众多的小型初创型企业或者科技极客来说,AI Agent也更是如今商业化不得不谈的话题。不论是钉钉、飞书,亦或者是百度,都在推出自己的Agent产品。

如果说前面所说的众多变现都在B端,其市场和需求量有一定的天花板。那么,AI Agent则对应的是B端市场之外,在C端的巨大想象力。不仅市场本身,更在商业价值。

如今,一个业内普遍共识是,AI Agent是未来实现终极的AGI(通用人工智能)形态的必经之路,而且越来越多的人认识到,大模型只有在真正的应用层面走进千家万户,才能展示其真正的价值,而AI Agent就是最好的应用形式。

三、商业化难在哪?

总体来看,大模型商业化的路径尽管未能做到最好,但方向是清晰。不过清晰并不意味着能落地。对于国内大模型赛道的玩家而言,仍面临诸多内外部的挑战。

11月7日的凌晨,OpenAI在首届开发者大会上发布了几个更新,新的模型GPT-4 Turbo、GPT Builder以及Assistant API。

其中,GPT Builder的特性包括每个人/每个企业都可以定制属于自己的GPT;每个独特的GPT可定制自己的指令、知识库、工具与动作、头像等;无需开发,直接使用自然语言定制,你甚至可以让Dalle3帮你生成头像;GPTs可以分享使用,并享受类似App Store的分成。

这意味着,每个人/企业都可以在线创建自己的GPT/Agent。

而另一个更新Assistant API,可通过API来让GPT来帮你编写代码并自动执行;通过API实现函数/工具调用的能力,扩展AI的能力。

这意味着用户可以更轻松的通过Assistant API在自己的网站或者移动应用中构建自己的ChatBot或者AI助手,大大减少AI开发的繁重工作量。

一个事实是,其不再满足于提供基础大模型,而是希望成为AI时代的AI OS平台。这一更新很大程度上给AI Agent的售卖模式带来了不小的冲击。

而在开源模式上,同样存在着发展的瓶颈。以智谱AI为例,目前智谱AI开源的模型参数主要为6B,参数较小。究其原因,离不开资金不足的难题。要知道模型参数越大,意味着算力需求越大。虽然智谱AI早在此前就购买了大量的A100,但从其近期频繁且高额融资来看,其仍需要大量资金支撑其持续的商业化和研发创新。

在MaaS模式上同样也存在许多落地的难题。首先,如果模型效果不尽如人意,API将无法充分满足用户的常规推理需求,因此需要根据具体情况对模型进行调整和优化,但调优本身是一个具备门槛的开发,大部分企业不具备这样的能力或大模型人才,也就很难持续为MaaS社区贡献活跃度。

其次,由于大模型的运行速度相对较慢,当推理请求的数量或请求数据量大幅增加时,API的响应时间和数据质量将难以保证。例如,像ChatGPT、DALLE2等AIGC应用,其实际反应时间往往较长,因此难以在短时间内实现大规模应用和提供及时响应体验。

总体而言,全球大模型产业商业化仍处于早期探索阶段。

一方面,虽然研发机构在大模型技术方面已经相当成熟,但对于落地场景却还不够熟悉,尚未形成完善的商业化模式。因此,它们需要与下游场景企业合作,共同构建大模型的商业模式。

另一方面,大部分下游场景企业对于大模型的基本概念和认知尚未形成,同时,它们也缺乏支持模型微调所需的算力,以及定制和二次开发模型所需的人力资源和技术实力。

总体来看,虽然大模型商业化的路径较为清晰,目前国内厂商也都在积极探索,但大模型的商业化之路,不能仅限于商业模式的探索尝试,更在于解决大模型发展的底层问题。

写在最后:

一个事实是,大模型真正的价值在于能够解决实际问题并创造商业价值,场景是商业模式的基础。对于大模型赛道的玩家而言,如何将大模型与具体场景结合,成共落地,才是商业化的本质。

以OpenAI的GPT-3为例,这款语言模型以其较强的生成能力和广泛的应用潜力吸引了全球的目光。

然而,如果没有合适的场景和应用,这个工具只能停留在理论层面或实验室环境。只有当它被成功地应用于各种场景中,才能发挥出真正的商业价值。

Copy.ai是一家使用GPT-3的大规模语言模型来帮助企业和个人快速生成高质量内容的初创公司。通过深入了解客户的需求和市场情况,Copy.ai将GPT-3的技术能力与营销、广告、新闻稿等应用场景紧密结合,实现了从技术到产品的转变。这种“场景为王”的策略使得Copy.ai能够在竞争激烈的市场中脱颖而出,成为了一家备受瞩目的创业公司。

在国内,这样的尝试或将成为下一个阶段的主题。

       原文标题 : 中国AI大模型,应该如何商业化?

© 版权声明

相关文章