长在云上的大模型,也终将改变云计算的格局
前言: 云计算产业正面临一场由大模型技术引领的变革,背后的驱动力主要有两个方面: 首先,AI算力和AI软件的需求增长速度远远超过通用算力和传统软件; 其次,大模型的应用有助于降低软件和项目交付的成本
前言:
云计算产业正面临一场由大模型技术引领的变革,背后的驱动力主要有两个方面:
首先,AI算力和AI软件的需求增长速度远远超过通用算力和传统软件;
其次,大模型的应用有助于降低软件和项目交付的成本。
作者 | 方文三
图片来源 | 网 络
算力饥渴有望带动云服务复兴
与前两年的繁荣相比,近两年来云计算行业面临困境,增长乏力。
在大模型热潮的推动下,云计算厂商成为主要受益者之一,被视为实现弯道超车的机会。
预计大模型将带动云上AI算力的急剧增长,逐渐缩小AI算力工作负载与通用算力的差距,为云厂商带来新的机遇。
据硅谷知名风投A16Z估计,应用层厂商将大约20%—40%的收入用于推理和模型微调,这部分收入通常直接支付给云厂商或第三方模型提供商。
而第三方模型提供商也将一半左右的收入用于云基础设施。因此,生成式AI总收入的10%—20%流向了云提供商。
另一方面,OpenAI的研究表明,在最大规模的人工智能模型训练中,计算量呈指数级增长。
目前大模型训练所需算力的增速保持在3-4个月/倍速度增长,远超摩尔定律的增速。
综上所述,生成式AI的大量资金最终流向了基础设施,AI大模型训练为云厂商带来了可观的直接营收。
同时,生成式AI推动了整个云服务行业的升级,为其带来了新的市场增量。
传统云生态过渡到新型云生态
传统云生态以软件、服务为核心。云计算兴起过程中,一批销售、软件、服务、咨询、集成伙伴自然聚合在云厂商周边,形成了[云原生]生态。
云厂商与合作伙伴的默契是,只提供基本的公有云服务(如计算、存储、网络、数据库),其他都交由合作伙伴负责。
这种生态的好处是边界清晰、分工明确。但过去多年,中国云市场生态建设有大量不足之处。
中国市场应用现代化水平还不高。集成项目、人力外包是目前的主流形态。这带来的问题是,服务成本高、协同效率低。
在大数据模型时代,新型的云生态系统将以多租户平台和AI原生应用为核心。
经过AI技术改造后的应用软件将在整个生态系统中发挥更加关键的作用。
原子化、单点化、碎片化的AI应用将更为丰富,且更具价值。
其价值主要体现在解决上一代云生态系统的主要问题上,即降低服务成本、提高服务效率。
以AI为核心的大模型阶段云生态,正逐渐成为主流,并逐步取代旧的云生态。
这一历史进程是由AI算力占比的持续上升和AI算力成本的持续下降所决定的。
据OpenAI预测,AI大模型的训练成本将持续快速下降,预计到2030年将降至仅60万美元。
MaaS成趋势,大模型服务是主流
随着大模型的数量日益增多,众多企业已认识到,独立训练大模型并非明智之举,反而基于现有的通用大模型进行二次开发更为实际且高效。
这一观点与当前大模型领域中普遍存在的[重复造轮子]现象的应对策略相吻合。
在AI原生应用大量涌现的背景下,除了前期的模型训练,云服务提供商的盈利空间将更多地来自于向开发者提供强大的基础大模型,并针对各类业务场景和用户需求收取AI应用推理费用。
为了实现这一目标,云服务提供商需要确保计算服务的稳定性和推理体验的优质性,从而在激烈的市场竞争中脱颖而出。
最终,MaaS将成为新的基础服务,并依赖于新型IT基础设施进一步颠覆当前的云计算市场格局。
在过去数年中,稳态业务通常部署在主机上,要求绝对稳定性,而敏态业务则更多地构建在云上,以满足不断变化的需求。
在此基础上,目前存在两种主要的上云模式:一种是平迁上云,成本较低且能保证数据可控性,但同时可用性也较低;
另一种则是将底层架构彻底云原生化改造,虽然成本高、周期长,但可以为企业带来长期利益。然而,很少有企业能够承担暂停服务器进行架构改造的代价。
云服务提供商积极发力
目前,各大云服务提供商正在积极推出大模型平台,旨在降低大模型的训练和使用成本。
百度推出了文心千帆大模型平台,专门面向B端企业用户。该平台提供一站式的大模型定制服务,包括数据管理、自动化模型定制微调以及推理服务云端部署等,同时还提供文心一言企业级推理云服务。
腾讯云推出了新一代HCC高性能计算集群,采用最新一代腾讯云星星海自研服务器和NVIDIA H800 Tensor Core GPU,提供高达3.2T的超高互联带宽。
阿里云推出了[魔搭社区],这是一个面向用户的模型服务型平台。该平台致力于降低模型的使用门槛,为多个场景提供适配的API。
华为云的一站式AI开发平台ModelArts为盘古大模型的训练和推理提供了全面的优化支持,包括计算优化、通信优化、存储优化和算法优化,成为盘古大模型重要的基础平台资源。
字节跳动旗下的云服务平台火山引擎推出了智能推荐-高速训练引擎,采用软硬一体优化设计,支持100GB-10TB+超大模型的高效训练。
在大模型的影响下,云计算从互联网时代的CPU云为主向AI时代的GPU云为主的转变已成为行业共识和必然趋势。
在更底层的芯片端,除了英伟达之外,高通、英特尔、Arm等厂商也开始将面向大模型训练与推理的芯片设计与生产纳入工作日程,为下一个时代的可能性做好准备。
然而,除了芯片种类与数量的变化,大模型对云计算厂商的影响其实体现在更深层面。
结尾:
对于大模型相关能力的研究和投入,各大云厂商必须给予足够的重视。
通用人工智能的支持是大势所趋,也是各大云厂商必须完成的任务。
在这方面,任何疏忽或缺失都可能导致无法在激烈的市场竞争中立足。
因此,各大云厂商应将其视为一个必备的核心能力,不断加大投入力度,以应对不断变化的市场需求和竞争态势。
随着新需求的涌现,需要构建与之相匹配的新生态,并制定相应的新策略。
部分资料参考:财经十一人:《大模型,即将改变云生态》,雷锋网:《年底了,我们来谈谈云计算与大模型的那些事儿》,中国新闻周刊:《在云上,看见大模型的未来》,比特网:《热度不减的大模型,将给云计算市场带来什么?》,科技云报到:《生成式AI将开启云计算未来新十年?》,21世纪经济报道:《大模型时代,云厂商的双重身份》
原文标题 : AI芯天下丨深度丨长在云上的大模型,也终将改变云计算的格局