大家对云计算想必都很熟悉,今天就拿云计算服务模式的IaaS/PaaS/SaaS三层划分来进行类比,跟大家探讨大模型的商业模式。
一。大模型的三层模式
大模型时代的IaaS即基础设施是大模型的服务,比如OpenAI以及国内的文心,千问等服务,他们提供的就是以自然语言交互以token序列为结果的大模型服务。
为了更好的使用大模型的能力,先后出现了提示工程和Agent智能体两个方向的发展,比如LangChain和其他各种Agent。这一层的服务可以视为大模型时代的PaaS,通过这个层面能力的建设,可以形成利用大模型能力的应用框架和平台,加快应用层面生态的发展。
大模型时代的SaaS层,和云服务的SaaS层类似,都是以应用形式展示,虽然其内核可以认为已经完全不同,产品内部形态可能也会产生巨变,不过现在还没有大面积发生。
至于OpenAI的GPTs,我认为它更多是大模型时代的AppStore,它是属于SaaS层而不是PaaS层的。
二。大模型三层的价值摄取
那么,这三层的价值都体现在哪里,以及被谁拿走了呢?
IaaS的价值更多来自于大模型,这一点大家是有共识的。但是大模型产生的价值,更多被谁变现了呢?不是大模型的开发者和服务商,而更多是被硬件厂商通过高价显卡拿走了。大家可以关注一下百度的股价,当发布文心4.0的时候,股价是跌的。所以百度才会考虑“把所有的应用用LLM重写一遍”,必须走到应用领域,才能将其在AI领域一直到大模型时代的投入有变现的可能。
不过在IaaaS层,还有一个方向,即面向细分行业的大模型建设。这个就有点类似于云计算的私有云建设,根据不同行业比如金融或者制造业,分别定制私有云并且集成行业应用,这还是存在直接变现的途径的,这个方向和在SaaS层通过应用的行业价值变现的道理是互通的。
我们再来看PaaS层,在PaaS层看起来很哪有直接变现的途径,但是可以成为控制生态的入口。比如cuda,虽然从技术上看应该放在IaaS层,但是从和应用的关系来看,可以归入到LLM领域的PaaS层,它是直接服务于大模型的训练和推理,但间接服务于应用,影响了应用的形态。如前边所说,这一层的主要技术方向是提示工程和Agent,未来3-5年一定是围绕着Agent形成的生态。
最后是SaaS层,也是大家讨论最多,未来玩家最多,生态最丰富的一层。大模型作为新的应用引擎,推动交互方式向自然语言交互发生根本性的改变,并基于交互方式的改变,对应用的内外形态都会产生根本的变革。这个变革和当年从命令行到图形界面的改变一样意义重大,远大于手机从功能机到智能机变化的影响程度。从这个角度看,现在百度已经做的一些改变,比如文库里增加的助手,更多还只是对现有产品的功能增强,远谈不上改造。这一点文章很多了,大家可以自己找一些来看,多从交互方式的变革角度来思考。
这里想把大模型时代的IaaS层和当年电信运营商被微信等应用OTT的场景做一下对比。
如果大模型服务的提供商不能自己触达C端用户的化,大概率也会被OTT,这也是李彦宏为什么要拉ISV一起把应用的生态做起来的原因吧。同样OPENAI的GPTs也是一个道理。
三。未来的可能变化
最后,目前已经形成的状态,会有什么变化吗?
我们依然从三个层面自下而上看。
IaaS层,Intel和AMD自然不会允许英伟达一家独大,已经纷纷进入来分享蛋糕,比如Intel推出了OneAPI,提供了兼容CUDA体系和Intel自己GPU和CPU的SDK。AMD更不用说了,显卡性能一点也不必NVIDIA差,只是差在了软件生态上。
另外,国内因为大家都知道的原因,华为的昇腾卖的也不错,百度因为买不到N卡,已经买了以万块为单位的昇腾920卡。
同时,大模型厂商也不甘心为N卡付出巨大成本,GOOGLE有自己的TPU卡,META/微软/苹果也都在做自己的GPU卡。
N卡构建的统一软硬件体系在大模型发展前期推动了业界的发展,是有正面作用的。但是合久必分,未来大模型的IaaS层从硬到软,一定不会是一家独大的。
其次,PaaS层,目前是相当热闹,国外看起来LangChain遥遥领先,但是也有很多行业的细分Agent层出不穷。
国内从LangChain复制的Agent也不少,同时也推出了不少类似XAgent等有一定含量的Agent。
最后,在SaaS层,这一层虽然看起来也很热闹,但是2C的居多,2B落地的东西反倒没有PaaS层那么多,大家更多还是在摸索如何和行业结合。
在SaaS层还想讨论两个点。
一个是以前在大数据时代大家提的“数据+算法+算力”的模式,由于大模型的进入,也要发生巨大的变化,除了算力在眼下依然是关键要素,前边二者因为大模型服务这个通用的电厂一样的服务的出现,变得没有那么重要,而行业知识的理解变得更加重要。不过所面临的问题和产业互联网时代是一样的,这一点倒不会因为大模型的出现发生改变。
其次,利用大模型带来的改变,小微企业优势可能更大。对于解决方案提供商,可以规避以前AI建设的极高成本,快速构建能力更强的应用。对于行业用户,没有大企业对数据安全的顾虑,通过大模型加工内部知识库,可以更快的利用到大模型的红利。