广告
加载中

直接开打!字节阿里腾讯争相参战 谁是大模型“价格屠夫”?

胡镤心 2024/05/24 17:03

做大蛋糕,还是厂商自嗨?

文丨胡镤心

编辑丨张睿

【亿邦原创】还没到618,价格战的腥风血雨已经来了。

字节高调“起头”,阿里“击穿底价”,百度直接“掀桌子”……不到一周时间,大模型厂商针尖对麦芒,每百万token的输入价格,先后从2元、1元、0.8元、0.5元跌到免费。

“大模型降价不是短期竞争行为,是长期战略选择。”阿里云公共云事业部总裁刘伟光表示。“我们绝不会选择亏钱做这件事。”火山引擎总裁谭待也宣称,“toB业务需要长期主义,用亏损换收入不可持续,我们不走这条路子,降价是因为技术够好。”

“中国有世界上最好最优秀的B端和C端市场,把做AI应用的门槛和成本降下来,就会激发出更大的产业应用空间。”商汤科技联合创始人、大装置事业群总裁杨帆风认为。

但这场价格战主要集中在大厂之间,尤其是有云业务的大厂,大模型创业公司并未跟进。百川智能CEO王小川表示,“我也是看热闹,和大家的心态一样。”零一万物创始人李开复则公开质疑,“性能比价格重要,100万个token花十几块还是花几块钱差别不大。”

IDC中国研究总监卢言霞认为,厂商发起的这一轮价格战,目前不确定会有多大的市场影响,可能会有三种走向:

· 模型公司走向能力的趋同,进而失去竞争壁垒;

· 多模态大模型的发展带来新的竞争机会;

· 也有可能这轮价格战只是厂商的自嗨。

“因为现在限制用户使用大模型的挑战不仅仅是价格,还有模型结果的准确性、数据的就绪度等等。用户使用生成式AI的挑战,成本不是排在最前面,要紧的是效果。”卢言霞指出。

大厂大模型为何激情互卷?价格战能否重塑行业格局?

01

一周内大模型卷出“白菜价”

这是一场价格战由私募公司幻方量化旗下的AI公司深度求索DeepSeek拉开帷幕,随后字节、阿里、百度、腾讯相继入场,将价格战推向高峰。

· 5月6日,深度求索发布DeepSeek-V2,2360亿参数,性能比肩GPT-4 Turbo,价格却只有GPT-4的百分之一。支持32k上下文的模型API(应用程序编程接口)定价仅1元/百万Tokens(计算)、2元/百万Tokens(推理)。

· 5月13日,智谱AI宣布GLM-3-Turbo,价格从5元/百万Tokens,降低到了1元/Tokens。

· 5月15日,火山引擎发布豆包大模型,豆包主力模型在企业市场的定价0.0008元/千Tokens,号称比行业便宜99.3%。

· 5月21日,阿里云宣布主力模型Qwen-Long(对标GPT-4)价格降至0.0005元/千Tokens,降幅97%,Qwen-Max模型价格降至0.04元/千Tokens,降幅达67%。

· 5月21日,百度宣布免费开放两款主力模型:ERNIE Speed(上下文长度 8K、128K)和ERNIE Lite(上下文长度8K、128K)。

· 5月22日,腾讯云宣布混元-lite模型从0.008元/千Tokens调整为全面免费,同时API输入输出长度从4k升级到256k。

· 5月22日,科大讯飞宣布,讯飞星火API能力正式免费开放。其中,讯飞星火Lite API永久免费开放,讯飞星火Pro/Max API低至0.21元/万tokens。

“大厂今年会卷价格,这个是意料之中,只是没想到大家这么狠,都卷到0了。”同为AI决赛圈选手的王小川也感到惊讶。

降价源自对市场空间的预判。

据悉,阿里云内部将2024的AI类比为2012年的移动支付和2017年的短视频——2012年到2013年,3G过渡到4G过程当中,中国的移动支付两年增长了 800%;2017年到2018年,短视频增长爆发,整个短视频行业呈现8.5倍的增长。

刘伟光称,阿里云这次大幅降低大模型推理价格,目的就是希望推动AI应用的爆发。阿里云预计未来大模型API的调用量会有成千上万倍的增长。

模型层迭代放缓,也是诱因之一。

比如,2023年,百川智能以月为单位迭代,相继共推出12款大模型,涵盖开源、闭源、学术科研、国产算力等多个维度。到2024年,百川智能的迭代节奏放缓,开始按季度迭代,2024年1月发布Baichuan 3,5月发布Baichuan 4。

卢言霞指出:“因为最近各个大模型的能力对齐的比较快。也就是说,大家的大模型能力差距没那么大了,那就开始比价格。”

在做大市场和跑马圈地方面,互联网大厂都是熟练工。

“池塘有多大,鱼就有多大,现在整个池塘还在培养的过程。”谭待表示。“核心还是把模型做好,把应用做好,把成本降低,让更多人用起来。降价之后就是应用的爆发,我觉得火山最重要的事情,就是和大家一起把最佳实践做好,把市场做大。”

阿里云也是一样的思路,刘伟光在阿里云AI智领者峰会上表示:“我觉得AI推理成本只有每年有十倍甚至百倍的降低,才能真正推动行业各行各业的AI应用的爆发。”

华创证券认为,整体来看,降低成本是推动大模型快进到“价值创造阶段”的关键要素,更低的成本价格才能真正满足企业的复杂业务场景需求,充分验证大模型的应用价值,从而催化出超越现有产品和组织模式的创新。目前我国企业正处于AI转型的关键时期,低成本下AI模型生态将进一步完善。

不少人看好大模型降价潮对AI生态的激发作用。谭待认为,把模型的使用成本降得足够低,降低企业和开发者的试错成本,才能提高企业的尝试意愿。“你作为一个企业创始人,花1万元用大模型可能会觉得有点贵,现在我们把成本降到1%都不到,100元就能干一个事情,这样才能把大模型应用做起来。”

根据最新的《中国AIGC应用全景报告》数据显示,预计2024年中国AIGC应用市场规模将达到200亿人民币,到2030年将达到万亿规模,成为全球AI领域的重要增长点。其中,B端产品成为主力,占据了整个大模型市场中八成的营收,C端产品半数还是以免费为主。AI原生应用越来越被重视,占比近六成。

同时可以看到,本次积极卷价格的大多是云计算厂商,背后的考量是扩大云业务份额。“一块钱能买到豆包的200万汉字处理量,如果只是个人对话场景,可以聊天到地老天荒了。显然是对企业级市场更有吸引力,字节真正想推的,是火山引擎的云服务。”有从业者表示。

02

大模型商业模式走向分歧

云厂商们针尖对麦芒,AI创业公司成了“吃瓜群众”。

王小川认为,对国内互联网从业者来说,价格战是个熟悉的工具——移动互联网时期打价格战是为了建立双边网络效应,比如滴滴、美团;AI四小龙时期打价格战是为了提高供给;云厂商打价格战是要通过大模型卖云服务。

对此,王小川表示百川智能不掺合,“(价格战)不在我们的商业模式里,也不是一个创业公司该干的事情,我们要做差异化,即超级模型+超级应用的双轮驱动,这在大厂的射程之外。”

质疑价格战的还有创新工场创始人、零一万物总裁李开复。

5月21日李开复公开表示:“国内常看到ofo式的疯狂降价、双输的打法。我觉得大模型公司不会这么不理智,因为技术还是最重要的,如果是技术不行,就纯粹靠贴钱赔钱的方式去做生意。”

Lepton.ai创始人贾扬清也在朋友圈表达相似的观点,“价格战无可厚非,但观众应该将其看作一种市场营销行为,今天API的营收对于国内各家大厂都不多,因此对营收的影响非常有限。”

出门问问创始人李志飞也公开表示,“大家都很焦虑,有些动作已无法进行理性分析。但竞争最为火热的仍是国内巨头之间的竞争。”

他们关注的焦点在于,大模型的商业模式是否成熟,降价是否有助于生态繁荣。

“今天企业在使用AI的时候,并不是成本驱动的,”贾扬清认为,“今天不是说API贵才没有人用,而是因为要搞清楚,到底怎么用起来产生业务价值”。

产生价值的难度来自多方面。北大国发院管理学助理教授侯宏认为,国产大模型发展其实处于一个不利产业结构中。

· 上游成本刚性,因为上游有一个近乎垄断的供应商英伟达,GPU的稀缺让英伟达成为攫取最多价值的互补品。

· 模型层,开源促进了替代品的出现并刺激同业竞争,相当于对知识产权的放弃。

· 应用层,国内的C端用户没什么付费意愿,B端用户数字化基础薄弱(SaaS化程度低是一个重要因素),所谓的场景优势难以兑现,落地起来尤其费力。

·

创新获利理论认为,创新者不一定获利,可能因为:(1)缺乏知识产权保护导致创新被模仿;(2)互补品稀缺导致价值流向互补品。大模型恰恰同时踩上了这两条红线。

由此,模型厂商需要提供更细致的服务,也要提供更便利的配套设施。李开复表示:“我们(零一万物)对自己的模型表现是非常自豪的,绝对不会跟这样的一个定价来做对标……如果以后还是这么卷,大家宁可赔光通输也不让你赢,那么我们就走海外市场。”

当然,不愿降价的AI创业公司也在商业模式上绞尽脑汁,目前仅有的亮点来自月之暗面。

Kimi近期推出的“打赏”功能,让王小川觉得很惊艳。用户可购买5.20元至399元不等的礼物,获取不同的高峰期优先使用时长。

礼物有“送Kimi一朵花(5.2元)”、“给Kimi加鸡腿(9.99元)”、“请Kimi喝咖啡(28.8元)”、“给Kimi充充电(49.9元)”、“请Kimi吃顿饭(99元)”、“和Kimi一起登月(399元)”等六个选项。高峰期的优先使用权限天数分别为4天、8天、23天、40天、93天、365天。

“打赏”意味着用户不是为工具买单,而是把大模型当成一个伙伴来看,而“API收入和大模型本身的收入都不是最性感的商业模式,不是我们要追赶和类比的。”王小川认为。

03

降价能带来生态繁荣吗?

尽管自己不降价,但在价格战后,百川智能的客户确实变得更积极一些。

王小川透露,不少企业找到百川的需求发生了变化——以前是企业想基于开源模型,自己从0到1训练,还想把自己调好的模型对外出售,现在客户愿意直接找一个便宜的闭源模型,微调一下自己用。

大模型厂商希望通过降价促使生态繁荣,但生态不一定这么认为。

To B应用需要与企业内部价值链和IT系统整合,价值创造高度依赖其他互补性资源。这导致即使泛化能力最好的模型,也不能直接拿来用,还是需要和业务做适配。

模型能力成为关键考量因素。执行应用落地最后一公里的SaaS厂商认为,性能比价格重要。

“价格不是我们选择大模型的核心理由。”智能营销服务商王阳告诉亿邦动力,“我们每月Token的费用在10万左右,省这点钱,对我们来说不影响产品本身的价值,也不影响我们商业化。它去掉97%的成本,对我的商业化没有太大影响,不如你们真的把模型能力做好一点。”

“国内和海外仍有差距。”有智能客服企业CTO告诉亿邦动力,“我们AI产品经理的反馈,拿智能服务总结这个场景来说,在同样的input下,国内对于服务分类和信息总结的准确率比海外要低30%左右。”该企业在海外用OpenAI,国内用文心一言。

也有创业者抱怨,Token支出占了每个月成本的大头,降价以后也赚不回成本。

归结起来,对to B场景来说,对性能的重视超过价格。王小川认为:“今天,模型自洽性都不够,模型思考的严谨性,有足够好的逻辑,都是更加重要的事。”

模型技术的攀升,是API调用商业模式成立的前提。如果技术拉不开差距,价格也一定拉不开差距。价格战带来的优势也难以持久。

有更多SaaS企业则回复,根本没太关注价格战,“天天开会,埋头做项目,只有大厂销售员上门拜访的时候,才知道他们在干什么。”

卢言霞总结,价格战短时间内将会加速大模型发展。但是,终局目前完全不好说。因为现在是阶段性的大模型能力突破,后面还会有很大的提升空间,包括多模态大模型目前也没有成熟的技术。整体产业的发展方向目前不可预测。

文章来源:亿邦动力

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享

APP内打开

+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0