大模型落地,难在哪儿?模型效果、推理成本、落地难度,每一道坎都够企业头疼,而“用得起”的难题,首当其冲。
当前大模型进入到了一个为广大客户场景服务的阶段,这意味着不仅要能成功运行,还要能高效地提供服务,用更少的算力实现更高的智能水平,并且以价格合理的方式提供给客户。随着模型需求复杂性的增加,成本还会进一步上升,高昂的推理成本也可能成为很多企业大模型应用、创新的壁垒,因为它们可能无法承担如此巨大的开支。而最低的价格,往往能让用户距离用得起的AI更近一步。
5月15日,字节跳动豆包大模型将价格一举击穿——目前豆包主力模型的市场定价只有0.0008元/千Tokens,比行业价格低99.3%,0.8厘就能处理1500多个汉字、1元钱就能够购买到125万Tokens,该价格放在当前全球同行业中都具备极强的竞争力。
“大模型的超低定价,来源于我们在技术上有信心优化成本。”火山引擎总裁谭待说。
谈到降价的逻辑,谭待在媒体沟通会上指出,“我们在模型层面做了大量技术优化,同时,针对AI工程方面,比如对底层的异构算力还实现了混合调度和分布式推理等优化,这些都能够对推理成本实现大幅度降低。”大模型能力的提升最终还要回到应用生态的繁荣,从今天来看,很多企业在尝试大模型应用创新时,其实存在比较高的风险,那么从供给方的角度,必须要将企业的试错成本降到非常低,才有可能让大家广泛地用起来。
当然,技术的价值始终要以落地来判断。
这也是此次火山引擎将豆包大模型价格、产品矩阵以及新一代AI技术栈和盘托出的逻辑:大模型应用进入到更为现实的阶段,真正创造场景价值才能赢得客户。
贴近业务,跑通大模型
大模型必然要落地融合进足够多的场景中,但这并不容易。个中原因,有技术层面的,比如幻觉、精调能力;也有非技术层面的,比如与企业业务的适配度,业务人员学习能力等。
也正因为大模型与产业结合仍处于早期阶段,没有成熟路径参考,企业通常面临选择困难。
当前,市面上存在的不少通用大模型还在追求千亿甚至万亿参数量级。参数量高的大模型通常具备更强的处理能力和泛化场景,这个不假。但如果大模型一味只追求参数量的提升,并不一定能在特定业务场景中达到最佳效果,反而可能忽视了业务实际需求。
从企业角度讲,想要在实际业务场景中用上大模型,除了面临成本、安全、算法效果差等技术层面的难题外,还往往缺乏相关的落地经验和案例参考。
从技术厂商角度讲,面向广泛的客户,如何既能洞察千企千面的需求,又能将大模型的应用门槛降到最低,也是当前共性的商业化难题。
答案从实践中来。
作为数据密集型产业典型代表的金融业,其大模型应用一直走得相对快一点,尤其营销、风控、投研、客服等领域是智能化的前沿领域。
以华泰证券为例,此前构建的证券客服体系存在产品形态孤立、意图识别泛化性不足、缺乏多轮会话理解能力等问题,用户体验有待提升。如今,华泰证券正利用AI大模型优化财富管理助手,通过引入大模型技术,与传统模型算法、业务交易流程融合,新一代财富管理助手解决了传统技术无法对意图进行精准识别、无法与客户之间进行多轮交互的问题。
观察华泰证券财富管理助手从思考到产品打磨的过程,能够发现,很多企业拥有海量用户场景,且具备很强的知识壁垒,引进先进技术的前提条件之一,是必须将方案优化到比较成熟的阶段。其中的关键是面向不同场景的大模型统一应用架构、新一代知识库等,作为技术提供方,火山引擎提供了多个模型调用、灵活可观测的云算力、安全沙箱等能力支持。在模型应用阶段,火山引擎以“1+N+X”的模型能力矩阵,提供国内最好的模型组合,使其避免硬决策压力、保证模型选型的竞争力,同时实现模型调用的观测能力和模型版本的平滑升级,保障模型接入可升级、可回滚、可观测。
针对具体业务场景进行模型定制和优化,探索更加适合业务场景的模型结构和算法,同时,深入了解客户需求和痛点,从客户视角出发来评估和优化模型,关注模型的易用性和可解释性,从而实现最佳效果和性价比。从火山引擎身上,我们看到了大模型应用加速落地的最佳路径。
再往前走一步,扎根场景
任何技术落地路径都会遭遇业务场景的具体挑战——各行业企业其实都有自己的业务场景、专有数据以及特定的需求,能不能解决具体场景中的问题,会有怎样的实践效果……谁都没法保证一步到位的最佳实践,大模型落地是需要迭代、试错、再迭代的过程。
钛媒体曾与某企业有过深入交流,这家企业为应用大模型在初始阶段就梳理了近百个业务场景,但即便拥有众多真实的业务场景,要实现落地还需进行细致的评估与规划。比如根据投入产出比来判定场景的优先级,明确哪些是高价值场景,哪些与核心业务关联度较低,以及如何在边缘端实现高效推理,现有生产端系统是否具备采集模型推理所需的数据,甚至企业还需要关注一线员工对AI大模型是否有充分的理解。仅在单试点验证大模型的落地性阶段,就耗费了数月之久。
纵观大模型场景落地的进程,各家大模型厂商已有分化,或聚焦自身业务重构,或试图积累行业标杆。而对于后者,大部分厂商会先构建一套通用大模型体系,然后基于该模型提供面向某些行业、场景的综合类解决方案,这往往要求企业客户有非常强的AI诉求和落地性,且针对的场景高度同质化。
与之相反,火山引擎选择从客户出发,去理解客户独特的场景,并且亲历每个场景的产品打磨,以此反推覆盖广泛场景应用——这条路看起来更难走,但却收获了更高的调用量,验证了领先性。
豆包大模型原名“云雀”,是首批通过大模型服务安全备案的大模型之一。基于豆包大模型打造的AI应用助手“豆包APP”,累计下载量超过1亿,已成为抖音、小红书、头条等平台用户用于解决工作生活的主流AI生产力工具。据透露,目前豆包平台上已有超过800万个智能体被创建,月度活跃用户达到2600万。
除了在豆包APP落地外,字节跳动还打造了在开发、学习、互动娱乐、分身创作等多个场景的AI应用,并且推动字节跳动内部50多个业务,和火山引擎服务的金融、汽车、泛互等行业客户,逐步接入豆包大模型,实现AI提效。
像拳头级B端产品飞书已全线拥抱AI,基于大模型技术构建的飞书智能伙伴功能,可为企业提供每日工作总结、会议纪要总结、企业知识搜一搜等服务。
海量用户基础和广泛的客户应用场景,提供给豆包大模型很好的模型训练场。因为只有最大的使用量,才能打磨出最好的大模型,反过来,大模型效果越好,越理解真实用户需求,越能吸引用户使用。
据谭待透露,豆包大模型目前平均每天处理1200亿Tokens文本(约1800亿汉字),生成3000万张图片。为真正意义上满足不同场景中企业对大模型的诉求,豆包大模型将通过火山方舟大模型服务平台对外服务,包括豆包通用模型pro、豆包通用模型lite两款主力模型,以及适配多种业务场景,具备图像、语音、语义的多模态模型家族,包括角色扮演模型、语音合成模型、语音识别模型、声音复刻模型、文生图模型、Function call模型、向量化模型。
在做大模型这件事情上,当多数厂商还在大量的同质化场景里打转,豆包大模型已经从内外业务和客户应用做起,边解决场景化需求,边打磨能力,然后通过火山方舟给广大企业客户以最优性价比、最高自由度的产品。
另一方面,大模型服务平台火山方舟还给客户和开发者提供一个安全稳定、易上手、屏蔽复杂性的环境,以最高性价比、最大自由度的形式,助力客户实现大模型应用实践。
火山引擎的模型产品和技术能力构建了场景实践和技术迭代的正向循环,授人以渔,赋能客户激发更多创新和增长。
大模型落地,还需全栈服务
AI技术不是空中楼阁,大模型落地不是单点能力输出,智能化背后是系统工程的搭建。观察当前已经用上大模型驱动业务应用的企业客户,这也是他们的共同诉求。
例如,华泰证券通过火山方舟大模型服务平台实现了多模型的灵活调用,并依靠火山引擎提供的算力、数据服务、安全沙箱等为驱动业务增长保驾护航。
FlowUs息流联合火山引擎在探索知识管理与协同新模式时,接入了豆包大模型,在多个应用场景中实现模型落地应用,同时还使用火山引擎增长分析产品DataFinder,以实现整体信息流效率提升。
华硕专门为消费者打造的人工智能服务“豆叮AI助手”,借助字节跳动的大模型能力获得了出色的对话、查找以及创作能力,同时借助火山引擎向量数据库ViKingDB,提升向量相似度检索能力,确保用户向豆叮提出问题时,系统能够迅速而精准地定位问题,检索到相关结果,并交由大模型精炼总结。
在与大量客户以及内部业务实践的碰撞中,火山引擎还将新的共性诉求抽象出来,形成了更贴合企业和开发者的一站式大模型服务平台——火山方舟。2024春季火山引擎FORCE原动力大会上,火山方舟2.0全面升级,提供与头条抖音同款搜索能力的联网插件,与头条抖音同源海量内容的内容插件,内嵌豆包向量化模型的RAG知识库插件,以及帮助企业快速搭建AI应用的“扣子专业版”开发平台。与此同时,火山引擎还提供智能数据洞察AI助手ChatBI,面向营销场景的智能创作云2.0,销售AI助手Sales Copilot等诸多开箱即用的AI应用。
目前,豆包大模型+火山方舟大模型服务平台+云底座的组合模式,已经成为火山引擎助力众多企业伙伴智能化转型的全栈AI服务方案。可见,客户需要的不仅是插入某个大模型,还需要一个提供更强系统承载力、更优插件、更好算法服务,以及具备安全可信方案的大模型服务平台。从模型到平台再到算力底座,每一步都为企业数智化提供了强大支撑。
作为字节跳动ToB能力输出平台,火山引擎在AI大模型时代的角色正逐步升级。尽管就当前而言,大模型产业距离充分竞争局面还早,但为了成为更好的智力和算力提供方,围绕数据、算力、算法,以及与客户场景生态共创层面,火山引擎正在全速运转。
注:文/杨丽,文章来源:钛媒体(公众号ID:taimeiti),本文为作者独立观点,不代表亿邦动力立场。
文章来源:钛媒体