加载中

想通过大模型提升业务效率 企业应该怎么选?

刘杨楠 2023/05/16 09:42

【编者按】数字化服务商一直以来都是电商生态不可或缺的重要组成,但又因过于熟悉而被忽视。我们似乎不该忘记,电商每一次迭代和进化,数字化都充当了技术先驱与应用场景的搭建者。我们认为,在大数据、人工智能、算法驱动的未来商业,数字化的价值不可或缺。为了更详细的展现电商的面貌与能力,亿邦动力特别推出数字化实战案例。通过每一期的案例拆解,为电商从业者找到最为实用的行业级解决方案。并在每一次的创新应用中,找到一丝未来的曙光。

面对国内各式各样的大模型,想要通过大模型提升业务效率的企业应该怎么选?

此时此刻,行业迫切地需要一套新标准,来作为企业选择大模型服务时的参考。

5月9日,百度智能云在北京举办了文心大模型技术交流会,向到场的百家企业展示文心大模型在产品技术、场景研发、生态建设等领域的最新进展。这已经是百度智能云就文心千帆大模型平台举办的第三次闭门交流会。

会上,百度智能云AI与大数据平台总经理忻舟与百度工程师一起现场演示了如何用文心千帆“教大模型产品做事”

从视频中可以看出,整个微调过程仅十分钟左右,并且微调后的模型效果明显提升。而这样的微调过程每次大约仅需标注100条数据,且模型能够在类似的问题中产生一定的泛化能力。

文心千帆大模型平台是全球首个一站式企业级大模型平台,能够提供包括文心一言在内的大模型服务,提供开发AI应用的各种工具链及整套环境,还支持各类第三方的开源和闭源的大模型。可以说,文心千帆正在成为一个大模型生产和分发的集散地。

作为国内最早全面布局AI的企业,百度见证了国内AI产业的几度潮起潮落。这一次,百度同样是国内最早布局大模型的厂商。对于未来的再一次定义,百度有着不容置疑的发言权。

1.MaaS时代,什么是大模型服务的衡量标准?

如今,大模型火热之下,MaaS已经成为各大云厂商追逐的热词。

在3月16日百度文心一言的新闻发布会上,李彦宏提出了大模型带来的三大产业机会,其中之一便是会诞生新型云计算公司,其主流商业模式从IaaS变为MaaS(模型即服务)。

“大模型时代,客户更多从构建自己的服务架构,去买算力、买云服务,还要看框架是不是方便训练模型,以及对应的模型效果,不只是简单看技术架构的逻辑。”百度集团副总裁侯震宇表示。

回看云计算产业构成,从IaaS到PaaS,再到SaaS,云计算厂商比拼的核心能力都围绕算力展开。

而MaaS时代,在AI驱动一切的前提下,算力转变为云厂商提升AI能力的手段之一,不再是云厂商的核心竞争力。

正如李彦宏所言,大模型改变了云计算的游戏规则——大模型出现前,“算力”是云厂商的竞争焦点;此后,AI能力的比拼将成为云厂商的竞争焦点,AI也将作为根本驱动力,将云嵌入各行各业。

基于行业底层逻辑的改变,大模型市场也需要进化出一套全新的衡量标准,作为市场竞争中的风向标。

在5月9日的技术交流会上,百度也给出了大模型服务的三个评判维度:大模型本身的能力、大模型企业服务的能力、全栈技术积累程度。

为什么是这三个维度?

在ChatGPT火爆初期,国内形成的早期共识是,大模型是“大力出奇迹”的结果,未来得算力者得天下。但随着大家对大模型了解越来越深入,发现GPT系列暴力美学成立的前提,是强大的工程架构能力。

随着模型规模的增大,任何一个工程环节上的细节问题都会影响最终的模型性能。例如如何清洗数据,如何设计模型的网络架构,如何让深度学习框架与模型层相互协同,以及如何更高效地并行计算、持续调优迭代等。

到了实际落地过程中,不同行业、不同场景的需求痛点也会对上述工程环节提出个性化要求。

因此,未来大模型市场将不再是单一维度的较量,而是涵盖了技术、产品、服务与生态的多维度竞争。

其中,技术是大模型服务的根基所在。

2.为什么要强调“四层架构”?

MaaS时代,IT技术栈已经发生根本性变化。

在3月16日的新闻发布会上,李彦宏表示,人类进入人工智能时代,IT技术的技术栈由过去的芯片层,操作系统层和应用层三层架构,转变为芯片层、框架层、模型层和应用层的四层架构。

为什么强调“四层架构”?

从ChatGPT的技术构成来看,ChatGPT之所以如此惊艳,离不开上述四层架构之间相互协调,与最终形成的反馈闭环。

英伟达提供高性能GPU,谷歌提供Tensorflow深度学习框架,微软提供Azure云服务,三者作为AI大模型的底层基础设施,支撑了OpenAI在模型层长达8年的摸索。

但GPT模型并不能代表这波AI浪潮的全貌。ChatGPT作为一款基于GPT-3.5模型的超级应用,让所有人看到了以自然语言为中介的新型人机交互方式——对于无数企业而言,这才是此次AI浪潮的核心所在。

OpenAI对公众开放ChatGPT后,用户每一次对话形成的数据都会成为模型迭代的养料。大量的用户数据形成后,OpenAI便能看到真实的用户分布,从而根据用户需求针对性优化模型,提高迭代效率。

总的来看,ChatGPT的传奇,是OpenAI、微软、谷歌、英伟达四方合力的结果。由此看出,大模型的大计算、大参数、高成本,对大模型时代的AI基础设施提出新的要求。

而在这种情况下,百度智能云多年来在AI基础设施上的全栈能力便开始发挥优势。

基于过往优势,百度智能云打造了国内首个全栈自研的AI基础设施“百度AI大底座”,将AI生产全要素,包括芯片、深度学习框架、大模型集于一身,向企业AI开发提供端到端的解决方案。

更重要的是,在框架层和模型层之间,AI大底座有很强的协同作用。

百度智能云云计算产品解决方案和运营部总经理宋飞举例:“大家可能会觉得堆积算力、写好代码、然后进行模型训练,把它跑起来就行了。实际上,在训练过程中会遇到各种各样的挑战,很少有人能够使得一个大模型训练过程在连续一两天内不出问题。”

这种情况下,百度AI大底座的协同作用能够形成平台化的反馈闭环机制,让真实的业务场景反馈在每一层技术架构中得到响应,从而在最大程度上保证训练过程的稳定性与最终的模型效果。

层层拆分百度AI大底座,便能更清晰地看到层与层之间的协同作用从何而来。

为什么一定要强调各层之间的“协同作用”?

一个大前提是,大模型训练需要千卡甚至万卡规模,这是一个多机、多卡并行的过程,通信量、计算量、存储量极大,这大大提高了大模型物理集群架构设计的工程难度。

而百度针对大模型训推过程中的技术难点,设计了一套能够进行端到端优化的物理集群架构。

在这套方案之上,文心一言的推理效率已经提高了10倍。

框架层,是国内较为薄弱的环节。但在大模型训练过程中,框架层是连接算法和底层基础设施的关键环节。

为支持千亿参数模型的高效分布式训练,百度飞桨专门研发了4D混合并行技术,能够结合模型硬件特点,选择合适的并行策略,尽可能提高模型训练效率。此外,百度还通过端到端的系统化工作,尽可能让模型训练过程减少终端,减少不必要的损耗。

最后,在模型层,百度已经在自身的AI大底座上,结合不同场景的特定需求,帮助合作伙伴推出了多个模型。

有了百度AI大底座,企业不再需要把大量成本花在构建基础设施上,而可以像使用水电能一样按需取用,真正实现AI生产全流程降本增效。

目前,在百度AI大底座基础上,大模型训练效率已经有了肉眼可见的提升——千卡加速比达到90%,资源利用率提升70%,开发效率提升100%。

这一点已经在百度文心一言模型的迭代过程中有直观表现。百度之所以能够在全球大厂中首发生成式大语言模型文心一言,并在发布后短时间内快速迭代,正是由于文心一言搭建在文心千帆的工具服务平台上。

不过,完备的技术栈只是大模型生态万丈高楼的地基,真正走到落地环节,还是要考验大模型厂商帮助企业解决问题的能力。

3.企业需要的大模型服务长什么样?

回归实际,如今大模型百花齐放,企业究竟该如何选择大模型服务?

目前,全球对于大模型仍处于早期的探索阶段,尚未形成权威、通用的行业标准。

这种情况下,以终为始地看,企业选择接入大模型的根本动力离不开四个字:降本增效。因此,企业要选择大模型,还是需要从自身真实需求出发。

侯震宇告诉「甲子光年」:“客户不是傻子。我们经历过第一阶段的科普阶段,第二轮再科普发现人家不听了。到后面大模型实际应用落地的时候,你跟客户说这个东西好,就得看真实效果。例如你能否在大模型服务的基础上提供对应的工具,在场景里是否能够带来更好的效果。”

基于全栈自研的技术架构,文心千帆大模型能够更快、更好地解决实际问题。对于这一点,金山办公深有体会。

今年已经是金山办公成立的第35年,他们几乎见证了中国IT产业发展的所有阶段。但这一次对于金山办公而言,是一次不能错过的机会。

将时间拉回新旧世纪的交界处。当时正处dos界面向Windows转型的窗口期,很遗憾,当年金山办公的转型不算成功。用金山办公助理总裁田然的话说,那时的金山办公“差不多丢失了十年”。

但幸运的是,金山办公抓住了移动浪潮的机会,在移动端占下了半壁江山。而这一次的AI浪潮,几乎被金山办公看做是最后的机会。

“这是我们第三次革命,如果我们没有抓住这次机会,我们不会再有下一波革命。对我们来讲,这是必须要打的仗。”田然分享道。

关键在于,金山办公要以什么样的姿态加入战斗。在内部协商后,金山办公的答案是:办公应用。田然表示,金山办公对自己的定位是“做最好的办公软件”,提供最好的办公服务。这一定位下,用户体验是金山办公需要加固的核心能力。

为此,金山办公首先要选定一家大模型合作伙伴。

众所周知,现阶段国内大模型产品需要面对严格的合规审查——产品合规,才能上线。当时,金山办公和多家大模型公司交流了一番,包括百度。

在沟通过后,金山办公与百度双方团队一拍即合,文心千帆提供的端到端优化能力能大大提高模型迭代速度,这一点十分打动金山办公。

近期,双方的沟通已经落实在了具体的产品上。

大模型出现前,金山办公在内部上线了一款基于上一代AI技术的生成类应用,能够生成大纲、PPT等内容,并自动美化。但上线后,员工使用的频次远未达到预期。

后来内部分析原因发现,员工实际生成内容时需要在很大程度上依赖上下文理解。例如生成一份周报所需要理解的上下文内容可能涵盖员工过去一周读过的所有内容,以及与老板的所有互动,甚至包括员工在某一次会议的一段发言——由此形成了一套异构数据。

“生成类产品虽然名叫生成,但有时候更有价值的是理解,是问答,是对一些内容的二次加工。”田然表示。

因此,大模型厂商首先需要将这些异构的知识进行向量化,变成同构的、可被索引的数据。但这一步完成后,如何将数据导入模型,进行预训练、微调,再到能够形成交互,便十分考验大模型厂商的工程能力。而文心千帆提供的模型能力与整套开发工具让金山办公很好地解决了上述难题。

不同企业对大模型服务的需求也有所不同。侯震宇告诉「甲子光年」:“科技属性越强的公司,越容易拥抱公有云,直接在百度智能云上去调用大模型能力;一些大企业有各种各样合规的要求,他们会强调,也更习惯私有化交付。”

而对于不同的需求,文心千帆都能提供相应支持。

目前,文心千帆向客户提供两大交付模式——公有云服务与私有化部署。

在公有云服务方面,将提供:推理(直接调用大模型的推理能力)、微调(通过高质量精标业务数据,高效训练出特定行业的大模型)、托管(将模型发布在百度智能云,以实现更加稳定高效的运行)三种服务,大幅降低企业部署大模型的门槛。

在私有化部署方面,文心千帆大模型平台支持软件授权(提供在企业环境中运行的大模型服务)、软硬一体(提供整套大模型服务及对应的硬件基础设施),租赁服务(提供机器和平台的租赁满足客户低频需求)三种方式。私有化部属能够满足对数据监管有严格要求的企业客户需求。

除模型效果外,部署成本是企业在选择大模型时会考虑的第二大核心因素。

当下,关于大模型的一个热点话题是来自开源的冲击。不少人认为,开源大模型将大大降低大模型的使用成本,降低大模型训练门槛,会对国内的闭源模型形成冲击。

但对此,侯震宇认为,开源并不代表成本低,因为开源模型也绕不开大量GPU。很多企业不一定能够用得起上千张集群卡,也很难用得好,一旦在集群中出现bug,企业很难快速调整反应。

因此,整体端到端的优化才会带来更低的使用成本,包括调用成本、运营成本等。

同时,百度对开源也抱有开放态度。“我们希望更多开源模型能够发展起来,让整个AI市场发展的更加繁荣,只有一枝独秀也并不是特别健康的生态。”侯震宇说。

这一点也已经落实在了整个文心千帆的实际能力上。文心千帆大模型平台不仅提供全套文心一言大模型服务,还支持各类第三方的开源和闭源的大模型,成为大模型生产和分发的集散地。

4.枪响之后,谁是赢家?

毋庸置疑,大模型军备竞赛的发令枪已经打响,竞争态势已经愈演愈烈。

「甲子光年」在此前发布的文章中将市面上的大模型厂商大致分为四类:

第一类,是百度、阿里、华为、腾讯等科技大厂。大厂做大模型的优势有目共睹——他们有钱、有人、有算力,还有强大的规模效应。然而,大厂也往往会受庞大的组织架构和繁杂的业务体系所累,股东利益、市值波动、舆论影响都可能成为大厂的掣肘。

第二类,是王小川、王慧文等明星创业团队。这是资本和媒体最热衷追逐的团队,他们往往抱着义无反顾的决心,怀抱技术理想全力all in。尽管如此,摆在创业团队面前的还有无数的现实问题——如何快速组建一支能打仗的队伍?如何保证源源不断的资金注入?如何快速确定技术与产品路径,尽量少走或不走弯路?

第三类,是来自清华、人大、复旦等高校的研究团队。相比大厂和创业公司,学术团队在资金、算力等硬资源的获取方面更为弱势。此前曾有业内人士表示,过往高校大多以小模型研究为主,很大一部分原因是受算力资源限制。此外,学术成果与产业落地之间的鸿沟也长久横亘在高校团队面前。

第四类,则是科大讯飞、出门问问、APUS等自带落地场景,正在拥抱大模型的“中型企业”。

如果从资源储备来看,大厂无疑是资源最雄厚的一方。尽管大厂发展大模型难免有更多顾虑与考量,但如果大厂能充分发挥自身资源与业务优势,则有可能凭借强大的生态效应,在大模型混战中,抢先拿到话语权。

目前,百度已经在生态建设上做了不少努力。

对内,百度内部的各大业务体系已经开始用文心一言来提升效率。

例如,在百度员工内部的智能工作平台“如流”上,很多程序员会就一些产品或技术难题询问产品经理、研发同事,数量多,频次高。过去获得一个答案平均时间约5分钟,现在如流有了一个文心千帆AI小助手,可以代替同事自动回答各种问题,平均5秒就可以解答一个难题,大幅提升工作效率。

同时,百度智能云的金融行业应用、政务行业应用、智能创作平台、智能客服、企业知识管理、数字人直播平台等六大智能产品系列,将基于文心大模型全面升级,未来将在安全评估完成后上线。

对外,越来越多的企业开始选择文心千帆。

从3月16日到现在为止,已有15万家企业申请接入文心一言。百度集团副总裁袁佛玉表示:“截止目前,已有超过300家生态伙伴参与文心一言内测,在400多个企业内部场景取得测试成效。”

此外, 文心千帆大模型平台面向首批企业客户内测以来,正在与不同领域客户联合研发,在智能办公、旅行服务、电商直播、政务服务、金融服务五大领域打造行业样板间。

MaaS时代,究竟谁能成为时代定义者,目前尚无定论。但从现状看,百度智能云已然领先一个身位。

文章来源:甲子光年

微信
朋友圈

这么好看,分享一下?

朋友圈 分享
+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭