加载中

巧借AI“风能”:Google Cloud提供全生命周期解决方案

Google Cloud 2023/10/19 16:02

【编者按】数字化服务商一直以来都是电商生态不可或缺的重要组成,但又因过于熟悉而被忽视。我们似乎不该忘记,电商每一次迭代和进化,数字化都充当了技术先驱与应用场景的搭建者。我们认为,在大数据、人工智能、算法驱动的未来商业,数字化的价值不可或缺。为了更详细的展现电商的面貌与能力,亿邦动力特别推出数字化实战案例。通过每一期的案例拆解,为电商从业者找到最为实用的行业级解决方案。并在每一次的创新应用中,找到一丝未来的曙光。

对企业这棵大树而言,有了强大的数据根系支持,又有BI辅助加速光合作用,如果想要收获一树果实,“风”的力量也不可或缺,当下最有力的东风非AI莫属。关于AI实践,企业遇到了哪些风阻?Google Cloud又是如何帮助企业更好地利用和转化AI的风能? 本文将为您一探究竟。

为AI发电,Google Cloud的数据风能量

2023年被称为AI平民化元年,年初AIGC强势破圈走向前台。各行各业其实也早已在探究适合自己的AI实践策略,作为技术尝鲜的开发团队也不例外,然而受制于人员、流程、技术、数据的羁绊,大多数企业的AI实践仍处在实验、评估测试或原型设计阶段。

痛点1:机器学习 (ML) 技能差异

Gartner报告显示,只有10% 的企业拥有半数以上的经过ML技能训练的软件工程师。是否拥有熟练掌握ML技能的工程师,不应该成为企业能否应用AI技术的限制条件。

Google Cloud解决方案:开箱即用的ML工具。

Google Cloud为企业业务端和开发者提供开箱即用的ML工具,借用工具,用户可以从平台现有功能中按需调用、组合多种AI API接口,直接使用先进的预训练模型。AutoML让无论新手还是专家级开发者都可轻松创建自定义模型,实现无编码或低编码。

痛点2:数据和AI各自为家

ML始于数据分析,跨越繁杂的统计后,再回归到数据分析。这个工作流中的人员、任务重要级、计算逻辑频繁变化,再加上团队技术水平的差异性、数据孤岛问题,最终会阻碍企业AI的步伐。

Google Cloud解决方案:使用统一的数据和AI策略

Google Cloud将数据和ML系统整合在一个界面中,消除因工具、流程、策略不同带来的困扰。身处不同流程节点的开发者,既能访问相同的实时数据,绕开数据孤岛,又能充分利用AI和ML预训练模型,为开发工作减负。同时平台集成了MLOps工具和流程,减少了数据科学家和IT团队之间的矛盾。

痛点3:低效,难以管理、扩展和协作

由于缺乏集成孤立数据源的解决方案,ML的第一步工作——数据准备变成最耗时的环节,团队需投入大量的人力成本用于在本地、云端去查找、提取、清洗数据。另外,开发者花费大量时间去维护ML架构和偿还遗留的技术债务,无暇思考创新。

Google Cloud解决方案:Vertex AI在ML全生命周期发力

由于与数据的轻松集成、对开源ML框架的访问以及与其他Google Cloud产品,如BigQuery和Dataproc的连接,使开发者能快速启动AI部署。在同一平台上整合并利用Workbench和Feature Store等功能,协作提升生产力。

AI上岗,低效能下岗,Vertex AI为ML生命周期的每一步提速

开发团队采用传统单一的第三方单点式解决方案或工具,最典型的弊端是扼杀了协作,并使得ML全生命周期的技术工作变得耗时、耗人且低效......

Vertex AI则能加速ML全生命周期的每一个环节,依托完全托管和集成的ML平台来构建、训练、部署和管理模型。平台天然的集成、自动化、创新属性,能帮助提升数据专家、工程师、业务端用户的生产力,轻量化成本。

1.png

1、数据准备

借助Vertex AI,用户可以从不同位置查看所有数据,实现无缝集成。改善了数据团队的协作效能和数据重复调用。

组件:数据标签、元数据、Pipeline、托管数据集、Feature Store

成效:效率提升70%

2、模型构建/训练/调优

Vertex AI将预构建模型和AutoML引入其ML环境以及使用Pipelines应用、MLOps策略来实现流程自动化,简化了企业模型开发和训练。

组件:Pipeline、Vertex AI Workbench、AutoML、Feature Store

成效:效率提升70%

3、模型可解释性

模型透明可追溯,业务方及其他利益相关者可以轻松理解模型决策的基本机制 。

组件:Pipeline、AutoML

成效:效率提升60%

4、模型部署

因Vertex AI平台UI的易用性、预测和模型注册表集成的便捷性,简化了模型部署步骤。

组件:Prediction、Pipeline、Matching engine

成效:时间缩短40%

5、模型监控

在共享环境中工作,使用Workbench记录所有操作的完整日志,并使用模型监控对模型性能进行持续主动的监控,从而提高了工作效率,一些初级数据工程师和业务用户也能分担这部分工作量。

组件:Model registry、Model monitoring

成效:时间减少60%

*以上所有数据来源于:《Forrester:Google Cloud Vertex AI总体经济影响》

Vertex AI 最佳实践:OPPO如何为移动设备增强AI能力

OPPO的移动设备在全球范围有广泛的消费市场,为了持续给终端用户提供最优产品体验,OPPO持续关注和实践领先的AI技术。

OPPO AI实践路上面临着开发周期长、准确率和性能难以兼顾的问题。

AI模型需经反复测试和调优,但若定制AI智能模型,则需投入大量资金、人力及时间成本

在云上训练的AI模型,如何确保搬到移动设备后,准确度、性能不打折扣也是一大挑战

OPPO选择与Google Cloud牵手,采用Vertex AI NAS进行设备端AI模型开发。

在Vertex AI NAS中添加功耗自定义搜索约束

通过Cloud Storage将 StarFire平台与Vertex AI NAS连接到一起

最终实现:功耗降低27%,计算延迟降低40%,同时准确率不贬值,维持在优化前的水平。


AI风已来,在谷歌,探索AI的步伐从未停过,这是一种融入DNA式的存在,Google Cloud邀您一起借东风,上青云,早日实现AI真落地!


更多资源请参考:

1、聚焦Google Cloud热点资讯、客户案例及精彩活动,请访问 Google Cloud 专区

2、Google Cloud零售行业解决方案

3、联系我们


文章来源:亿邦动力

微信
朋友圈

这么好看,分享一下?

朋友圈 分享

APP内打开

+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭