对企业这棵大树而言,有了强大的数据根系支持,又有BI辅助加速光合作用,如果想要收获一树果实,“风”的力量也不可或缺,当下最有力的东风非AI莫属。关于AI实践,企业遇到了哪些风阻?Google Cloud又是如何帮助企业更好地利用和转化AI的风能? 本文将为您一探究竟。
为AI发电,Google Cloud的数据风能量
2023年被称为AI平民化元年,年初AIGC强势破圈走向前台。各行各业其实也早已在探究适合自己的AI实践策略,作为技术尝鲜的开发团队也不例外,然而受制于人员、流程、技术、数据的羁绊,大多数企业的AI实践仍处在实验、评估测试或原型设计阶段。
痛点1:机器学习 (ML) 技能差异
Gartner报告显示,只有10% 的企业拥有半数以上的经过ML技能训练的软件工程师。是否拥有熟练掌握ML技能的工程师,不应该成为企业能否应用AI技术的限制条件。
Google Cloud解决方案:开箱即用的ML工具。
Google Cloud为企业业务端和开发者提供开箱即用的ML工具,借用工具,用户可以从平台现有功能中按需调用、组合多种AI API接口,直接使用先进的预训练模型。AutoML让无论新手还是专家级开发者都可轻松创建自定义模型,实现无编码或低编码。
痛点2:数据和AI各自为家
ML始于数据分析,跨越繁杂的统计后,再回归到数据分析。这个工作流中的人员、任务重要级、计算逻辑频繁变化,再加上团队技术水平的差异性、数据孤岛问题,最终会阻碍企业AI的步伐。
Google Cloud解决方案:使用统一的数据和AI策略
Google Cloud将数据和ML系统整合在一个界面中,消除因工具、流程、策略不同带来的困扰。身处不同流程节点的开发者,既能访问相同的实时数据,绕开数据孤岛,又能充分利用AI和ML预训练模型,为开发工作减负。同时平台集成了MLOps工具和流程,减少了数据科学家和IT团队之间的矛盾。
痛点3:低效,难以管理、扩展和协作
由于缺乏集成孤立数据源的解决方案,ML的第一步工作——数据准备变成最耗时的环节,团队需投入大量的人力成本用于在本地、云端去查找、提取、清洗数据。另外,开发者花费大量时间去维护ML架构和偿还遗留的技术债务,无暇思考创新。
Google Cloud解决方案:Vertex AI在ML全生命周期发力
由于与数据的轻松集成、对开源ML框架的访问以及与其他Google Cloud产品,如BigQuery和Dataproc的连接,使开发者能快速启动AI部署。在同一平台上整合并利用Workbench和Feature Store等功能,协作提升生产力。
AI上岗,低效能下岗,Vertex AI为ML生命周期的每一步提速
开发团队采用传统单一的第三方单点式解决方案或工具,最典型的弊端是扼杀了协作,并使得ML全生命周期的技术工作变得耗时、耗人且低效......
Vertex AI则能加速ML全生命周期的每一个环节,依托完全托管和集成的ML平台来构建、训练、部署和管理模型。平台天然的集成、自动化、创新属性,能帮助提升数据专家、工程师、业务端用户的生产力,轻量化成本。
1、数据准备
借助Vertex AI,用户可以从不同位置查看所有数据,实现无缝集成。改善了数据团队的协作效能和数据重复调用。
组件:数据标签、元数据、Pipeline、托管数据集、Feature Store
成效:效率提升70%
2、模型构建/训练/调优
Vertex AI将预构建模型和AutoML引入其ML环境以及使用Pipelines应用、MLOps策略来实现流程自动化,简化了企业模型开发和训练。
组件:Pipeline、Vertex AI Workbench、AutoML、Feature Store
成效:效率提升70%
3、模型可解释性
模型透明可追溯,业务方及其他利益相关者可以轻松理解模型决策的基本机制 。
组件:Pipeline、AutoML
成效:效率提升60%
4、模型部署
因Vertex AI平台UI的易用性、预测和模型注册表集成的便捷性,简化了模型部署步骤。
组件:Prediction、Pipeline、Matching engine
成效:时间缩短40%
5、模型监控
在共享环境中工作,使用Workbench记录所有操作的完整日志,并使用模型监控对模型性能进行持续主动的监控,从而提高了工作效率,一些初级数据工程师和业务用户也能分担这部分工作量。
组件:Model registry、Model monitoring
成效:时间减少60%
*以上所有数据来源于:《Forrester:Google Cloud Vertex AI总体经济影响》
Vertex AI 最佳实践:OPPO如何为移动设备增强AI能力
OPPO的移动设备在全球范围有广泛的消费市场,为了持续给终端用户提供最优产品体验,OPPO持续关注和实践领先的AI技术。
OPPO AI实践路上面临着开发周期长、准确率和性能难以兼顾的问题。
AI模型需经反复测试和调优,但若定制AI智能模型,则需投入大量资金、人力及时间成本
在云上训练的AI模型,如何确保搬到移动设备后,准确度、性能不打折扣也是一大挑战
OPPO选择与Google Cloud牵手,采用Vertex AI NAS进行设备端AI模型开发。
在Vertex AI NAS中添加功耗自定义搜索约束
通过Cloud Storage将 StarFire平台与Vertex AI NAS连接到一起
最终实现:功耗降低27%,计算延迟降低40%,同时准确率不贬值,维持在优化前的水平。
AI风已来,在谷歌,探索AI的步伐从未停过,这是一种融入DNA式的存在,Google Cloud邀您一起借东风,上青云,早日实现AI真落地!
更多资源请参考:
1、聚焦Google Cloud热点资讯、客户案例及精彩活动,请访问 Google Cloud 专区
3、联系我们
文章来源:亿邦动力