广告
加载中

百度文心大模型:3个月推理速度提升30倍 文生视频内测中

亿邦动力 2023/07/19 19:57

【亿邦原创】近期,百度文心大模型获得IDC《AI大模型技术能力评估报告,2023》总分第一,据百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜介绍,文心大模型从3月份发布至今,在模型效果上提升了50%,训练速度提升了2倍,推理速度提升了30倍。

此外,文心大模型的“文成视频”能力正在内测中,不久后会以插件形式开放。

吴甜指出,文心大模型取得的成绩,首先得益于百度“芯片-框架-模型-应用”的全栈布局。

人工智能项目的成功,取决于算法,算力,数据和场景四大人工智能要素。人工智能框架是人工智能的操作系统,将这四大要素紧密的有机的连接在一起。百度飞桨平台不仅有深度学习框架,也为使用者提供模型库、开发套件、各种各样的工具组件以及实训社区,降低开发门槛,支撑应用层的大量创新。

最新数据显示,飞桨平台上有750万开发者。这个数据意味着什么?吴甜指出,作为对比,工信部数据显示,国内软件从业人员大约800万-1000万,软件从业人员和深度学习开发人员并不完全重合,但750万AI开发者已经数量庞大,证明深度学习算法开发应用范围广泛。

同时针对大模型的不可控问题,文心大模型采用三种增强技术,分别是:知识增强、检索增强、对话增强技术。

l在知识增强方面,文心大模型积累有5500亿事实的知识图谱与大量数据进行模型训练。

l在检索增强方面,文心大模型采用了新一代检索架构解决时效性问题,这是基于大模型的端到端检索架构,实现检索架构和生成架构之间联动和优化。

l在对话增强方面,文心大模型通过记忆机制、上下文理解,对话规划技术,增强对话的连贯性、合理性和逻辑性。

针对近来呼声很高的大模型产业应用,吴甜认为大模型的产业模式类似芯片代工厂——芯片代工厂做的事情是把设备、产线、工艺流程和生产过程进行封装,“现在的芯片型号、厂商非常多,但是代工厂只有几家而已。对于有芯片生产需求公司,只要给出生产方案,就可以得到想要的芯片。”吴甜指出。

与芯片代工厂类似,大模型提供商把大数据、大算力、大算法进行封装,并且提供自动化、数字化、标准化的生产模式——应用方只要定义好问题,把对AI模型能力要求交给大模型提供商,千行百业都可以来使用。

百度文心大模型源于产业实践,服务于产业实践。吴甜介绍,目前百度联合国家电网、浦发银行、泰康、吉利、哈尔滨市、深圳燃气、TCL、上海辞书出版社等企业单位,合作发布了11个行业大模型,同时,有15万家企业申请接入文心一言测试,百度智能云与300多家生态伙伴,在超过400个场景中已取得相当不错的测试效果。

文章来源:亿邦动力

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享
+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0