广告
加载中

最强中文大模型来了!通义千问2.5追上GPT-4?

雷科技AI互联网组 2024/05/11 10:25

从ChatGPT(GPT-3.5)发布至今的一年多,大语言模型的迭代速度之快、进步幅度之大,时刻刷新着我们的认知。最近一段时间,各家更是密集发布了新版的大模型,都在追赶和超越最新领先的大模型,甚至逼得OpenAI进一步取消了GPT-4的限制。

现在阿里云最新的通义千问2.5版本也来了,不仅在中文语境下追上了GPT-4 Turbo,更让人期待的是:在开源和免费的发展策略下,通义千问2.5会不会成为大模型落地的分水岭,加速AI应用的全面爆发?

这一点还需要我们拭目以待,但至少,通义千问的这一轮升级中再次证明自己的能力和潜力。

通义千问全面升级,

中文性能追平GPT-4 Turbo

5月 9日,阿里云正式发布通义千问2.5,这是其旗下的通义大模型系列的最新版本。与此同时,阿里云还开源通义千问1100亿参数模型。

按照阿里云方面的说法,得益于全方位的能力提升,在中文语境下,通义千问2.5的文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超GPT-4。

而据权威基准测评OpenCompass的结果显示,通义千问2.5的得分也追平了GPT-4 Turbo,是第一个做到的国产大模型。

在LMSYS最新的大模型对战排行榜中,通义千问(Qwen-Max)暂时位居总榜第10,中文场景下与GPT-4 Turbo并列第2,仅仅略逊于排在第一的Claude 3 Opus和 GPT-4(1106)。

当然,跑分和排行榜很难完全说明大模型的实际性能表现,更遑论最终落到实处的用户体验。

根据介绍,通义千问2.5采用了阿里云自研的「问天」架构,并通过大量数据和算法的训练,使得模型的核心性能得到了大幅提升。相比2.1版本,2.5版本通义千问的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%。

简单来说,你可以认为通义千问2.5能够更准确地理解自然语言的语义,并识别出其中的细微差别;也能进行更复杂的逻辑推理,并解决更具挑战性的问题等。此外,通义千问版本升级后还新增了文档处理、音视频理解、智能编码等多种能力。

在文档处理上,通义千问2.5支持单次最长1000万字、100个文档,覆盖PDF、Word、Excel,甚至Markdown和 EPUB等多种文件格式。同时不只是正文内容,还可以解析标题、段落、图表等多种数据格式。

另外在音视频理解上,通义千问2.5也支持了实时语音识别、说话人分离等能力,能够提取全文摘要、总结发言、提取关键词等,且支持最多同时上传处理50个音视频文件。

这些升级或许看上去没有核心性能的提升来得「性感」,但从实际使用的角度,不管是能一次塞给大模型更大、更多、更多格式的文档,还是音视频的多种能力,其实都在大幅扩展大模型的真实使用场景。

从这个角度来看,通义千问2.5的意义就远不只是在性能上追平GPT-4 Turbo。

另一方面,AI算力成本的高昂已经广为人知,不管是海外的ChatGPT Plus(GPT-4)、Gemini Advanced、Claude Pro,还是国内的文心一言会员(文心一言4.0)、WPS AI等服务,都有不低的收费。

而面向C 端用户,通义千问主打一个全功能「免费」。同时通义千问APP还升级为「通义APP」,集成文生图、智能编码、文档解析、音视频理解、视觉生成等全栈能力,想成为用户的「全能AI助手」。

不难理解,阿里还是通过免费迅速扩大C 端用户规模。但在现阶段,B端用户可能更为关键。

大模型生态落地,

开源路线加速

「从2022年 9月发布通义系列模型以来,如今我们的API日调用量已经过亿。」5月 9日,阿里云CTO周靖人在总结通义千问过去一年时指出。

不仅如此,阿里云还透露通义系列大模型已经服务包括新浪微博、小米、中国一汽在内的9 万家企业用户。发布活动上,阿里云还邀请微博和小米分享了他们对于通义千问的落地应用。

其中微博作为最早的用户,就基于通义千问打造了出圈的官方评论机器人 「评论罗伯特」。小米的小爱同学同样也是基于通义千问,强化了在图片生成、图片理解等方面的多模态AI生成能力,包括在小米汽车手机、音箱等硬件上。

事实上,上个月联想发布了内嵌个人智能体的「真AI PC」,其背后也是通义系列大模型。

开源,毋庸置疑是阿里在大模型生态上发展迅猛的关键因素之一。「大到整个产业落地AI,小到每个企业开发应用,开源技术都至关重要,这一点在全球范围内已经被多次证明,」周靖人在财新的采访中说道。

去年8 月,阿里宣布通义千问加入开源生态,随着沿着「全模态、全尺寸」的开源路线陆续推出十多款模型,参数规模横跨5 亿到1100亿,并且迅速成为开源大模型社区最受欢迎的开源大模型之一。

其中,1.8B、4B、7B、14B等小尺寸的通义千问,可以直接在手机、PC等设备端侧部署运行;72B、110B等大尺寸模型则更多运行在服务器和数据中心,支持更大规模、更专业的AI应用。

而随着通义千问2.5的发布,其落地应用还有望得到进一步加速。在开源大模型中,通义千问拥有全尺寸的参数规模,还有目前最强的性能,开发者自然会更倾向基于通义千问的大模型生态进行开发。

更何况,即使相比最领先的闭源大模型,通义千问的差异也拉得很小了。

写在最后

「我们仍处于AI发展的初期阶段」,谷歌CEO桑达尔·皮查伊在最近一次采访中说道。

过去一年多,AI世界几乎是一天一变,头部厂商的大模型之争也愈演愈烈,实质也带动了整个生态的前进。事实上,今天打开手机,不提系统自带的AI功能,已经有大量的应用都引入了生成式AI,还在涌现大量的生成式AI原生应用。

不过还是不够。所有人都明白,面向普通用户的AI应用还没真正迎来爆发时刻,通义千问当然也不可能直接做到,但作为开源大模型,通义千问确实是最有希望推动AI应用真正爆发起来的大模型之一。

注:文/雷科技AI互联网组,文章来源:雷科技(公众号ID:leitech),本文为作者独立观点,不代表亿邦动力立场。

文章来源:雷科技

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享
+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0