广告
加载中

阿里Qwen3凌晨上线 号称全面超越DeepSeek-R1 OpenAI-o1

胡镤心 2025/04/29 09:16
胡镤心 2025/04/29 09:16

邦小白快读

阿里巴巴推出新一代开源大模型Qwen3,通过创新的混合推理架构实现高效算力利用,在性能全面超越DeepSeek-R1、OpenAI-o1等全球顶尖模型的同时大幅降低部署成本,其灵活的多版本配置(含MoE架构和密集模型)、119种语言支持及工具调用优化,为智能体开发和多场景应用提供全球最强开源解决方案,并延续Apache2.0协议免费商用。

**核心内容速览:**

阿里云开源全新通义千问模型Qwen3,以更低成本实现性能全面突破,成为全球最强开源AI模型。其核心亮点包括:

1. **性能碾压全球顶尖模型**:在AIME25(奥数推理)、LiveCodeBench(代码能力)、ArenaHard(人类偏好对齐)等权威评测中超越DeepSeek-R1、OpenAI-o1及Grok3,刷新开源模型纪录;

2. **混合推理架构革新**:首创“快思考+慢思考”集成模式,灵活应对简单需求(秒级低算力响应)与复杂问题(多步骤深度推理),显存占用仅为同类模型1/3;

3. **极致成本效率**:仅需4张H20卡即可部署满血版,提供0.6B至235B的多样化模型版本(含MoE与密集模型),覆盖手机、汽车、企业级场景,半数参数量即可实现上一代高性能;

4. **智能体(Agent)开发加速**:原生支持工具调用与MCP协议,结合Qwen-Agent框架降低编码复杂度,BFCL评测成绩超越Gemini2.5-Pro,大幅降低Agent应用门槛;

5. **开源生态与商业友好**:采用Apache2.0协议,支持119+语言,免费商用下载(魔搭社区/HuggingFace),阿里云百炼提供API服务,个人用户可通过通义APP直接体验。

Qwen3以更高性能、更低成本、更广场景适配性,为全球开发者与企业提供大模型落地新标杆。

【核心亮点速览】阿里开源Qwen3震撼发布:全球最强开源模型实现性能与成本双突破!

1. **颠覆性架构创新**

• 首创"混合推理模型":集成快思考(秒回简单需求)与慢思考(深度处理复杂问题),算力消耗降低至竞品1/3

• 全球首个235B MoE架构模型:激活仅需22B参数,预训练数据量达36T,非思考模式无缝整合

2. **性能碾压式领先**

• 全面超越DeepSeek-R1、OpenAI-o1等顶尖模型:AIME25奥数评测81.5分(开源新高)、LiveCodeBench代码评测超Grok3、ArenaHard对齐评测95.6分

• 30B MoE模型性能杠杆提升10倍,32B稠密模型跨级碾压上代72B版本

3. **部署成本革命性下降**

• 4张H20显卡即可满血部署,显存占用仅为同级模型1/3

• 全系支持"思考预算"API:按需分配计算资源,灵活平衡性能与成本

4. **全场景商用适配矩阵**

• 10款模型覆盖0.6B-235B:4B手机端秒响应、8B车机流畅运行、32B企业级首选

• 原生支持Agent开发:BFCL评测70.8分超越Gemini2.5-Pro,工具调用门槛降低90%

5. **开源生态霸权巩固**

• Apache2.0协议+119种语言支持:魔搭/HuggingFace免费商用,阿里云API即插即用

• 全球下载破3亿次,衍生模型超10万,正式超越Llama登顶开源王座

→ 卖家价值点:零成本获取全球最强模型,以1/3算力实现性能翻倍,快速抢占手机/车机/企业服务AI化红利!

**核心内容总结:**

阿里巴巴于4月29日发布新一代开源大模型**Qwen3(通义千问3)**,以更低的算力成本和更强的综合性能,全面超越DeepSeek-R1、OpenAI-o1等全球顶尖模型,成为当前**最强开源大模型**。其核心亮点包括:

1. **技术突破**:

- 采用**混合推理架构**,集成“快思考”(低算力秒回)与“慢思考”(多步骤深度推理),显著节省算力;

- **MoE架构**总参数量235B,激活仅需22B,预训练数据量达36T,强化后训练性能;

- 在**AIME25奥数评测**(81.5分)、**LiveCodeBench代码评测**(超70分)、**ArenaHard人类偏好评测**(95.6分)中刷新开源纪录,超越GPT-4、Grok3等模型。

2. **成本与部署优势**:

- 仅需**4张H20显卡**即可部署满血版,显存占用为同类模型1/3;

- 提供**8款参数版本**(0.6B至235B),覆盖手机端(4B)、汽车/电脑端(8B)、企业级(32B)等场景,均达同尺寸SOTA性能。

3. **应用支持升级**:

- 原生支持**智能体(Agent)开发**,工具调用门槛降低,BFCL评测得分70.8,超越Gemini2.5-Pro;

- 兼容**MCP协议**及Qwen-Agent框架,简化工具调用编码;

- 支持**119种语言**,免费商用,可通过阿里云、通义APP等渠道快速接入。

4. **开源生态领先**:

- 延续Apache2.0协议,全球下载量超3亿次,衍生模型超10万,超越Meta Llama成全球第一开源模型。

**本文将详细解析Qwen3的技术创新、性能表现及对AI产业生态的影响。**

**核心内容概述:**

阿里巴巴开源新一代通义千问模型Qwen3,以更低的成本和更强的性能成为全球开源模型新标杆。Qwen3采用混合专家架构(MoE),仅需22B激活参数即可实现235B总参数量的能力,在推理速度、多语言支持、工具调用等方面全面超越DeepSeek-R1、OpenAI-o1等顶尖模型。其关键亮点包括:

1. **性能突破**:在AIME25(奥数评测)、LiveCodeBench(代码能力)、ArenaHard(人类偏好对齐)等多项国际测评中刷新开源模型纪录,甚至超越部分闭源模型。

2. **成本优化**:部署成本大幅下降,仅需4张H20显卡即可运行满血版,显存占用为同类模型的三分之一。

3. **灵活适配**:提供从0.6B到235B的多种参数版本,支持手机、汽车、企业级等全场景部署,并通过“思考预算”机制平衡性能与成本。

4. **智能体支持**:BFCL评测得分70.8,超越Gemini2.5-Pro,原生支持工具调用协议和开发框架,降低Agent应用门槛。

5. **开放生态**:采用Apache2.0协议免费商用,支持119种语言,覆盖魔搭社区、HuggingFace、阿里云百炼等多平台,个人用户可通过通义APP直接体验。

Qwen3的发布进一步巩固了阿里通义在全球开源模型领域的领先地位,为AI应用爆发提供高效基础设施。

**核心内容总结:**

阿里巴巴全新开源大模型**Qwen3(通义千问3)**于4月29日发布,以**低成本、高性能**为核心优势,**全面超越DeepSeek-R1、OpenAI-o1等全球顶尖模型**,成为当前**最强开源模型**。以下是关键亮点:

1. **突破性性能**

- 在**推理、代码、人类偏好对齐**等多项评测中刷新纪录,如**AIME25(奥数)81.5分**、**LiveCodeBench(代码)超70分**,超越Grok3和OpenAI-o1。

- 采用**混合专家(MoE)架构**,参数总量235B,激活仅需22B,通过“**快思考+慢思考**”模式动态分配算力,节省资源。

2. **成本大幅优化**

- **部署成本极低**:仅需4张H20即可运行满血版,显存占用仅为同类模型的1/3。

- 提供**多尺寸版本**(0.6B至235B),覆盖手机端(4B)、电脑/汽车端(8B)、企业级(32B)等场景,**同尺寸性能均为开源SOTA**(如32B超越Qwen2.5-72B)。

3. **灵活适配与智能体支持**

- 支持“**思考预算**”API,按需调整计算深度,平衡性能与成本。

- 强化**工具调用与Agent能力**(BFCL评测70.8分超Gemini2.5-Pro),集成Qwen-Agent框架降低开发门槛,助力智能应用快速落地。

4. **开源与商用友好**

- **Apache2.0协议开源**,支持**119种语言**,免费商用下载(魔搭社区、HuggingFace等),阿里云百炼提供API服务。

- 个人用户可通过**通义APP**直接体验,夸克即将全线接入。

**适用场景**:企业AI部署、开发者工具集成、多语言应用开发、移动端轻量化AI等,为智能体(Agent)爆发提供强力支持。

阿里巴巴发布新一代开源大模型Qwen3,通过技术创新实现性能突破与成本优化。该模型采用混合专家(MoE)架构和混合推理机制,总参数量235B但激活参数仅需22B,通过"快思考"与"慢思考"的动态切换显著降低算力消耗。在关键评测中,Qwen3以AIME25数学测评81.5分、LiveCodeBench代码能力70分、ArenaHard对齐测评95.6分的成绩,刷新开源模型纪录并超越OpenAI-o1、DeepSeek-R1等商业模型。

技术亮点包括:

1. **高效部署**:仅需4张H20显卡即可运行满血版,显存占用为同类模型1/3

2. **多版本矩阵**:提供0.6B到235B共8种参数规格,其中30B MoE模型性能较前代提升10倍,32B密集模型性能超越Qwen2.5-72B

3. **智能体支持**:BFCL评测70.8分超越Gemini2.5-Pro,原生支持MCP协议并集成工具调用框架Qwen-Agent

4. **应用生态**:覆盖端侧设备(4B适配手机、8B适配车载),支持119种语言,通过Apache2.0协议开源

作为全球下载量超3亿的开源领导者,Qwen3系列已衍生超10万模型,标志着中国在AI基础模型领域取得重要突破。开发者可通过魔搭社区、HuggingFace等平台获取模型,企业用户可通过阿里云百炼调用API服务。

{{loading ? '正在重新生成' : '重新生成'}}

返回默认

我是 品牌商 卖家 工厂 服务商 平台商 研究者 帮我再读一遍。

【亿邦原创】4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3(简称千问3),参数量为DeepSeek-R1的1/3,成本大幅下降。据介绍,千问3性能全面超越R1、OpenAI-o1等全球顶尖模型,成为全球最强开源模型。

千问3是国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考”,大大节省算力消耗。

千问3采用混合专家(MoE)架构,总参数量235B,激活仅需22B。千问3预训练数据量达36T,并在后训练阶段多轮强化学习,将非思考模式无缝整合到思考模型中。千问3在推理、指令遵循、工具调用、多语言能力等方面均大幅增强,即创下所有国产模型及全球开源模型的性能新高:在奥数水平的AIME25测评中,千问3斩获81.5分,刷新开源纪录;在考察代码能力的LiveCodeBench评测中,千问3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐的ArenaHard测评中,千问3以95.6分超越OpenAI-o1及DeepSeek-R1。

性能大幅提升的同时,千问3的部署成本还大幅下降,仅需4张H20即可部署千问3满血版,显存占用仅为性能相近模型的三分之一。

千问3性能图

千问3还提供了丰富的模型版本,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能):千问3的30B参数MoE模型实现了10倍以上的模型性能杠杆提升,仅激活3B就能媲美上代Qwen2.5-32B模型性能;千问3的稠密模型性能继续突破,一半的参数量可实现同样的高性能,如32B版本的千问3模型可跨级超越Qwen2.5-72B性能。

同时,所有千问3模型都是混合推理模型,API可按需设置“思考预算”(即预期最大深度思考的tokens数量),进行不同程度的思考,灵活满足AI应用和不同场景对性能和成本的多样需求。比如,4B模型是手机端的绝佳尺寸;8B可在电脑和汽车端侧丝滑部署应用;32B最受企业大规模部署欢迎,有条件的开发者也可轻松上手。

Qwen3开源模型家族

千问3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。在评估模型Agent能力的BFCL评测中,千问3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛。同时,千问3原生支持MCP协议,并具备强大的工具调用(function calling)能力,结合封装了工具调用模板和工具调用解析器的Qwen-Agent框架,将大大降低编码复杂性,实现高效的手机及电脑Agent操作等任务。

据了解,千问3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言,全球开发者、研究机构和企业均可免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用千问3的API服务。个人用户可立即通过通义APP直接体验千问3,夸克也即将全线接入千问3。

据悉,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越美国Llama,成为全球第一开源模型。

亿邦持续追踪报道该情报,如想了解更多与本文相关信息,请扫码关注作者微信。

文章来源:亿邦动力

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享

APP内打开

+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0