刚刚,黄仁勋院士(Jensen Huang)再向行业扔下重磅“核弹”。
钛媒体App获悉,北京时间2月26日,AI芯片巨头英伟达(NVIDIA)宣布推出全新NVIDIA RTX 500和1000 Ada一代消费级GPU(图形处理器)加速芯片,全面支持在轻薄笔记本电脑等移动设备中运行生成式AI(AIGC)软件。
英伟达表示,与仅使用CPU的配置相比,全新RTX 500 GPU可为Stable Diffusion等模型提供高达14倍(1400%)的生成式AI性能,利用AI进行照片编辑的速度提高3倍,3D渲染的图形性能提高10倍,从而成功实现了生产力的巨大提升。
作为入门款GPU产品,英伟达RTX 500将成为全球内置AIGC技术且价格最便宜的GPU芯片。
同时,这也意味着,黄仁勋持续降低AI PC设备门槛,即将大量出货英伟达GPU芯片,消费者买笔记本电脑免费送AI的时代真的要来了!
据悉,英伟达RTX 500和RTX 1000均采用与RTX 4090、L40服务器GPU一样的Ada Lovelace架构,或采用台积电4N(5nm)工艺,拥有神经处理单元(NPU)、第三代RT核心、第四代Tensor Core、Ada一代CUDA内核、专用GPU内存、DLSS 3光线追踪技术、第八代NVIDIA AV1(NVENC)编码器等一系列旗舰AI芯片才拥有的重要配置。
英伟达称,随着AIGC和混合工作环境成为新标准,无论是内容创建者、研究人员还是工程师,几乎每位专业人士都需要一台强大AI加速功能的笔记本电脑来帮助用户应对行业挑战。而RTX 500和1000 GPU通过AI为各地紧凑型设计的笔记本电脑用户提升工作流程。
具体来说,首先,基于NVIDIA Ada Lovelace架构,RTX 500和1000 GPU芯片拥有第三代RT核心,光线追踪性能比上一代提升了2倍,可实现高保真、逼真的渲染。
其次,搭载的第四代Tensor Core AI加速技术,吞吐量是上一代的2倍,可应用于深度学习训练、推理和基于AI的创意工作负载。
再次,与上一代相比,拥有最新CUDA内核的RTX 500和1000 GPU,单精度浮点(FP32)吞吐量提高30%;而第八代NVIDIA编码器支持AV1,效率比H.264高出40%。
最后,RTX 500 GPU配备4GB GPU专用内存,RTX 1000 GPU配备6GB GPU专用内存,可处理更大的项目、数据集和多应用工作流程,全面支持部分复杂3D场景和AI应用研发。
另外,内置NPU的RTX 500和1000 GPU芯片,可提供最高193 TOPS的AI性能,满足日常AI工作流程。如果你希望利用AI来实现深度学习、数据科学、高级渲染等工作流程,英伟达还提供RTX 2000、3000、3500、4000和5000 Ada笔记本电脑GPU,最高支持682 TOPS的AI性能。
很显然,黄院士的想法就是:一旦要用AI,就要买英伟达GPU显卡。没有更高性能的CPU难以开发和使用AIGC应用程序。
“你买的越多,你省的就越多。”黄仁勋曾表示。
英伟达透露,全新NVIDIA RTX 500和1000 Ada一代笔记本电脑GPU将于今年春天在戴尔、惠普、联想和MSI等移动工作设备中应用。
实际上,钛媒体App编辑手中的一台Redmi Book 15E,由于没有内置NVIDIA独立显卡。因此,我们安装很多支持CUDA如NVIDIA App等多款AI应用就会显示“安装无法继续”——GPU已深深改变了我们的生活。
近期公布的英伟达最新财报显示,2024财年,英伟达营收609.22亿美元,同比增长126%;净利润同比增长581%,至297.60亿美元,成为地表最强的公司。
受利好业绩影响,英伟达美股持续大涨。
2023年,英伟达股价已累计上涨236%,进入2024年英伟达股价短短两个月涨幅又超过63.05%,最新市值在2万亿美元左右。
如今,新的AI时代下,全球科技巨头排行发生了重大变化:英伟达超越了谷歌、亚马逊等一众巨头,已成为全球第三大科技公司,仅次于微软、苹果。
随着股价暴涨,英伟达联合创始人兼CEO黄仁勋身价也水涨船高,最新增加85亿美元,至681亿美元,成为全球第21位最富有的人,不仅超越科赫工业CEO查尔斯·科赫(Charles Koch),而且也成功超过中国首富、农夫山泉创始人兼董事长钟睒睒。
对于中国市场,英伟达也首次提到,华为是英伟达最重要的竞争对手之一。同时,黄仁勋对外确认,英伟达正在向客户提供A100/H800 AI芯片的替代样品,同时遵守了美国商务部半导体出口管制规定。
黄仁勋最近接受《Wired》对话时坦言,华为是非常好的公司。尽管他们受到现有半导体处理技术的限制,但他们仍然可以通过将许多芯片聚集在一起来构建非常强大的系统。
黄仁勋强调,英伟达非常期望去中国市场进行业务竞争,并希望“我们能够成功地服务于市场”。
2月26日晚,美国存储芯片巨头美光科技(Micron Technology)宣布,该公司已开始批量生产其用于AI加速的先进Micron 24GB HBM3E内存方案,提供高达1.2 TB/s带宽,相比竞争对手功耗降低30%,应用于英伟达H200 Tensor Core GPU,最快将于2024年第二季度出货。
随着英伟达A100、H100芯片的成功量产,英伟达正瞄向AI超算云Nvidia DGX Cloud、AI软件栈Nvidia AI Enterprise等全新业务。
黄仁勋早前表示,生成式AI使每个(软件)企业都拥抱加速计算,提高吞吐量,而英伟达将利用Nvidia AI Enterprise,对这些企业所有的软件堆栈进行管理、优化、修补。而谷歌成为了Nvidia AI Enterprise的最新合作方。
“我们将其推向市场的方式是将Nvidia AI Enterprise视为操作系统,每年每个GPU收取4500美元。我的猜测是,世界上每一家在专有云和私有云中部署软件的软件企业公司,都将在Nvidia AI Enterprise上运行。”黄仁勋表示。
半导体行业机构Futurum Research首席执行官丹尼尔·纽曼 (Daniel Newman) 认为,“英特尔曾经是业界的霸主。而现在,很多公司正联合起来,以确保英伟达不会变得太强大。”
综合多方消息,3月18日举行的GTC大会上,英伟达将推出基于下一代Blackwell GPU架构的新款B100 AI芯片,采用台积电3nm制程工艺、三星提供最新HBM存储技术,据推测B100性能至少是H200的两倍、也就是H100的整整四倍,预计B100将成为全球最强大的AI芯片。
注:文/林志佳,文章来源:钛媒体(公众号ID:taimeiti),本文为作者独立观点,不代表亿邦动力立场。
文章来源:钛媒体