重磅宣布! 从数周提速至几分钟!英伟达

从数周提速至几分钟!英伟达

英伟达又有新动作。

6月2日,英伟达在Computex(台湾国际电脑展)上宣布,全球2800万开发者可以下载NVIDIA NIM(Nvidia Inference Microservices),将AI模型部署在云、数据中心或工作站上,轻松地构建Copilot(一种AI助理)、ChatGPT聊天机器人等生成式AI应用。这一产品将使得模型部署时间从以前的数周缩短至短短的几分钟。

NVIDIA NIM是英伟达今年 3 月推出的经过优化的云原生微服务,旨在方便各种规模的企业部署AI服务。证券时报记者查询英伟达官网发现,NVIDIA NIM已在官网上线,可供用户下载和部署。

除此以外,英伟达创始人兼首席执行官黄仁勋还宣布,新一代AI芯片与超级计算平台Blackwell芯片现已开始投产,将在2025年推出Blackwell Ultra AI芯片,下一代AI平台名称为Rubin,目前还正在开发中,预计于2026年发布,该平台将采用HBM4记忆芯片。

Blackwell是被英伟达寄予厚望的新的业绩增长引擎。在5月22日发布远超市场预期的财报后,黄仁勋在财报电话会议上指出,Blackwell架构芯片将于二季度发货,并将于三季度增产,预计今年Blackwell架构芯片将为公司带来大量收入。

数百家合作伙伴已嵌入 NIM

“每家企业都希望将生成式AI添加到其运营中,但并非每家企业都拥有一支专门的AI研究团队。NVIDIA NIM 集成到各个平台中,可供各个开发者使用,可在各个地方运行,它正在帮助技术行业让每个组织都能使用生成式AI。”英伟达创始人兼首席执行官黄仁勋表示。据介绍,NVIDIA NIM 可以通过提供一种简单、标准化的方式将生成式 AI 添加到其应用程序中,大大提高了开发人员的工作效率。

据了解,NIM是预先构建的,目前有超过40个模型可在ai.nvidia.com上作为NIM的端点供开发者体验。记者在英伟达官网中看到,其展示的模型中包括了Databricks DBRX、Google 的开放模型 Gemma、Meta Llama 3、Microsoft Phi-3、Mistral Large、Mixtral 8x22B 和 Snowflake Arctic等模型。

英伟达表示,开发人员可以从开源社区平台Hugging Face访问适用于 Meta Llama 3 模型的NVIDIA NIM微服务,只需单击几下即可使用Hugging Face推理端点访问和运行 Llama 3 NIM。具体而言,企业可以使用NIM运行用于生成文本、图像和视频、语音和数字人类的应用程序。

同时,英伟达也公布了自己长长的AI生态系统合作伙伴名单,表示已经有数百AI生态系统合作伙伴嵌入NIM,富士康、劳氏、西门子等企业在制造业、医疗保健、金融服务、零售、客户服务等领域均使用NIM进行生成式AI的应用。

具体而言,富士康正在使用NIM开发领域特定大语言模型,以嵌入到其AI工厂的各种内部系统和流程中,以实现智能制造、智能城市和智能电动汽车;家居装修公司劳氏正在利用NIM推理微服务来提升员工和客户的体验;西门子正在将其运营技术与NIM微服务集成,以应对车间AI工作负载,且正在使用NIM为机器操作员构建其工业副驾驶的本地版本。

值得注意的是,英伟达还专门提到,有数十家医疗保健公司正在部署NIM,为包括手术规划、数字助理、药物发现和临床试验优化等在内的应用领域的生成性AI推理提供支持。作为全球芯片巨头,英伟达近年来在一级市场上可谓动作频频,除了聚焦AI领域的标的以外,还格外钟情于医药生物赛道,投资了多家在AI制药、基因编辑、精准医疗等方面具有领先技术的公司。据MedAlpha数据库显示,自2023年以来,英伟达已先后投资了9家生物初创公司,所投金额高达21.5亿美元。

华泰证券研报表示,“NIM的推出不仅降低了新AI模型的初始训练和推理成本,也是英伟达鼓励客户购买服务器并注册企业版服务的一部分策略。公司强调,NIM软件将进一步简化人工智能在GPU配备的笔记本电脑上的运行,而非仅限于云服务器。公司认为NIM将进一步提升部署AI的易用性,并巩固客户对英伟达芯片的依赖,但我们认为此举或将进一步跟云厂商的业务有所重叠。”

Blackwell芯片已开始投产

nvidia

除了让企业更易部署AI模型的NVIDIA NIM以外,黄仁勋在演讲中还透露英伟达Blackwell芯片已开始投产,并将在2025年推出Blackwell Ultra AI芯片。下一代AI平台名称为Rubin,该平台将采用HBM4内存。

今年3月,英伟达在GTC大会上展示了新一代AI芯片与超级计算平台Blackwell。据悉,英伟达的第一款Blackwell芯片名为GB200,宣称是目前“全球最强大的芯片”,该架构GPU具有2080亿个晶体管,制造工艺为专门定制的双倍光刻极限尺寸的台积电4NP工艺。

华泰证券研报分析称,GB200由2个B200 GPU 和1个Grace CPU 组成,推理大语言模型性能比H100提升30倍,成本和能耗降至其1/25。此外,训练1.8万亿参数模型所需的资源,从8000个Hopper GPU和15兆瓦电力,降低到2000个Blackwell GPU和4兆瓦电力。GB200计划于今年晚些时候上市,亚马逊AWS已计划采购2万片GB200芯片,能部署高达27万亿参数的模型。

前不久披露的2025财年第一财季财报显示,英伟达实现营收260亿美元,环比增长18%,同比增长262%;净利润148.8亿美元,同比增长628%,营收和净利润皆大超预期,再一次引燃了市场对人工智能的期待,也让英伟达的股价接连创下新高。

分业务来看,英伟达数据中心业务最受市场关注,其业绩也不负众望,实现营业收入226亿美元,与上年同期相比增长427%,与上一财季相比增长34%。英伟达表示,这得益于公司Hopper系列图形处理器的发货。对于未来新芯片的计划,在财报电话会议上,黄仁勋曾为Blackwell芯片的供应给出了一个详细的时间轴:“Blackwell芯片将在今年第二季度出货,在第三季度增产,第四季度投放到数据中心,预计Blackwell今年将为公司带来大量收入”。

国金证券研报认为,英伟达下一波业绩释放即将到来。AI训练和推理需求推动Hopper平台上量,同时AIGC从云厂商向消费互联网等更多类型拓展,创造多个数十亿美元的垂直市场。Blackwell平台实现全面投产,为万亿参数级AIGC奠定了基础。同时Spectrum-X的迭代,使得超大规模AI能够进入以太网专用数据中心。下游需求持续上行叠加新GPU平台顺利投产,公司龙头地位稳定,业绩新爆发点已现。

责编:万健祎

校对:陶谦

" Type="normal"@@-->

重磅宣布! 黄仁勋

我的电脑是双显卡的,看高清的时候应该用英伟达CUDA高清加速还是intel高清加速?

英伟达

默认情况下,看高清电影主要依靠CPU,只要CPU给力 集成显卡都可以。 而靠显卡硬解压高清电影 不是很可靠,操作起来也有难度。 如果CPU够用就不建议使用显卡硬解。 虽然依靠显卡的高清加速可以大大的降低CPU的使用率,但是实际意义并不大,没有谁会在看高清电影的同时还运行其他的大程序吧,比如;压缩、解压缩这种占用CPU较多的程序。 显卡的功耗与价格都要高于CPU,放着便宜、可靠的不用,而去用贵的,不太划算吧。 比如笔记本电脑,使用显卡的高清加速功能时的发热量就要大于 单独使用CPU来播放高清电影。

Nvidia显卡物理加速有什么用?

这个就是nvidia的技术。 。 它的作用就是使GPU画面更流畅

nvidia显卡支持miracast无线显示吗

芯片

1、支持的2、英伟达宣布Tegra移动芯片内部将集成Miracast标准。 Miracast是Wi-Fi联盟创立的标准无线显示技术标准

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://www.srwj168.com.cn/keji312/19090.html
与OpenAI的 魔鬼交易
姚明观战!中国女篮逆转澳大利亚获首胜 6三分爆发 杨舒予23