发布于:2024-03-20 13:27 阅读次数:
【大师网讯外汇EA】——英伟达周一宣布推出新一代人工智能芯片和运行人工智能模型的软件。英伟达在圣何塞举行的开发者大会上宣布了这一消息,该芯片制造商寻求巩固其作为人工智能公司首选供应商的地位。
自2022年底OpenAI的ChatGPT掀起人工智能热潮以来,英伟达股价上涨了五倍,总销售额增长了两倍多。 Nvidia 的高端服务器GPU 对于训练和部署大型人工智能模型至关重要。微软和Meta 等公司在这些芯片上花费了数十亿美元。
新一代人工智能图形处理器被命名为Blackwell。第一款Blackwell 芯片称为GB200,将于今年晚些时候上市。英伟达正在用更强大的芯片来吸引客户,以刺激新订单。例如,公司和软件制造商仍在争先恐后地获得当前一代的“Hopper”H100 和类似芯片。
Nvidia 首席执行官黄仁勋周一在加州举行的公司开发者大会上表示:“Hopper 很棒,但我们需要更大的GPU。”
周一盘后交易中,英伟达股价下跌超过1%。
该公司还推出了一款名为NIM 的创收软件,该软件将使人工智能的部署变得更加容易,为客户在竞争对手不断崛起的领域坚持使用Nvidia 芯片提供了另一个理由。
英伟达高管表示,该公司正在从一家追求利润的芯片供应商转型为微软或苹果等平台提供商,其他公司可以在其上开发软件。
“Blackwell 不是芯片,而是一个平台的名称。”黄仁勋说道。
英伟达公司副总裁Manuvir Das在接受:采访时表示:“可以出售的商业产品是GPU,软件是为了帮助人们以不同的方式使用GPU。当然,我们仍然这样做。”但真正改变的是我们现在实际上拥有了商业软件业务。”
Das 表示,Nvidia 的新软件将使在任何Nvidia GPU 上运行程序变得更加容易,甚至是那些可能更适合部署但不适合构建人工智能的旧GPU。
Das 说:“如果您是一名开发人员并且您有一个有趣的模型希望人们采用,如果您将其放入NIM 中,我们将确保它在我们所有的GPU 上运行,这样您就可以惠及很多人。”
Nvidia 每两年更新一次GPU 架构,以实现显着的性能提升。去年发布的许多人工智能模型都是在该公司2022 年发布的H100 等芯片所使用的Hopper 架构上进行训练的。
Nvidia 表示,GB200 等基于Blackwell 的处理器为AI 公司提供了巨大的性能升级,其AI 性能为20 petaflops,而H100 的AI 性能为4 petaflops。点操作。英伟达表示,额外的处理能力将使人工智能公司能够训练更大、更复杂的模型。
该芯片包括Nvidia 所谓的“Transformer 引擎”,旨在运行基于Transformer 的人工智能,这是为ChatGPT 提供动力的核心技术之一。
Blackwell GPU 很大,将两颗单独制造的芯片集成到台积电制造的一颗芯片中。它还将作为名为GB200 NVLink 2 的完整服务器提供,它结合了72 个Blackwell GPU 和其他用于训练AI 模型的Nvidia 部件。
亚马逊、谷歌、微软和甲骨文将通过云服务出售GB200 的访问权限。 GB200 配备了两个B200 Blackwell GPU 和一个基于ARM 的Grace CPU。 Nvidia表示,亚马逊网络服务将构建一个包含20,000个GB200芯片的服务器集群。
Nvidia 表示该系统可以部署27 万亿参数的模型。这比最大的模型要大得多,例如GPT-4,据报道GPT-4 有1.7 万亿个参数。许多人工智能研究人员认为,具有更多参数和数据的更大模型可以释放新功能。
Nvidia 没有透露新的GB200 或使用它的系统的成本是多少。分析师估计,Nvidia 基于Hopper 的H100 芯片每颗的成本在25,000 美元到40,000 美元之间,整个系统的成本高达200,000 美元。
*英伟达推理微服务*
NVIDIA 还宣布将在其NVIDIA 企业软件订阅中添加一款名为NIM(NVIDIA Inference Microservices)的新产品。
NIM 使使用旧版Nvidia GPU 进行推理或运行人工智能软件的过程变得更加容易,并允许公司继续使用他们已有的数亿个Nvidia GPU。与新人工智能模型的初始训练相比,推理所需的计算能力更少。 NIM允许那些想要运行自己的人工智能模型的公司,而不是从OpenAI等公司购买人工智能成果的服务。
该公司的策略是让购买Nvidia 服务器的客户注册Nvidia 企业版,每个GPU 每年的许可费用为4,500 美元。
英伟达将与微软或Hugging Face等人工智能公司合作,确保他们的人工智能模型可以在所有兼容的英伟达芯片上运行。然后,使用NIM,开发人员可以在自己的服务器或基于云的NVIDIA 服务器上高效地运行模型,而无需冗长的配置过程。
“在我调用OpenAI 的代码中,我将替换一行代码并将其指向我从Nvidia 获得的NIM,”Das 说。
Nvidia 表示,该软件还将帮助人工智能在配备GPU 的笔记本电脑上运行,而不是在云服务器上运行。