发布于:2023-06-15 13:27 阅读次数:
【外汇EA大师网消息】——AMD周二表示,其最先进的人工智能GPU MI300X将于今年晚些时候开始向部分客户发货。
分析师称,AMD的声明是对英伟达的最大挑战,英伟达目前在人工智能芯片市场占据主导地位,市场份额超过80%。
GPU是OpenAI等公司用来构建ChatGPT等前沿人工智能程序的芯片。
如果被AMD称为“加速器”的人工智能芯片被开发者和服务器制造商接受,作为英伟达产品的替代品,对于这家以传统计算机处理器闻名的芯片制造商来说,可能代表着一个巨大的未开发市场。
AMD首席执行官苏姿丰周二在旧金山对投资者和分析师表示,人工智能是该公司“最大、最具战略意义的长期增长机遇”。
“我们认为数据中心人工智能加速器(市场)将从今年的300亿美元增长到2027年的1500亿美元,复合年增长率超过50%。”苏丽莎说。
虽然AMD没有透露价格,但此举可能会给英伟达的GPU带来价格压力,比如H100可能会超过3万美元。较低的GPU价格可能有助于降低为生成式人工智能应用服务的高成本。
AI芯片是半导体行业的亮点之一,但作为半导体处理器销售传统推动力的个人电脑PC销售低迷。
上个月,AMD首席执行官lisa su在财报电话会议上表示,尽管MI300X将在今年秋天提供样品,但它将在明年开始大量出货。丽莎苏在周二的演讲中分享了更多关于芯片的细节。
“我喜欢这个芯片。”苏丽莎说。
AMD表示,其新的MI300X芯片及其CDNA架构是为大规模语言模型和其他尖端人工智能模型设计的。
“它的核心是GPU。GPU正在实现生成式人工智能。”苏丽莎说。
MI300X可以使用高达192GB的内存,这意味着它可以适应比其他芯片更大的人工智能模型。比如竞争对手英伟达的H100只支持120GB内存。
用于生成式人工智能应用的大型语言模型使用大量内存,因为它们运行越来越多的计算。AMD展示了运行名为Falcon的400亿参数模型的MI300X。OpenAI的GPT-3模型有1750亿个参数。
“模型尺寸越来越大。事实上,你需要多个GPU来运行最新的大规模语言模型。”Lisa su说道,并指出随着AMD芯片上内存的增加,开发者将不再需要那么多的GPU。
AMD还表示,将提供在一个系统中集成八个M1300X加速器的Infinity架构。英伟达和谷歌已经开发了类似的系统,将八个或更多的GPU结合在一个盒子中,用于人工智能应用。
人工智能开发者一直青睐英伟达芯片的一个原因是,它有一个开发良好的软件包,名为CUDA,使他们能够访问芯片的核心硬件功能。
AMD周二表示,它拥有自己的人工智能芯片软件,名为ROCm。
AMD总裁维克托彭(Victor Peng)表示:“虽然这是一段旅程,但我们在构建一个强大的软件堆栈方面已经取得了很大进展,这个软件堆栈可以与模型、库、框架和工具的开放生态系统协同工作。