发布于:2023-11-16 13:27 阅读次数:
【EA大师新闻】——微软周三在西雅图举行的Ignite大会上发布了两款芯片。
首先是它的Maia 100人工智能芯片,可以与Nvidia备受追捧的人工智能图形处理单元(GPU)相媲美。第二款是Cobalt 100 Arm芯片,针对一般计算任务。
可能与英特尔处理器竞争。
现金充裕的科技公司已经开始为客户提供更多的云基础设施选择,他们可以使用这些基础设施来运行应用程序。阿里巴巴、亚马逊和谷歌多年来一直在这么做。据估计,
截至10月底,微软拥有约1440亿美元现金,占2022年云市场份额的21.5%,仅次于亚马逊。
微软副总裁Rani Borkar在接受美国消费者新闻与商业频道采访时表示,运行在钴芯片上的虚拟机实例将在2024年通过微软的Azure云实现商业化。
她没有提供Maia 100的发布时间表。
谷歌在2016年宣布了其人工智能的原始张量处理单元。2018年,
亚马逊网络服务发布了基于Graviton arm和Interentia人工智能处理器的芯片,并在2020年宣布了用于训练模型的Trainium。
当GPU供不应求时,云提供商的特殊AI芯片可能有助于满足需求。但与英伟达或AMD不同,微软及其云计算同行不打算让企业购买包含他们芯片的服务器。
博尔卡解释说,该公司根据客户的反馈为人工智能计算制造芯片。
博尔卡表示,微软正在测试Maia 100如何满足其必应搜索引擎的人工智能聊天机器人(现在称为Copilot,
不是Bing聊天)、GitHub Copilot编码助手和GPT-3.5-Turbo,这是微软支持的OpenAI的大语言模型。
OpenAI已经为其语言模型提供了大量来自互联网的信息,可以通过少量的人工指令生成电子邮件消息、汇总文档和回答问题。
GPT-3.5涡轮模型适用于OpenAI的ChatGPT助手,该助手在去年推出后不久就开始流行。然后,该公司迅速采取行动,在他们的软件中添加类似的聊天功能,这增加了对GPU的需求。
今年9月,英伟达首席财务官科莱特克雷斯在纽约举行的Evercore大会上表示,“我们一直在与所有不同的供应商合作,以帮助改善我们的供应状况。
并支持许多客户及其需求。"
OpenAI之前在Azure中使用的是英伟达GPU训练模型。
除了设计Maia芯片,微软还设计了名为Sidekicks的定制液体冷却硬件,可以安装在Maia服务器旁边的机架上。一位发言人说,该公司可以安装服务器机架和Sidekick机架,无需修改。
使用GPU充分利用有限的数据中心空间可能会带来挑战。服务器初创公司Oxide Computer的联合创始人兼首席执行官史蒂夫塔克(Steve Tuck)表示,
公司有时会将几个包含GPU的服务器像“孤儿”一样放在机架底部,以防止过热,而不是从上到下填满机架。塔克说,公司有时会增加冷却系统来降低温度。
如果亚马逊的经验具有指导意义,微软可能会比Maia人工智能芯片更快地采用Cobalt处理器。微软正在Cobalt上测试团队应用和Azure SQL数据库服务。微软表示,到目前为止,
它们的性能比Azure现有的Arm芯片(由初创公司Ampere开发)高40%。
在过去的一年半时间里,随着价格和利率的上涨,许多公司都在寻找提高云计算支出效率的方法。对于AWS客户,Gravon就是就是其中之一。AWS副总裁戴夫布朗说,
AWS的前100家客户现在都在用Arm芯片,可以提升40%的性价比。
然而,从GPU迁移到AWS Trainium AI芯片可能比从Intel Xeons迁移到Gravitons更复杂。每个人工智能模型都有自己的怪癖。布朗表示,由于Arm在移动设备中的普及,
很多人都在尝试让各种工具在Arm上工作,但是在人工智能芯片上,情况就不一样了。但随着时间的推移,他说,他预计企业将看到Trainium的性价比比GPU有类似的提高。
她说:“我们已经与生态系统和生态系统中的许多合作伙伴共享了这些规范,这将使我们所有的Azure客户受益。”
Borka表示,她没有详细说明Maia和Nvidia H100等替代产品的性能。周一,英伟达表示,其H200将于2024年第二季度开始发货。