发布于:2023-04-10 19:32 阅读次数:
【EA大师网消息】——谷歌周三公布了其人工智能(AI)超级计算机的细节,称其比竞争对手英伟达的系统更快、更高效。耗电的机器学习模型依然是科技行业最火的部分。
虽然英伟达在人工智能模型训练和部署市场占据主导地位,超过90%,但谷歌自2016年以来一直在设计和部署一款名为张量处理单元(TPU)的人工智能芯片。
谷歌是人工智能的主要先驱,其员工在过去十年中开发了该领域一些最重要的进展。但是有些人认为它在将其发明商业化方面落后了。在内部,该公司一直在竞相发布产品,证明自己没有浪费领先地位。
这是该公司的“红队”的情况,这是以前报道的美国消费者新闻与商业频道。
人工智能模型和产品,如谷歌的Bard或OpenAI的ChatGPT——,都是由英伟达的A100芯片支持的。——需要大量的计算机和数百个芯片协同工作来训练模型。
这些计算机连续几周或几个月不间断地运行。
周二,谷歌表示,它已经建立了一个由4000多个TPU和定制组件组成的系统,旨在运行和训练人工智能模型。它自2020年以来一直在训练谷歌的PaLM模型,该模型与OpenAI的GPT模型竞争。
持续了50多天。
谷歌研究人员写道,谷歌在TPU的超级计算机TPU v4“比英伟达A100快1.2至1.7倍,功耗低1.3至1.9倍”。
“性能、可扩展性和可用性使TPU v4超级计算机成为大规模语言模型的主力军。”研究人员继续说道。
然而,谷歌研究人员表示,谷歌的TPU结果没有与最新的英伟达人工智能芯片H100进行比较,因为后者更新,后者是用更先进的制造技术制成的。
周三公布了一项名为MLperf的全行业人工智能芯片测试的结果和排名。英伟达首席执行官黄仁勋表示,最新的英伟达芯片H100的结果比上一代产品快得多。
“今天的MLPerf 3.0强调了Hopper提供了超过A100 4倍的性能。”黄仁勋在博客中写道,“生成式人工智能的下一个阶段需要一个新的人工智能基础设施,以高能效训练大规模语言模型。”
人工智能所需的大量计算机计算能力非常昂贵,许多业内人士都在专注于开发新的芯片、组件(如光连接)或软件技术,以降低所需的计算机计算能力。
人工智能的功耗要求对谷歌、微软和亚马逊等云服务提供商来说也是一个福音,他们可以按小时租用计算机进行处理,并向初创公司提供积分或计算时间来建立关系。
(谷歌的云也出售英伟达芯片上的时间。例如,谷歌表示,人工智能图像生成器Midjourney是在其TPU芯片上训练的。