发布于:2023-02-27 10:05 阅读次数:
【EA Master News】-随着Alphabet在聊天机器人上的错误导致其市值蒸发1000亿美元,该公司在为其广受欢迎的谷歌搜索添加生成式人工智能的努力中出现了另一个挑战:成本。
整个科技行业的高管都在讨论如何运营ChatGPT这样的人工智能,同时考虑到了高昂的成本。OpenAI首席执行官山姆奥特曼(Sam Altman)在推特上表示,这款流行的聊天机器人可以起草短文和回答搜索问题,每段对话的计算成本高达几美分甚至更多,这是“无法承受的”。
Alphabet董事长约翰汉尼斯在接受采访时告诉路透社记者,与被称为大型语言模型的人工智能进行交流的成本可能是标准关键词搜索的10倍,尽管微调将有助于快速降低成本。
分析师表示,即使有来自潜在聊天搜索广告的收入,这项技术也可能为总部位于加州山景城的Alphabet带来数十亿美元的额外成本。2022年,其净收入近600亿美元。
摩根士丹利(Morgan Stanley)估计,谷歌去年的3.3万亿次搜索查询每次花费约五分之一美分,这个数字将根据人工智能必须生成的文本量而增加。例如,分析师预测,如果像ChatGPT这样的人工智能能够处理一半的50字答案的查询,到2024年,谷歌可能面临60亿美元的增长。谷歌不太可能需要聊天机器人来处理维基百科这样的网站的导航搜索。
其他人以不同的方式达成了类似的法案。例如,专注于芯片技术的研究和咨询公司SemiAnalysis表示,将ChatGPT风格的人工智能添加到搜索中可能需要Alphabet 30亿美元,这受到谷歌内部芯片张量处理单元(TPUs)和其他优化的限制。
这种形式的人工智能比传统搜索更昂贵的原因是其中涉及的计算能力。分析师表示,这种人工智能依赖于数十亿美元的芯片,而这一成本必须在芯片的生命周期内分摊数年。同样,电力也给有碳足迹目标的公司增加了成本和压力。
处理人工智能搜索查询的过程称为“推理”。在这个过程中,一个松散地模仿人脑生物学的“神经网络”从以前的训练中推断出问题的答案。
相比之下,在传统搜索中,谷歌的网络爬虫扫描互联网来索引信息。当用户输入一个查询时,Google会提供存储在索引中的最相关的答案。
Alphabet的汉尼斯告诉路透社,“你必须降低推理的成本。”称之为“几年内最糟糕的问题”
尽管成本高昂,Alphabet仍然面临着接受挑战的压力。本月早些时候,竞争对手微软在其位于华盛顿特区的总部举行了一场高调的活动,展示其将人工智能聊天技术嵌入其必应搜索引擎的计划,高管们将目标对准了Similarweb估计的谷歌91%的搜索市场份额。
一天后,Alphabet谈到了改进其搜索引擎的计划,但其人工智能聊天机器人Bard的宣传视频显示,该系统回答了一个不准确的问题,引发了股票下跌,市值蒸发了1000亿美元。
后来有报道称,微软的人工智能对用户进行威胁或示爱,促使该公司限制长时间聊天,称其“触发”了意想不到的回答,这引起了微软自己的审查。
微软首席财务官艾米胡德(Amy Hood)告诉分析师,随着新公司向数百万消费者推出,用户和广告收入带来的好处超过了成本。“对我们来说,这是毛利率的增加,即使是在我们正在讨论的服务成本上。”她说。
谷歌的另一个竞争对手You.com的首席执行官Richard Socher表示,增加人工智能聊天体验、图表、视频和其他生成技术应用程序将使成本增加30%至50%。“随着时间的推移,技术会变得越来越便宜。”他说。
一位接近谷歌的消息人士警告说,现在确定聊天机器人的确切价格还为时过早,因为由于涉及的技术不同,效率和使用情况差异很大,人工智能已经为搜索等产品提供了动力。
埃森哲首席技术官Paul Daugherty表示,尽管如此,买单是拥有数十亿用户的搜索和社交媒体巨头没有在一夜之间推出人工智能聊天机器人的两个主要原因之一。
“一个是准确性,另一个是你必须以正确的方式来衡量它。”他说。
*让数学发挥作用*
多年来,Alphabet和其他地方的研究人员一直在研究如何更便宜地训练和运行大型语言模型。
更大的模型需要更多的芯片进行推理,所以成本更高。人工智能因其类似于人类的权威性而令消费者眼花缭乱,其规模已经扩大到1750亿个所谓的参数,即算法考虑的不同值,用于更新ChatGPT的OpenAI模型。成本也随着用户查询的长度而变化,用“符号”或单词来衡量。
一位高级技术高管告诉路透社,这种人工智能仍然昂贵,难以让数百万消费者使用。
“这些模型非常昂贵,因此发明的下一阶段将是降低训练这些模型和推理的成本,以便我们可以在每个应用程序中使用它。”这位不愿透露姓名的高管说。
一位知情人士表示,目前OpenAI内部的计算机科学家已经找到了如何通过复杂的代码来优化推理成本,从而提高芯片的运行效率。OpenAI发言人没有立即置评。
一个更长远的问题是,如何将人工智能模型中的参数数量减少10倍甚至100倍,而不损失准确性。
"如何最有效地过滤(参数)仍然是一个悬而未决的问题."Naveen Rao表示,他曾经负责英特尔的人工智能芯片,现在他致力于通过自己的初创公司MosaicML来降低人工智能的计算成本。
与此同时,也有人考虑过对接入收费,比如每月为OpenAI订阅20美元,以获得更好的ChatGPT服务。技术专家还表示,一种变通方法是将更小的人工智能模型应用于更简单的任务,Alphabet正在探索这种方法。
该公司本月表示,其庞大的LaMDA AI技术的“较小模型”版本将为其聊天机器人Bard提供动力,该机器人需要“明显更少的计算能力,以便我们可以扩展到更多用户。”
当被问及ChatGPT和Bard等聊天机器人时,汉尼斯上周在一个名为TechSurge的会议上表示,一个更专注的模型,而不是一个做所有事情的系统,将有助于“降低成本”。