智通财经APP获悉,在人工智能热潮爆发近18个月之后,一些大型科技公司正在证明,AI可以成为真正的收入驱动因素,但同时也是一个巨大的资金坑。
微软和Alphabet(GOOGL.US)公布的最新财报显示,由于企业客户在其AI服务上的支出增加,云计算收入大幅增加。Meta(META.US)虽然在将其AI技术货币化方面落后于其他公司,但该公司表示,其在AI技术上的努力有助于提高用户参与度和广告定位。
为了实现这些收益,这三家公司已经投入了数十亿没有来开发AI技术,且计划进一步加大投资。4月25日,微软公布的截至3月31日的第三财季业绩显示,资本支出同比增长了79%至140亿美元,超过了分析师普遍预期的131.4亿美元。该公司还预计,资本支出将大幅增加,部分原因是AI基础设施投资。Alphabet的财报显示,该公司第一季度资本支出为120亿美元,较上年同期增长了91%,并预计今年剩余时间将“达到或超过”这一水平,因为该公司专注于AI机会。与此同时,由于在AI研发和产品开发方面的积极投资,Meta上调了今年的资本支出指引,预计今年的资本支出将在350亿美元至400亿美元之间,高于此前预期的300亿美元至370亿美元。
AI投资带来的成本上升让一些投资者措手不及,尤其是Meta的股票,该股在支出指引上调和销售增长不及预期的情况下暴跌。然而,在科技行业,AI成本将会上升其实一直是一种信条,这有两个关键原因:AI模型越来越大导致开发成本越来越高,以及全球对AI服务的需求需要建立更多的数据中心来提供支持。
大语言模型变得越来越大
目前最出名的AI产品,例如OpenAI的ChatGPT,都是由LLM驱动的。许多领先的AI企业都在押注,通往更复杂的AI——甚至可能是在许多任务上表现超越人类的AI系统——的方式是让这些LLM变得更大。这需要获取更多的数据、更强的计算能力,并对模型进行更长时间的训练。OpenAI的竞争对手Anthropic的首席执行官Dario Amodei在4月初接受采访时曾表示,目前市场上的AI模型的训练成本约为1亿美元。他补充称:“目前正在训练的模型,以及将在今年晚些时候或明年年初的不同时间推出的模型,成本接近10亿美元。”“我们认为,在2025年或2026年,这类成本将向50亿或100亿美元迈进。”
芯片和计算成本
其中很大一部分成本与芯片有关。为了训练LLM,AI企业十分依赖于可以高速处理大量数据的GPU。这些芯片不仅供应短缺,而且价格极其昂贵。英伟达(NVDA.US)的H100 GPU是训练AI模型的主要工具,售价约为3万美元,一些经销商的报价甚至是这个数字的数倍。
即使价格昂贵,大型科技公司仍需要大量的GPU。Meta首席执行官扎克伯格曾表示,该公司计划在今年年底前采购35万枚H100 GPU,以支持其AI研究工作,这意味着数十亿美元的支出。
尽管企业可以在不采购芯片的情况下完成模型训练工作,但“借芯片”的成本也很高。例如,亚马逊的云计算部门以每小时约6美元的价格向客户租用由英特尔(INTC.US)芯片组成的大型处理器集群,相比之下,一组H100 GPU每小时的租用成本接近100美元。
英伟达在上个月推出了名为Blackwell的新型GPU,处理速度要比包括H100在内的Hopper系列快好几倍,但价格预计将与后者相似。英伟达表示,需要大约2000个Blackwell GPU来训练一个1.8万亿参数的AI模型,相比之下完成同样的任务需要8000个Hopper系列的GPU。然而,这种改善可能会被业界推动构建更大的AI模型的努力所抵消。
数据中心
亚马逊、微软、Alphabet旗下谷歌等云计算巨头以及Meta等大型科技公司、以及其他计算能力租赁提供商正在竞相建立新的数据中心。研究机构Dell #39;Oro Group估计,今年企业将花费2940亿美元建设和装备数据中心,高于2020年的1930亿美元。这种扩张在很大程度上与数字服务的广泛崛起有关,包括流媒体视频、企业数据的爆炸式增长等。但越来越多的支出被用于昂贵的英伟达GPU和其他支持AI热潮所需的专业硬件。
数据许可和人才
虽然采购芯片和建设数据中心占据了成本的一大部分,但一些AI企业也需要花费数百万美元获得数据许可。OpenAI已与几家欧洲出版商达成协议,将它们的新闻内容纳入ChatGPT用于训练。尽管这些交易的财务条款尚未披露,但据报道,OpenAI同意向Business Insider、Axel Springer SE等出版商支付数千万欧元,以获得其新闻文章的使用权。
虽然OpenAI在获得数据许可方面更为积极,但大型科技公司也在寻找获取语言数据的方法,以构建更出色的AI工具。据报道,谷歌与Reddit达成了一项价值6000万美元的数据授权协议。
科技公司在争夺AI人才方面也陷入了激烈的竞争。去年,奈飞曾一度登广告招聘AI产品经理一职,年薪高达90万美元。
更实惠的替代品
微软在推动围绕LLM的AI热潮方面做得比大多数公司都多。该公司最近表示,将尝试一种不同的方法。该公司表示,LLM仍是解决许多复杂任务的黄金标准,比如高级推理、数据分析和上下文理解,但对于某些客户和用例来说,较小的模型可能已经足够了。
然而,就目前而言,AI领域的传统智慧是“越大越好”,这意味着在AI方面的投资仍将是昂贵的。
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。