浅谈Aave v4新功能:每个大
一个大模型训练成本要上亿美元,为何开发AI如此烧钱?
文章来源:腾讯科技
AI成本上升主要源于两个关键因素:AI模型规模扩大导致开发成本攀升,需要建设更多数据中心支持更多AI服务。
据国外媒体报道,在生成式人工智能热潮持续近18个月后,一些科技巨头正在逐步证实,人工智能确实具备成为真正的收入驱动因素的潜力。然而,这一进程也伴随着巨大的资金投入。
微软和谷歌母公司Alphabet最新公布的季度财报均显示,由于企业客户在人工智能服务上的投入增加,其云计算业务实现了显著的收入增长。尽管Meta在将人工智能技术转化为收益方面稍显滞后,但它表示,其相关努力对提高用户参与度和广告定位有积极影响。
为了获取这些早期收益,这三家科技巨头已经投入了数十亿美元用于人工智能的研发,并计划继续加大投资力度。
微软在4月25日宣布,最近一个季度资本支出高达140亿美元,并预计这些成本还将“大幅增加”,部分原因即是对人工智能基础设施的投资。这一数字比去年同期增长了79%。
Alphabet表示,该公司上个季度的资本支出为120亿美元,同比增长91%,并预计今年剩余时间的支出将“达到或超过”这一水平,因为该公司正专注于人工智能带来的机会。
与此同时,Meta也提高了今年的投资预期,现在预计资本支出将在350亿至400亿美元之间。若以该区间的上限计算,将同比增长42%。Meta还特别指出,其在人工智能研究和产品开发方面进行了积极投资。
人工智能成本上升让许多投资者感到意外。尤其是Meta的股价,在支出预测增加和销售增长低于预期的双重打击下大幅下跌。但在科技行业内,人工智能成本上升的预期一直存在。这主要源于两个关键因素:人工智能模型规模的不断扩大,导致开发成本日益攀升;同时,全球对人工智能服务的需求不断增长,需要建设更多的数据中心来支持这一需求。
正在试验这些人工智能服务的企业可以选择支付定制费用给OpenAI或谷歌等公司。然而,一旦这些系统启动并运行,每次用户使用聊天机器人或要求人工智能服务分析销售数据时,都会增加额外的成本。但更为昂贵的工作是为这些人工智能系统建立坚实的基础设施。这些努力正是这些科技巨头当前和未来投资的重点。
大语言模型变得越来越大
如今,备受瞩目的人工智能产品,如OpenAI的ChatGPT,其核心驱动均源自大语言模型。这些系统通过摄入海量的数据,涵盖书籍、文章以及在线评论等,旨在为用户提供最精准的查询回应。许多业界领先的人工智能公司坚信,通往更高级别人工智能(甚至可能是在多个任务上超越人类的人工智能系统)的必经之路,就是不断扩大这些大语言模型的规模。
为此,需要持续获取更多的数据、更为强大的算力支持,以及对人工智能系统进行更长时间的训练。在4月初的一次播客采访中,OpenAI的竞争对手Anthropic的首席执行官达里奥·阿莫代伊(Dario Amodei)指出,当前市场上人工智能模型的培训成本已高达约1亿美元。
他进一步表示:“目前正在训练的模型,以及预计在今年晚些时候或明年年初不同时间推出的模型,其成本已接近10亿美元。而在我看来,到了2025年和2026年,这一成本将飙升至50亿或100亿美元。”
芯片和计算成本激增
在开发人工智能技术的过程中,芯片成本占据了很大比重。这些芯片并非传统意义上让英特尔声名远扬的中央处理器(CPU),也非驱动数十亿智能手机的小型化移动芯片。为了满足大语言模型的训练需求,人工智能公司高度依赖图形处理单元(GPU),它们以惊人的速度处理着庞大的数据集。然而,这些芯片不仅面临供应短缺的困境,其价格更是高昂至极,最尖端的芯片主要由英伟达制造。
英伟达的p00图形芯片,作为训练人工智能模型的黄金标准,其预估售价高达3万美元,但市场上一些经销商的报价更是成倍增长。大型科技公司对这类芯片的需求巨大。此前,Meta的首席执行官马克·扎克伯格(Mark Zuckerberg)曾公开表示,该公司计划在年底前采购35万枚p00芯片,以支持其人工智能研究工作的推进。即便考虑到大宗购买的优惠,这也将是一笔庞大的开支,数额高达数十亿美元。