复制成功

分享至

主页 > 比特币 >

市值=2个茅台=5个英特尔,ChatGPT浪潮下英伟达“赢麻了”

2023.03.22

来源:钛媒体App,作者|林志佳

随着 AI 聊天机器模型ChatGPT全球爆火,其背后核心的 AI 算力“大脑”、全球第五大科技股英伟达(NASDAQ: NVDA)开始展示成为 AI 领域核“芯”的基础设施技术能力。

北京时间3月21日晚GTC开发者大会上,黄仁勋在76分钟内发布英伟达最新芯片、超算服务与合作,其中有一半以上跟ChatGPT和生成式 AI 有关。

具体包括,搭载8个A100 GPU层的 AI 超算云服务DGX Cloud,每月3.7万美元在互联网上训练ChatGPT;目前云上唯一处理ChatGPT的GPU HGX A100,计算效率比前代提高超10倍;芯片计算光刻软件库cuLitho,让ASML光刻计算提速40倍;首个GPU加速的量子计算系统Quantum Machines;以及与比亚迪开发软件定义汽车方案、与亚马逊AWS合作开发训练大模型和构建生成性 AI 应用等。

“我现在正在看着你们所有人。很高兴见到你们所有人,看起来棒极了,”北京时间3月22日早上8点左右,60岁的黄仁勋精神抖擞地站在显示器前面,通过线上会议方式悉数解答亚太媒体对于英伟达的疑问和困惑,“我凌晨 4:00 起床,所以如果你不累,我也不累”。这是过去三年疫情下,中国媒体与远在美国的黄仁勋讨论英伟达的最佳时机。

“老黄是个狠人”,这是钛媒体App听到接近黄仁勋人士对其最直接的评价,因为很多英伟达合作事务都是黄仁勋亲力亲为。他笑着说没有很快退休的计划,而是希望再领导英伟达30到40年,直到90岁左右,届时会以机器人的形式继续工作。

过去近30年,在黄仁勋带领下,英伟达从一家以设计和销售GPU(图形处理器)芯片的半导体公司,如今已经成长为人工智能(AI)加速算力软硬件一体方案的技术公司。

“加速计算并非易事。2012年,计算机视觉模型AlexNet动用了英伟达GeForce GTX 580,每秒可处理262 PetaFLOPS。该模型引发了AI技术的爆炸,”黄仁勋说道,“十年之后,Transformer出现了,GPT-3动用了323 ZettaFLOPS算力,是AlexNet的 100 万倍,创造了ChatGPT这个震惊全世界的 AI。”

“AI 的 iPhone 时刻已经来临。”黄仁勋最近反复在提这句话,他认为生成式 AI 将重塑几乎所有行业——由于ChatGPT模型背后算力成本超过400万美元,在这场大模型军备竞赛中,手握A100和p00的“军火商”英伟达,或已成最大赢家。据花旗预估,ChatGPT或将促使英伟达一年内销售额增长100亿美元。

AI 的算力繁荣,推动英伟达股价在2023年上涨了77%,黄仁勋的财富同期增长超过60亿美元。

目前,英伟达市值为6471亿美元(约合人民币4.45万亿元),已是英特尔市值的近五倍,同时是A股第一股贵州茅台(600519.SH)的两倍以上,而且比特斯拉市值还高220亿美元(约合1514亿元)。

不过今天发布会表明,英伟达的脚步还没有停,其正在向 AI 超算云与基础设施的定位进发。


英伟达市值狂飙的底气在哪?


“I AM AI,”这是每年 GTC 大会宣传片中反复提及的关键词。如果你细品这句话,可以明显感知英伟达不止是芯片设计公司,而是 AI 技术基础设施。

英伟达是地球上最昂贵的科技股之一,公认会计原则下市盈率139倍,账面价值27倍。钛媒体App梳理数据发现,过去一年内,英伟达收入增长率为0.22%,收益增长率为-54%,而且最近两个季度营收出现下降,预计今年第一季度营收也会同比下降——这与其股价暴增趋势并不相符。

那么,为什么英伟达这样一家昂贵的公司,还会被市场看好?

就目前来看,英伟达很主要、明显的机会因素是 AI 算力需求增长,以及其长期稳定的 AI 加速芯片市场竞争与部分垄断地位。

此次GTC大会能窥豹一斑。今年,黄仁勋GTC开幕演讲主要谈四类新品:ChatGPT专用GPU、给台积电核弹的计算光刻数据库、为 AIGC 设计专用算力的系统方案、首个 GPU 加速的量子计算系统。

自从ChatGPT推出并在60天实现超过 1 亿月活用户以来,从创业者到投资人,从大学教授到科技部部长,都在讨论这个产品。在这其中,作为 AI 服务器芯片销售方,英伟达“赢麻了”,其在 AI 数据中心GPU领域几乎没有竞争,控制着90%的市场。据Similarweb数据,ChatGPT可能需要602台DGX A100服务器能够满足当前的访问量。

但问题在于,创造ChatGPT的美国 OpenAI 公司,开发的GPT-3模型参数量高达1750亿,其需要的瞬时算力很高,如何解决算力贵、算力难的困境呢?

如今,英伟达希望降低算力成本,更简单易用的使用NVIDIA AI, 推出了专注于ChatGPT的 AI/GPU 训练和推理两类新的芯片方案:

  • 训练方面:英伟达p00 GPU基于Hopper架构及其内置Transformer Engine,针对生成式AI、大型语言模型和推荐系统的开发、训练和部署进行了优化,在大型语言模型上比前代A100提供了快 9 倍的AI训练、快30倍的AI推理。组装后的NVIDIA DGX p00 AI超级计算机拥有8个p00 GPU模组,可提供32PetaFLOPS的算力,已全面投入生产,微软已经宣布Azure云将向其p00 AI超级计算机开放私人预览版。
  • 推理方面,英伟达推出全新GPU推理平台:四种配置(L4 Tensor Core GPU、L40 GPU、p00 NVL GPU、Grace Hopper超级芯片)、一个体系架构、一个软件栈,分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。其中,L4可提供比CPU高120倍的AI视频性能,能效提高99%;L40推理性能是英伟达最受欢迎的云推理GPU T4的10倍;Grace Hopper超级芯片适用于推荐系统和大型语言模型的AI数据库。
  • 免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

    加⼊OKEx全球社群

    和全球数字资产投资者交流讨论

    扫码加入OKEx社群

    相关推荐

    industry-frontier