Solana 联合创始人对 Meme 币
上山下海的数据中心,背得动AI能耗的锅吗?
文章来源:产业象限编辑部 产业象限
作者丨山茶
编辑丨钱江
能源焦虑似乎是一个永恒的话题,从蒸汽机到内燃机,从煤炭到石油,世界的发展总是围绕着能源打转,到了AI时代,这一点也未曾改变。 OpenAI CEO Sam Altman在多个场合提到,未来的人工智能需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。
马斯克也曾预言,未来两年内将由“缺硅”变为“缺电”。 数据显示,ChatGPT每天要响应大约2亿个请求,这个过程会消耗超过50万度电力。预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力,约等于北京市2023年全年的耗电总量(135.78太瓦时)。
图片|谷歌芬兰哈米纳数据中心,图源Google官网
巨大的能源消耗主要产生在两个方面,其一是驱动AI服务器计算、存储消耗的能源,其二则是为AI服务器降温消耗的能源,这里面前者占60%,后者占40%。
不过,虽然前者占比更高,但由于AI的发展对算力的需求越来越大,所以即便AI芯片的能效一直在提高,但还是无法改变整体功耗持续上涨的趋势。因此,如何降低服务器冷却时消耗的能源,就成为了降低AI运营成本、减少能源消耗的关键。
而为此,大到Google、微软这样的科技巨头,小到服务器研发供应商,尖端前沿如SpaceX也都在为此绞尽脑汁。
进阶的服务器
从风冷到液冷
虽然大模型的风是从2023年才刮起来的,但服务器冷却并不是什么新课题。
1945年,世界上第一台通用计算机ENIAC诞生。为了解决ENIAC耗电量巨大且发热高的问题,当时的工程师就采用了风扇来为ENIAC降温,这差不多是最早的服务器制冷技术。
但风扇制冷的效果毕竟有限,而当时的计算机又都是大块头,且耗电量巨大。比如ENIAC重量大约在30吨左右,占地面积170平方米,功耗达到每小时150~174千瓦。
面对这样的庞然大物,仅靠风扇的制冷就有些力不从心了。所以到1951年,当美国雷明顿兰德公司推出第一款商用计算机UNIVAC I时,就已经用上了空调制冷。
空调最早发明在1902年,最初是为了给印刷厂保持恒温,后来陆续走入家庭,大约1920年的时候就已经在美国被广泛使用了。所以在1951年UNIVAC I面世时,空调系统已经异常成熟,当时雷明顿兰德公司就专门为UNIVAC I设计了一套中央空调制冷系统。
从此之后,空调制冷就逐渐成为大型计算机,以及后来的服务器机房最主要的制冷方式,并持续了将近一百年的时间,直到后来液冷技术登上舞台。
和空调制冷一样,液冷技术最早也不是应用在服务器场景的,而是应用在机械加工、电力变压器,或者航空航天等领域。其在服务器领域的应用,也不过是最近二十多年的事情。
这是因为全球互联网的浪潮一直到1994年前后才出现第一次爆发。从这之后,互联网公司为了提供高效的服务,大规模存储数据,才开始大规模建设和使用数据中心。
也因此,由于大量计算需求带来的芯片功耗提高,服务器密度增加等原因,传统的空调制冷设备就显得有些力有不逮,并开始限制芯片性能的提高。
苹果、惠普和戴尔供应商Liteon的副总裁Simon Ong表示:“我们发现采用风冷方式的芯片只能达到其性能的60%,并且会存在一定的过热问题,而液冷解决方案可以继续将计算性能提升至最优化。”
3月1日,在斯坦福大学举行的2024年SIEPR经济峰会上,黄仁勋表示,英伟达的下一代DGX AI服务器将采用液冷技术。
根据艾邦储能网统计,单个DGX p00系统消耗的功率大约为10kW,液冷可提高整体能效20-40%,1万个DGX系统能节省20-40兆瓦的功耗,按0.10美元/千瓦时计算,相当于每年节约2000-4000万美元能源成本。