英伟达独霸时代结束?C
英伟达独霸时代结束?ChatGPT引爆谷歌微软芯片大战,亚马逊也入局
来源:新智元
ChatGPT爆火之后,谷歌和微软两巨头的AI大战战火,已经烧到了新的领域——服务器芯片。
如今,AI和云计算都成了必争之地,而芯片,也成为降低成本、赢得商业客户的关键。
原本,亚马逊、微软、谷歌这类大厂,都是以软件而闻名的,而现在,它们纷纷斥资数十亿美元,用于芯片开发和生产。
各大科技巨头研发的AI芯片
ChatGPT爆火,大厂开启芯片争霸赛
根据外媒The Information的报道以及其他来源,这三家大厂现在已经推出或计划发布8款服务器和AI芯片,用于内部产品开发、云服务器租赁或者二者兼有。
「如果你能制造出针对AI进行优化的硅,那前方等待你的将是巨大的胜利」,研究公司Forrester的董事Glenn O’Donnell这样说。
付出这些巨大的努力,一定会得到回报吗?
答案是,并不一定。
英特尔、AMD和英伟达可以从规模经济中获益,但对大型科技公司来说,情况远非如此。
它们还面临着许多棘手的挑战,比如需要聘请芯片设计师,还要说服开发者使用他们定制的芯片构建应用程序。
不过,大厂们已经在这一领域取得了令人瞩目的进步。
根据公布的性能数据,亚马逊的Graviton服务器芯片,以及亚马逊和谷歌发布的AI专用芯片,在性能上已经可以和传统的芯片厂商相媲美。
亚马逊、微软和谷歌为其数据中心开发的芯片,主要有这两种:标准计算芯片和用于训练和运行机器学习模型的专用芯片。正是后者,为ChatGPT之类的大语言模型提供了动力。
此前,苹果成功地为iPhone,iPad和Mac开发了芯片,改善了一些AI任务的处理。这些大厂,或许正是跟苹果学来的灵感。
在三家大厂中,亚马逊是唯一一家在服务器中提供两种芯片的云服务商,2015年收购的以色列芯片设计商Annapurna Labs,为这些工作奠定了基础。
谷歌在2015年推出了一款用于AI工作负载的芯片,并正在开发一款标准服务器芯片,以提高谷歌云的服务器性能。
相比之下,微软的芯片研发开始得较晚,是在2019年启动的,而最近,微软更加快了推出专为LLM设计的AI芯片的时间轴。
而ChatGPT的爆火,点燃了全世界用户对于AI的兴奋。这更促进了三家大厂的战略转型。
ChatGPT运行在微软的Azure云上,使用了上万块英伟达A100。无论是ChatGPT,还是其他整合进Bing和各种程序的OpenAI软件,都需要如此多的算力,以至于微软已经为开发AI的内部团队分配了服务器硬件。
在亚马逊,首席财务官Brian Olsavsky在上周的财报电话会议上告诉投资者,亚马逊计划将支出从零售业务转移到AWS,部分原因是投资于支持ChatGPT所需的基础设施。
在谷歌,负责制造张量处理单元的工程团队已经转移到谷歌云。据悉,云组织现在可以为TPU和在其上运行的软件制定路线图,希望让云客户租用更多TPU驱动的服务器。
谷歌:为AI特调的TPU V4
早在2020年,谷歌就在自家的数据中心上部署了当时最强的AI芯片——TPU v4。
不过直到今年的4月4日,谷歌才首次公布了这台AI超算的技术细节。
相比于TPU v3,TPU v4的性能要高出2.1倍,而在整合4096个芯片之后,超算的性能更是提升了10倍。
同时,谷歌还声称,自家芯片要比英伟达A100更快、更节能。对于规模相当的系统,TPU v4可以提供比英伟达A100强1.7倍的性能,同时在能效上也能提高1.9倍。
对于相似规模的系统,TPU v4在BERT上比A100快1.15倍,比IPU快大约4.3倍。对于ResNet,TPU v4分别快1.67倍和大约4.5倍。