复制成功

分享至

主页 > 数字货币 >

阿里云大模型降价不是短期竞争行为,而是长期战略选择

2024.05.22

文章来源:硅基立场

作者|周一笑


图片来源:由无界AI生成 图片来源:由无界AI生成


今天,国内大模型圈十分热闹,先是阿里云宣布大模型降价,随后国内多家公司跟进、回应,掀起一轮行业的降价潮。

但与国内其它厂商仅下调轻量级模型价格的策略不同,阿里这次一共有9款模型降价,其中性能对标GPT-4的主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。1块钱可以买200万tokens,相当于5本《新华字典》的文字量。

Qwen-Long实力究竟如何?根据官方的信息显示,其不仅性能达到GPT-4级别,还支持最长1000万tokens的超长上下文对话,可轻松处理约1500万字或1.5万页文档,是同级别模型之最。


图片来源:由无界AI生成 图片来源:由无界AI生成


近期,OpenAI的GPT-4o和谷歌的Gemini 1.5 Pro也下调了API价格。不过从性价比上来说阿里云的主力模型仍然具有优势,这次降价也显得诚意十足。

对于云计算厂商来说,没有产品力的降价是没有意义的,大模型基础能力的领先是通义千问降价的底气。自从去年8月宣布“全模态、全尺寸”开源路线以来,通义千问的技术实力已经获得了国际认可。通义千问已被多个国际权威榜单和测试基准认可,还是基于人类偏好评估大模型的开放平台Chatbot Arena中首个上榜并持续在榜的中国大模型,与GPT-4Turbo、Gemini-1.5-Pro等模型处于同一梯队。通义千问从5亿到1100亿参数的全模态、全尺寸的系列模型,也能够满足企业和开发者不同场景下的需求。

可以说阿里云的这次降价真正做到了便宜、量大、又能打。

今年年初,在和比尔·盖茨的播客节目中表示,大模型技术正处于陡峭的成长曲线上,成本也在飞快地下降,大模型门槛的降低是趋势所在。

GPT-4o发布之后,Sam Altman久违的发布了一篇个人博客,宣布了团队的阶段性目标更新:“用最低的价格甚至是免费,将最好的模型提供给世界上所有人”。这句话是代表OpenAI说的,其实也可以认为是代表微软说的。

因为“摩尔定律适用于大模型行业”不会自然发生,更不是单一一家公司能做到的,这需要硬件厂商、大模型厂商和云计算厂商之间的共同努力。如果把大模型行业比作一个庞大的工厂,那么云计算厂商就像是提供电力的公司。没有电力,工厂的机器就无法运转。

同样,没有云计算厂商提供的计算能力和存储资源,大模型的训练和推理就很难进行。没有云计算厂商提供弹性、可扩展、高效的云服务,原生AI应用普及的难度也会大大提高。

价格的降低背后则是大模型结构、训练、推理等成本的持续优化。对于阿里云这样的云厂商来说,能够把API的价格逐步降低,本质上是云计算规模游戏的必然结果。

技术进步带来的性能提升和效率增加,使得云平台能够以较低的成本提供更强大的计算服务。这一点对于大模型领域也不例外。

尤其是考虑到,GPU短缺导致算力的紧缺,如何高效利用算力,公共云服务是一种最直接、便捷的方式。

技术升级带来的是直接成本降低,而规模扩大带来的间接成本分摊。无论是大模型的训练、推理还是AI原生应用开发,阿里云提供的云计算网络和资源池,都随着客户增多,降低了供应链采购成本、研发成本分摊和资源闲置成本,从而提高了整体的成本效益。

以千问72B开源模型为例,根据阿里云的测算,如果每个月1亿token的使用量为例,在阿里云百炼上的调用成本是每月600元人民币,而如果做私有化部署,即使减去成本分摊,每个月成本也需要1万元。

具体来看,阿里云主要从模型和AI基础设施两个层面降低推理成本和性能。阿里云基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建了极致弹性的AI算力调度系统,结合百炼分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。

从阿里云的战略来看,这次大模型的降价实际上可以理解为阿里云公共云降价策略的一种延续。在过去两年,阿里云率先进行了几次大规模降价,一方面进一步提升了国内公共云市场渗透率,另一方面,也带来了新的营收增长空间。更重要的是,阿里云在降价的同时,继续保持着盈利。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

加⼊OKEx全球社群

和全球数字资产投资者交流讨论

扫码加入OKEx社群

相关推荐

industry-frontier