复制成功

分享至

主页 > 数字货币 >

重读AI大模型元年:“百模赶考,文心夺魁”

2024.02.08

文章来源:脑极体

作者:风辞远

图片来源:由无界AI生成 图片来源:由无界AI生成

把时间倒回一年之前,那时很多媒体和网友讨论,中国能做出来类ChatGPT的大模型应用吗?

当时我们就说,不用慌,不用忙,中国一定能做成大模型。转瞬间,被称为“大模型元年”的2023年即将在爆竹声中结束。中国AI大模型,举头已觉千山绿。

根据相关数据,到2023年10月中国市场已经发布了超过230个大模型。“百模赶考”实至名归。但是,大模型数量并不是做成大模型的终点,甚至不是做大模型的目的。

在今天这个阶段,我们必须回答新的问题:大模型有了,怎么才能把大模型做好,用好?怎么才能让大模型为社会经济做出巨大价值?

想回答这个问题,就必须知道大模型的“好”是什么。

评价大模型的质量好坏,不是靠参数,靠规模,而是比效率,比技术,比应用,比生态,最终比谁最好用,谁最有用。

在探讨这些问题时,我们会发现国产大模型格局的另一面:大模型虽多,但普通人知道,用到的却并不多。随便找个朋友问一问,会发现他大概率只知道一个国产大模型,那就是文心一言与其背后的文心大模型。

虽然有数量过百的大模型策马奔腾,但却是文心大模型一骑绝尘。为什么会这样?

理解这个问题,才能理解大模型的本质规律:只有厚积薄发,做深做强,才是国产大模型的未来之路。

岁末回首,重新审视“百模赶考,文心夺魁”的行业格局,能看到AGI的曙光正悄然来到这片土地上。


身位之先,大模型的效率竞赛


在AI大模型刚刚兴起之际,用户对它有好奇,行业对它有渴望,社会经济对它有广泛多元的期待。这时,谁能够率先将大模型带给用户与产业,谁就能够立下先锋之功,通过身位领先来确定自身的行业优势。

回望过去一年大模型行业的发展,会发现文心大模型每次都在扮演先锋的角色。最终将大模型技术最快交到用户、开发者以及千行百业手中。文心大模型的高效率、快节奏,以及这背后的技术领先与产品自信,是其能够保持“一骑绝尘”的首要关键。

2023年3月,百度率先发布了文心一言大语言模型。这得益于百度十余年布局和深耕深度学习技术,并进行了广泛的AI业务实践。从2019年开始,百度就深耕预模型研发,打造了文心大模型体系。厚积薄发,做足准备的文心,在开年之际就达成了一路领先。

2023年7月,在2023世界人工智能大会期间,国家人工智能标准化总体组宣布了中国首个大模型标准化专题组组长单位名单,百度担任联合组长单位。至此,文心大模型正式进入“大模型国家队”,为国产大模型标准化事业探寻航道,确立方向。

重读AI大模型元年:“百模赶考,文心夺魁”

接下来,在8月31日,文心一言正式面向全社会开放,成为中国公众能够最早体验到的大语言模型,真正将大模型能力带到千家万户,寻常巷陌。

2013年12月,中国首个官方“大模型标准符合性评测”结果出炉。文心一言成为首批通过评测,符合《人工智能大规模预训练模型 第2部分:评测指标与方法》语言大模型的相关技术要求,通用性、智能性等维度全面达到国家相关标准。

最先推出,最新开放,最先符合国家标准,“先”已经成为文心大模型的关键词。深耕AI核心技术,打造AI生态,带来的是厚积薄发下的高效率与快节奏。

文心之先,一骑绝尘,可以为整个AI行业所借鉴。


技术做厚,大模型的技术差异化积累

在我们讨论AI大模型数量过多,行业饱和的问题时,经常会注意到一个现象:数百个大模型问世,但我们却很难找到这些大模型之间的技术差异化有哪些?更遑论体会到技术差异带来了应用差异。

这个现象出现的原因,在于大模型盲目追求数据量与模型参数,忽视了核心技术的研发与积累。文心大模型之所以反响好,用户认同高,就在于它选择了最厚重,最扎实的技术研发之路。每一代文心大模型升级,都建立在新技术能力的研发与运用基础上。这就导致文心越升级,与其他大模型的技术能力差距就越大。技术的滚雪球现象开始显现,最终形成了文心大模型在技术方面“人无我有,人有我优”的战略优势。堆山百仞,起于垒土。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

加⼊OKEx全球社群

和全球数字资产投资者交流讨论

扫码加入OKEx社群

相关推荐

industry-frontier