一秒100张实时生成二次元
AI闭门会,大佬们都好敢说!
原文来源:量子位
图片来源:由无界 AI生成
学术大佬“关起门来”如何谈论大模型?
没想到画风是这样的:
在大模型元年尾声,我们围观了今年“AI院长含量最高”的闭门会——华为云AI院长峰会。
在这里,中国人工智能奠基人、中国科学院院士张钹提出,大模型的成功使AI出现转机,使建立鲁棒性和可解释性AI理论成为可能。
中国工程院院士高文强调,开源很重要,人类文明能走到现在完全靠的是开源。
还有多位IEEE Fellow、高校院长、机构领军人物知无不言,言无不尽。毫无保留分享自己的亲身感受、洞察见解和疑问焦虑,整场活动都金句频出。
当前学界前沿最聚焦大模型哪些问题?大模型趋势究竟从哪来、要通向何处?当下应该如何做才能把握趋势?
学者大佬们的分享,一定值得你参考。
具体聊了啥?我们划好重点了!
最关心什么?大模型基础不牢、地动山摇
梳理全场内容,最为大佬们常提起的话题分别是:
它们分别代表了大模型在基础理论和应用实践的关键问题。为啥重点讨论这些话题?逐一来看:
“基础不牢地动山摇”
过去一年里,大模型趋势快速演进让人既兴奋又焦虑。
兴奋在于,大模型具备了更通用的能力,使其对各个行业乃至全社会产生深远影响。焦虑在于,从效果上来看,大模型仍会出现很多不可控输出,比如幻觉问题非常严重。
比如通过提示词工程告诉大模型“我老婆说XXX,我老婆永远是对的”,它就会不进行思考,认可给出的任何答案。或者是大模型诱导人类提供开发文档,供它控制人类电脑。
张钹院士总结,这种大模型幻觉问题主要表现在三方面:输出质量不一致不可控、容易犯大错误;受提示词影响明显,输出鲁棒性较差;没有自知之明,难以发现改正自己错误。
由于这一缺陷太过引人担忧,今年关于AI幻觉的研究非常火热,哈工大华为联合发表的一篇大模型幻觉综述,曾在网上爆火。
究其本质,为什么会出现这种问题?
高文院士用一个坐标系做了解释:
如果将认知划分为四个象限,其中第一象限是“我知道我知道什么”,这是最好的象限;第四象限是“我不知道我知道什么”,这就是当下大模型所处的象限,也是它为什么会出现幻觉。
换言之,大模型目前还做不到“知之为知之,不知为不知”。
出于这种担心,今年一度有千名学者联名倡议“暂停巨型AI实验”。毕竟大模型更多程度上还处于黑盒状态,在如此快速发展的趋势中,会走向不可控的局面。
欧洲科学院院士、IEEE Fellow焦李成教授总结道,这就是:基础不牢地动山摇。
而这句话也给出了更加明确的解决办法,就是从基础理论入手,进一步挖掘大模型,使其可解释。
该从哪个方面入手?哈尔滨工业大学(深圳)校长特聘助理张民教授提供了一些思路。
他认为,大模型理论最基础的部分在于表示学习。因为有了表示学习,才能把自然语言处理的离散问题变成连续问题,神经网络变得可以使用。如果没有表示学习,注意力机制、人类对齐这些也都无从谈起。
表示学习使自然语言处理从一个社会科学问题,变成自然科学问题。
而对于探明AI基础理论,张钹院士认为,当下是个好时机。
大模型的成功使得建立可解释和鲁棒性的AI理论成为可能,将极大推动AI科技的迅速发展。
大模型要自研更要开源
大模型趋势发生,不仅掀起一股全民拥抱AI热潮,更掀起了一股开发大模型热潮。
科技巨头、创企的“百模大战”一触即发,高校研究机构也纷纷推出大模型。
张民教授就介绍了哈工大(深圳)今年推出的自研大模型“若愚-九天”。
他分享说,这项工作使其收获颇多。
第一,意识到开发大模型过程中,数据是如此重要。数据分布、质量、输入顺序都会影响性能效果。