一文读懂Runes协议如何运作
帮一百个国家建立模型——Stability.AI争议CEO的野望
来源:Empower Labs
3月23日,饱受争议的Stability AI CEO Emad Mostaque 宣布辞职,未来将全身心投入去中心化AI事业。这一消息引起了市场上不小的震动。
Stability AI一方面曾独自扛起开源AI的旗帜,为开源AI做出了重要的贡献;另一方面又不断被指责将其他研究团队的成果揽在自己头上。而CEO Emad虚假学历的曝光和在社交媒体上频繁的大话令其声誉进一步受损。曾经拥有闪耀的投资人支持和巨额融资,Stability.AI却早已深陷财务困境,命悬一线。
辞职后,Emad透露自己仍持有Stability.AI的大部分股份,足以控制董事会。他不是被迫辞职,而是认为在AI领域,权力的高度集中对每个人都是有害的,因此选择辞职以促进Stability.AI的改变。由于Emad有着不光彩的吹牛史,大多数人都认为事情并不仅如此简单。不过比起Stability.AI,我更想探讨Emad将要投身的去中心化AI。
几周前,我与Emad一同参与了一场围绕去中心化AI的讨论。之后我又整理了他过去关于这一议题的诸多发言,粗略的梳理出了他的视角。
谁控制了模型,谁就控制了思想
如果人类的行动是由操作系统驱动,AI正快速成为这个操作系统的外部核心组件。因为人类已经逐渐适应将思考负担外包给AI,这个技术构成了我们思考方式的一部分。然而AI所带来的便利和赋能,也伴随着显著的风险——谁控制了AI模型,谁就一定程度上控制了这个世界的思想。
如果大众对这些智能工具的工作原理和默认设置缺乏认识,我们的决策和观点可能会悄无声息地受到影响。AI模型的控制者可以通过设定特定默认选项,潜移默化地引导人们的选择、观点及行为。AI作为下一个时代的基础设施,如果只被少数商业团体所控制,后果可能是灾难性的。这就是Emad所强调的,去中心化AI的重要性和迫切性所在。
每个国家都需要有自己的模型
当OpenAI投入巨大的精力在超级对齐(Super Alignment)项目时,谁来负责OpenAI本身和全世界每个国家,每个行业,每种文化的对齐?
没有人。
OpenAI的Super Alignment在基础安全和人类共同的伦理道德方面做出了很大的努力,但面对不同国家和文化的多样性,这样的努力是否足够? 不同民族和文化往往有着与硅谷精英迥异的价值观,而这些多元价值观能否公平地反映到AI模型中?当像肯尼亚这样的国家,他们的下一代学生开始大规模使用硅谷AI学习时,他们独特的国家文化特色是否会逐渐消失?
答案很不乐观。因此Emad认为每个国家、每个行业、每种文化,都应该拥有代表自己特色的AI模型。这些模型应该深深扎根于当地,充分吸收和体现这个国家、行业和文化的集体智慧。这个概念大家应该也不陌生,因为两个月前英伟达也在各种场合讲了主权AI的概念,本质上是一个东西。不过Emad早在一两年前就开始在各种场合来讲这个事,还是比英伟达早了很多。
这个世界上的绝大部分国家根本没有能力创建自己的AI模型,而这恰恰就是Emad瞄准的市场。他希望通过创建一个底层堆栈来支持每个国家、民族、行业创建的AI模型。而在堆栈上,则希望用去中心化集体协作的方式来实现模型的发展。
Emad曾表示可能会启动/孵化一系列的公司,每个公司会有不同的专业人才聚焦在不同的关键领域,如教育,医疗,金融,当然也包括针对不同国家的AI模型。而作为去中心化AI的实践,这些公司更多扮演的是启动器的角色。通过提供基础模型、标准化的框架,来引入社区人才参与贡献。如果能吸引到一个国家的大量优秀人才来参与贡献,这些集体智慧最终会汇聚为一个优秀的国家模型。
核心是数据
用一个简单的比喻,AI模型的配方就是算法和数据,然后用一些算力把它们搅拌在一起,数据越多,需要搅动这些数据的算力越大。目前市场上的绝大部分团队都在追求更好的模型算法,拿到更多的数据,然后配以更大的算力。但实践已经证明,如果数据质量高,用更少的数据量同样能取得优秀的效果。换句话说,人们在通过堆算力给低质量数据擦屁股。
这构成了Emad推崇的去中心化AI体系的一个优点。他相信,如果能建立一个结构来引导一个国家的优秀人才共同参与,就能集结出高质量的国家数据集,同时这些数据可以做到可验证、所有权清晰,并可以由此设计围绕数据的激励模式。
通过这种方式,我们能收集到过去根本接触不到的数据。这些数据不仅质量更高,能更真实和公正地代表大众的声音和需求。
小模型集群 vs 单一大模型
在AI领域,Scaling laws 几乎成了一条铁律,无论我们是否选择追求它,都无法回避它。