复制成功

分享至

主页 > 数字货币 >

AI 新智界丨每日必读:英伟达 B100 AI 芯片将于明年推出;阿里巴巴智能信息事业群发布夸克大模型

2023.11.14

摘要:阿里巴巴智能信息事业群正式发布全栈自研、千亿级参数夸克大模型,将应用于通用搜索、医疗健康、教育学习、职场办公等场景。英伟达日前透露,2024 年推出的 Blackwell 架构 B100 GPU,在 GPT-3 175B 推理性能标竿方面击败 A100、p00 及 p00,其 AI 表现性能将是 Hopper 架构 p00 GPU 两倍以上。

AI 新智界丨每日必读:英伟达 B100 AI 芯片将于明年推出;阿里巴巴智能信息事业群发布夸克大模型

图片来源:由无界 AI生成


热点资讯:


英伟达:B100 将于明年推出,AI 表现性能是 p00 两倍以上

据《科创板日报》11 月 14 日报道,英伟达日前透露,2024 年推出的 Blackwell 架构 B100 GPU,在 GPT-3 175B 推理性能标竿方面击败 A100、p00 及 p00,其 AI 表现性能将是 Hopper 架构 p00 GPU 两倍以上。市场预计,英伟达将委托台积电以 3nm 制程代工 Blackwell GPU,英伟达计划将生产时间点提前至 2024 年 Q2。Blackwell GPU 将是英伟达第一款运用 chiplet 设计的 HPC/AI 加速器。

阿里巴巴智能信息事业群发布千亿级参数夸克大模型

据财联社 11 月 14 日报道,阿里巴巴智能信息事业群正式发布全栈自研、千亿级参数夸克大模型,将应用于通用搜索、医疗健康、教育学习、职场办公等场景,夸克 App 亦将借助这一大模型全面升级。

OpenAI CEO:下一代 AI 模型 GPT-5 已在训练中,需要更多数据

据 AI 新智能 11 月 14 日报道,OpenAI CEO Sam Altman 近期在接受 FT 采访时,透露了 OpenAI 更多下一步的规划。Altman 表示,公司正在开发下一代 AI 模型 GPT-5。但他没有承诺发布时间表。Altman 称这将需要更多数据来训练,数据将来自互联网上公开可用的数据集以及公司的专有数据。OpenAI 最近发出了征集大规模数据集的呼吁,特别是那些“今天在互联网上尚未公开轻松获取”的数据集,尤其是长篇写作或任何格式的对话。

Altman 还表示,为了训练其模型,OpenAI 和大多数其他大型 AI 公司一样使用 Nvidia 的高级 p00 芯片。他提到,由于 Nvidia 的芯片供应短缺,今年一直存在“严重的紧张局势”。然而,随着谷歌、微软、AMD 和英特尔等其他公司准备发布竞争对手的 AI 芯片,对 Nvidia 的依赖可能不会持续太久。

此外,尽管 OpenAI 取得了消费者成功,但 Altman 表示,公司寻求向构建人工通用智能方向取得进展。他认为,大型语言模型(LLM),即支撑 ChatGPT 的模型,是“构建 AGI 的核心部分之一,但在其上还会有很多其他部分”。他还强调了语言作为信息压缩的重要性,这是他认为像谷歌 DeepMind 这样的公司忽视的一个因素。

谷歌联合 UC 伯克利推出全新生成式 AI 方法“幂等生成网络”,可单步生成逼真图像

据 IT 之家 11 月 14 日报道,谷歌近日携手加州大学伯克利分校(UC Berkeley),研发出了可取代扩散模型(Diffusion Models)的全新生成式 AI 方法“幂等生成网络(IGN)”。

包括生成对抗网络(GAN)、扩散模型(Diffusion Models)和今年 3 月 OpenAI 发布的一致性模型(Consistency Models)在内,当前主流生成式 AI 模型都是随机噪点、草图或者低分辨率或其他损坏的图像等输入,映射到与给定目标数据分布相对应的输出(通常是自然图像)来生成图像。以扩散模型为例,在训练期间学习目标数据分布,然后通过多个步骤执行“去噪”处理。

谷歌研究团队提出了名为幂等生成网络(IGN)的全新生成模型,从任何形式的输入中生成合适的图像,理想情况下只需一步即可完成。该模型可以想象为一种“全局投影仪”,将任何输入数据投射到目标数据分布上,和现有其它模型算法不同,不会限于特定的输入。

李开复旗下 AI 公司“零一万物”开源 Yi 大模型被指抄袭 LLaMA

据 IT 之家 11 月 14 日消息,创新工场董事长兼 CEO 李开复于今年创办了 AI 大模型创业公司“零一万物”,该公司已推出 Yi-34 B 和 Yi-6 B 两个开源大模型,号称对学术研究完全开放,同步开放免费商用申请。然而在 Yi-34 B 的 Hugging Face 开源主页上,开发者 ehartford 质疑称该模型使用了 Meta LLaMA 的架构,只对两个张量(Tensor)名称进行了修改,分别为 input_layernorm 和 post_attention_layernorm。

此外,网上今日流传着一张原阿里首席 AI 科学家贾扬清的朋友圈,该内容称“某国内大厂新模型 exactly 就是 LLaMA 的架构,但是为了表示不一样,把代码里面的名学从 LLaMA 改成了他们的名字,然后换了几个变量名”。

零一万物回应争议:研发的大模型基于 GPT 成熟结构,对模型和训练的理解做了大量工作

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

加⼊OKEx全球社群

和全球数字资产投资者交流讨论

扫码加入OKEx社群

相关推荐

industry-frontier