美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练

报道介绍美团已开放邀测其新一代基础大模型 LongCat-2.0-Preview,参数规模突破万亿级,采用混合专家(MoE)架构,能力被业内认为可对标 GPT-4。知情人士称该模型完全在国产算力集群上训练,显示美团在使用国产算力训练万亿级模型方面可能取得先导性进展。文章还回顾了美团此前在大模型与算力投入上的战略(王兴披露的 GPU 储备)及其此前开源的 LongCat-Flash(5600 亿参数)等一系列基于 MoE 的模型与优化创新。

4 月 24 日消息,据《科创板日报》今日报道,美团新一代基础大模型 LongCat-2.0-Preview 已经开放邀请测试,该模型总参数规模突破万亿,量级跻身全球顶尖大模型行列。

这款尚未公布正式命名的大模型参数量级达到万亿级别,采用了混合专家(MoE)的先进架构,整体能力被业内人士认为对标 GPT-4。此外,有知情人士称该模型完全基于国产化算力集群训练,这表明美团可能已经率先在使用国产算力训练万亿模型上取得突破。

早在 2024 年财报业绩会上,美团创始人王兴就曾首次公开披露美团的 GPU 储备战略,不仅在当年持续投入数十亿美元保障充足的算力供应,还明确表示未来将进一步加大投资力度,为大模型的研发筑牢基础。

去年 9 月,美团已发布并开源了首款自研大语言模型 LongCat-Flash,该模型同样基于 MoE 架构,拥有 5600 亿总参数,凭借打破常规的“零计算专家机制”等创新优化设计,在保持了极高推理效率的同时显著降低了运营成本,详情可见IT之家此前报道。

相关阅读:

  • 《美团发布 LongCat-AudioDiT 音频生成模型:说话人相似度指标提升至 0.818,现已开源》
  • 《美团发布开源原生多模态大模型 LongCat-Next,让视觉和语音成为 AI 的母语》
  • 《美团开源 LongCat-Flash-Prover 大模型:5600 亿参数,刷新两项 SOTA 水平》
  • 《美团 LongCat 大模型官方 App 发布:支持联网搜索,还可以发起语音通话》
  • 《美团发布并开源 LongCat-Flash-Chat 大模型:总参数 560B,AI 智能体任务表现突出》
  • 《王兴披露美团 AI 业务进展:基础大模型能力接近 GPT-4o 水平,6 月将推业务决策助手》

版权声明:本站文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

评论加载中...