会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE 性能强劲成本更低!

昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE 性能强劲成本更低

时间:2024-07-02 04:04:10 来源:带水拖泥网 作者:小程序 阅读:389次

昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE 性能强劲成本更低

CSS站长资源(ChinaZ.com)6月4日 消息:在大模型技术迅速发展的昆仑开源背景下,昆仑万维公司开源了一个具有里程碑意义的宣布稀疏型SE性稀疏大型语言模型Skywork-MoE。这个模型不仅在性能上表现出色,千亿而且还大幅降低了推理成本,大模低为应对大规模密集型LLM带来的劲成挑战提供了有效的解决方案。

Skywork-MoE模型特点:

  • 开源和免费商用:Skywork-MoE的本更模型权重、技术报告完全开源,昆仑开源且免费商用,宣布稀疏型SE性无需申请。千亿

  • 推理成本降低:该模型在保持性能强劲的大模低同时,大幅降低了推理成本。劲成

  • 稀疏模型:Skywork-MoE是本更一个专家混合模型(MoE),通过将计算分配给专门的昆仑开源子模型或“专家”,提供了一种经济上更可行的宣布稀疏型SE性替代方案。

  • 支持单台4090服务器推理:是千亿首个支持用单台4090服务器推理的开源千亿MoE大模型。

技术细节:

  • 模型权重和开源仓库:模型权重可在Hugging Face上下载,开源仓库位于GitHub。

  • 推理代码:提供了支持8x4090服务器上8bit量化加载推理的代码。

  • 性能:在8x4090服务器上,使用昆仑万维团队首创的非均匀Tensor Parallel并行推理方式,Skywork-MoE可以达到2200tokens/s的吞吐量。

模型性能和技术创新:

  • 参数量:Skywork-MoE的总参数量为146B,激活参数量22B,共有16个Expert,每个Expert大小为13B。

  • 性能对比:在相同的激活参数量下,Skywork-MoE的能力在行业前列,接近70B的Dense模型,推理成本有近3倍的下降。

  • 训练优化算法:Skywork-MoE设计了两种训练优化算法,包括Gating Logits归一化操作和自适应的Aux Loss,以解决MoE模型训练困难和泛化性能差的问题。

大规模分布式训练:

  • Expert Data Parallel:提出了一种新的并行设计方案,可以在Expert数量较小时高效地切分模型。

  • 非均匀切分流水并行:提出了非均匀的流水并行切分和重计算Layer分配方式,使得计算/显存负载更均衡。

实验和经验规则:

Scaling Law实验:探究了影响Upcycling和From Scratch训练MoE模型好坏的约束。

训练经验规则:如果训练MoE模型的FLOPs是训练Dense模型的2倍以上,则选择From Scratch训练MoE更好;否则,选择Upcycling训练MoE可以减少训练成本。

Skywork-MoE的开源为大模型社区带来了一个强大的新工具,有助于推动人工智能领域的发展,特别是在需要处理大规模数据和计算资源受限的场景中。

项目页:https://top.aibase.com/tool/skywork-moe

模型下载地址:https://huggingface.co/Skywork/Skywork-MoE-Base

(责任编辑:电商)

相关内容
  • 独立开发变现周刊(第122期):一个文字生成视频在线SaaS工具,年收入7.5万美元
  • LLM Pricing官网体验入口 大型语言模型定价比较工具在线使用地址
  • 王腾一句话总结第三代骁龙8s:介于8 Gen3和8 Gen2之间
  • 灵羽助手体验入口 AI助手软件工具app免费下载地址
  • 小米年度机皇预热!产品经理换上小米14 Ultra
  • 三只羊就梅菜扣肉致歉:启动先行垫付退款工作
  • AI时代下,低端开发者如何应对被取代的风险
  • vivo X Fold3 将于 3 月 26 日发布:采用铠羽架构 搭载V3影像芯片
推荐内容
  • 小米高管职务大变动!卢伟冰谈接手小米手机:巨大责任 光荣使命
  • 胖东来招聘年薪15万:涵盖软件工程和检验检测等岗位
  • 拿下全球!报告:华为手机今年Q1折叠屏市场超越三星
  • 一加 Ace3V 将于 3 月 21 日发布 首发第三代骁龙 7+
  • 苹果财季中国收入下降13% 库克回应:仍是热销产品
  • ComfyUI图像放大插件SUPIR发布v2版本 加载速度更快了