会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 昆仑万维宣布开源 2 千亿稀疏大模型 Skywork-MoE!

昆仑万维宣布开源 2 千亿稀疏大模型 Skywork-MoE

时间:2024-07-04 04:59:31 来源:带水拖泥网 作者:深度 阅读:916次

昆仑万维宣布开源 2 千亿稀疏大模型 Skywork-MoE

CSS站长资源(ChinaZ.com) 6月3日 消息:2024年6月3日,昆仑开源昆仑万维宣布开源了一个性能强劲的宣布稀疏型2千亿稀疏大模型,名为 Skywork-MoE。千亿这个模型是大模在之前开源的 Skywork-13B 模型的基础上扩展而来的,是昆仑开源首个完整应用并落地 MoE Upcycling 技术的开源千亿级 MoE 大模型。同时,宣布稀疏型这也是千亿全球首个支持在单台4090服务器上进行推理的开源千亿级 MoE 大模型。

Skywork-MoE 的大模模型权重、技术报告完全开源,昆仑开源可以免费商用,宣布稀疏型无需申请。千亿模型的大模总参数量为146B,激活参数量为22B,昆仑开源共有16个 Expert,宣布稀疏型每次激活其中的千亿2个 Expert。与其他主流模型相比,在相同的激活参数量下,Skywork-MoE 的性能接近70B 的 Dense 模型,推理成本下降了近3倍。

为了解决 MoE 模型训练困难、泛化性能差等问题,Skywork-MoE 采用了两种训练优化算法:Gating Logits 归一化操作和自适应的 Aux Loss。此外,为了高效进行大规模分布式训练,Skywork-MoE 提出了两个并行优化设计:Expert Data Parallel 和非均匀切分流水并行。

在推理方面,Skywork-MoE 是目前能够在8台4090服务器上进行推理的最大开源 MoE 模型。通过首创的非均匀 Tensor Parallel 并行推理方式,在 FP8量化下,Skywork-MoE 可以实现2200tokens/s 的吞吐。

•模型权重下载:

○https://huggingface.co/Skywork/Skywork-MoE-base

○https://huggingface.co/Skywork/Skywork-MoE-Base-FP8

•模型开源仓库:https://github.com/SkyworkAI/Skywork-MoE

•模型技术报告:https://github.com/SkyworkAI/Skywork-MoE/blob/main/skywork-moe-tech-report.pdf

•模型推理代码:(支持8x4090服务器上8bit 量化加载推理) https://github.com/SkyworkAI/vllm

(责任编辑:电商)

相关内容
  • 华为完成国内千小区连片开通5.5G 实测网速超4000Mbps
  • 小米高管否认雷军被李想锁车里:两位老板相谈甚欢
  • 半年涨粉1000万,这个AI聊天搭子是怎么火的
  • PhysDreamer:让3D物体符合物理规律动起来
  • 冤吗:奔驰车男子插队砸车行拘10日!被砸车主获安慰 奇瑞送辆新车
  • 终局之战!OpenAI Sora大佬专访:AI视频模型仍处在GPT-1时代
  • Sora 支持的短片创作者解释了人工智能生成视频的优点和局限性
  • 头部主播退居幕后,企业家却抢着做网红
推荐内容
  • 京东春晚互动大奖揭晓:100寸电视、2万元洗衣机只要1分钱
  • Perplexica:开源AI驱动的问答搜索引擎
  • 苹果计划与 OpenAI 合作,加强 iPhone 人工智能功能
  • OPPO Find X7 Ultra 512GB卫通版明天首销:6799元
  • 北方和南方小年差一天:你可知道为什么
  • 当前国产Sora!清华团队突破16秒长视频,懂多镜头语言,会模拟物理规律