会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 开源大模型DBRX:1320亿参数,比Llama2-70B快1倍!

开源大模型DBRX:1320亿参数,比Llama2-70B快1倍

时间:2024-07-02 03:45:43 来源:带水拖泥网 作者:资讯 阅读:409次

开源大模型DBRX:1320亿参数,比Llama2-70B快1倍

**划重点:

**

- 💡 Databricks发布MoE大模型DBRX,开源B快击败Grok-1和Mixtral等开源模型。大模

- 💡 DBRX参数量为1320亿,参数混合专家模型,比L倍激活参数量为360亿,开源B快比Llama2-70B生成速度快1倍。大模

- 💡 经过课程学习,参数DBRX在语言理解、比L倍编程、开源B快数学和逻辑等方面达到SOTA水平。大模

CSS站长资源(ChinaZ.com)3月28日 消息:大数据公司Databricks最近发布了一款名为DBRX的参数MoE大模型,引发了开源社区的比L倍热议。DBRX在基准测试中击败了Grok-1、开源B快Mixtral等开源模型,大模成为了新的参数开源之王。这款模型的总参数量达到了1320亿,但每次激活只有360亿参数,并且其生成速度比Llama2-70B快1倍。

DBRX是由16个专家模型组成,每次推理有4个专家处于激活状态,上下文长度为32K。为了训练DBRX,Databricks团队从云厂商那里租用了3072个H100,历时两个月进行训练。经过内部讨论,团队决定采用课程学习的方法,用高质量数据提高DBRX在特定任务上的能力。这一决策取得了成功,DBRX在语言理解、编程、数学和逻辑等方面均达到了SOTA水平,并在大多数基准测试中击败了GPT-3.5。

Databricks还发布了DBRX的两个版本:DBRX Base和DBRX Instruct,前者是预训练基础模型,后者则经过指令微调。首席科学家Jonathan Frankle透露团队接下来计划对模型进行进一步研究,探索DBRX如何在训练的“最后一周”中获得额外技能。

尽管DBRX受到开源社区的欢迎,但也有人对其“开源”的质疑。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。

项目入口:https://top.aibase.com/tool/dbrx

(责任编辑:知识)

相关内容
  • 直逼GPT-4开源模型大泄漏,AI社区炸锅!Mistral CEO自曝是旧模型,OpenAI再败一局?
  • 五一提前出发的聪明人太多 网友:低估了堵车的程度
  • 全球2亿像素蔡司潜望旗舰!vivo X100 Ultra来了
  • 余承东终端业务职位变动:仍是的一把手!
  • 武汉冻雨形成雨凇景观 城市变“冰糖之城”
  • 叠片式电池再推迟,消息称三星 Galaxy S25 Ultra 手机仍 5000mAh 45W 组合
  • 2024全球机器学习技术大会上海站圆满闭幕,共奏AGI变革新时代
  • 中国新增纯电动车的车桩比已经1:1 领先其它国家数倍
推荐内容
  • OpenAI 推出适用于 Apple Vision Pro 的 ChatGPT 应用
  • 小米:省电模式开启后 小米SU7车速会被限制90km/h
  • 荣耀数字系列旗舰!荣耀200系列入网
  • 迅雷加速器正式上线:百款游戏免费加速
  • “五分钟美甲店”全国爆火,有90后月入10万
  • 泉州文旅认证赵丽颖簪花出圈:欢迎大家来泉州打卡同款簪花