会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 Yandex开源LLM训练工具节省高达20%的GPU资源!

Yandex开源LLM训练工具节省高达20%的GPU资源

时间:2024-07-04 04:21:29 来源:带水拖泥网 作者:短视频 阅读:797次

Yandex开源LLM训练工具节省高达20%的GPU资源

2024年6 月11 日,开源莫斯科——跨国科技公司Yandex 最近推出了YaFSDP,练工这是具节一种用于训练大型语言模型(LLM)的开源方法。YaFSDP是省高目前最有效的公开可用工具,用于增强GPU 通信并减少LLM 训练中的开源内存使用量,与FSDP相比,练工其训练速度提升最高可达26%,具节具体取决于架构和参数数量。省高通过使用YaFSDP 减少LLM 的开源训练时间可以节省高达20% 的GPU 资源。

Yandex承诺为全球人工智能社区的练工发展做出贡献,将YaFSDP开源提供给全球的具节LLM开发人员和人工智能爱好者即是履行此承诺的其中一步。

“目前,省高我们正在积极尝试各种模型架构和参数大小,开源以扩展YaFSDP的练工多功能性,”Yandex高级开发专家、具节YaFSDP团队成员Mikhail Khruschev指出,“我们很高兴与全球ML 社区分享我们在LLM训练方面的研发成果,希望能为全球研究人员和开发者获得更多的开源工具和更高的效率做出贡献。”

YaFSDP案例

LLM训练是一个耗时且资源密集的过程。机器学习工程师和自主开发LLM 的公司投入了大量的时间和GPU资源(相当于金钱)来训练这些模型。模型越大,其训练所需的时间和费用就越高。

Yandex的YaFSDP优化了学习速度和性能,使全球的AI开发人员在训练模型时可以使用更少的计算能力和GPU 资源。例如,在涉及具有700亿个参数之模型的预训练场景中,使用YaFSDP 可以节省大约150 个GPU的资源,这意味着每月可以节省大约50 万美元到150万美元(取决于虚拟GPU 提供商或平台)。

YaFSDP通过消除GPU通信效率低下来提升效能,确保训练时只需必要的处理器内存,并使GPU 交互不间断。

YaFSDP的训练效率

YaFSDP是FSDP 的增强版,在LLM训练中最耗通信的阶段(如预训练、对齐和微调)中,其表现优于FSDP 方法。YaFSDP在Llama 2 和Llama 3上展示的最终提速表明训练速度显著提高,在Llama 2 70B 和Llama 3 70B 上分别达到21% 和26%。

MikhailKhruschev 表示:“YaFSDP在130 亿至700亿个参数的模型上表现出色,在300 亿至700亿个参数范围内表现尤为惊人。目前,YaFSDP最适合基于LLaMA架构的广泛使用之开源模型。”

YaFSDP并不是Yandex的第一个开源工具。该公司之前曾分享过其他几款在ML 社区中很受欢迎的工具,包括:

CatBoost:一种高性能的基于决策树之梯度提升库。

YTsaurus:分布式存储和处理的大数据平台。

AQLM:最先进的量化算法之一,用于大型语言模型的极限压缩。由 Yandex Research、HSE 大学、 IST Austria 及 NeuralMagic 共同开发。

Petals:是一个旨在简化 LLM 训练和微调过程的库,由 Yandex Research、HSE 大学、华盛顿大学、Hugging Face、巴黎-萨克雷高等经济学院和 Yandex 数据分析学院合作开发。

(责任编辑:电商)

相关内容
  • 湖北多地发布暴雪红色预警!局部积雪超10厘米:武汉部分列车停运
  • 雷军这次要玩新的:带领小米进入短剧领域
  • vivo相机!vivo X100 Ultra发布:6499元起
  • 诺基亚回应379元复刻版手机卖断货:第二波抢购来了 还想看到哪些机型复刻
  • 春节前三文鱼销量暴涨13倍:鲜美营养 备受消费者喜爱
  • 国内第二家自有影像品牌!vivo Bluemage蓝图影像发布:核心算法自研
  • 研究人员使用AI技术鉴别eBay上的艺术品 发现多达40件赝品
  • 加速最猛、极速的国产电动车!智己L6上市:19.99万起
推荐内容
  • 苹果财季中国收入下降13% 库克回应:仍是热销产品
  • 男子中奖1000万瞒妻子给前妻买房 法院:准予离婚 赔偿60%
  • 宇树科技推出Unitree G1人形机器人 灵敏可靠,售价9.9万元
  • 魅族无界智行官网下线魅族MX:车型命名尚未确定
  • 6岁女孩在爸爸公司年会上自信跳舞:完全没有怯场
  • 23.88万 魏牌摩卡Hi4电混四驱版上市:零百4.7秒、纯电200km