会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 ​清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能!

​清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能

时间:2024-07-02 03:35:51 来源:带水拖泥网 作者:热点 阅读:429次

​清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能

划重点:

⭐ 清华大学和哈尔滨工业大学联合发布论文,​清将大模型压缩到1bit,华哈保持83% 性能;

⭐ OneBit 方法首次尝试1bit 量化,提出突破了2bit 的可把限制;

⭐ 新方法结合1bit 层结构、基于 SVID 的大模参数初始化和量化感知训练。

CSS站长资源(ChinaZ.com)3月4日 消息:近期,型压清华大学和哈尔滨工业大学联合发布了一篇论文,持性成功将大模型压缩到1bit,​清仍保持83% 的华哈性能。这一成果标志着量化模型领域的提出一次重大突破。过去,可把2bit 以下的大模量化一直是研究人员难以逾越的障碍,而这次的型压1bit 量化尝试,引起了国内外学术界的持性广泛关注。

这项研究提出的​清 OneBit 方法,首次尝试将预训练大模型压缩到真正的1bit。通过全新的1bit 层结构、基于 SVID 的参数初始化和量化感知训练,成功将大模型参数压缩到1bit 表示。该方法不仅保留了模型的高精度和高秩,还能够在极大幅度压缩模型参数的同时,保证模型至少83% 的性能。

OneBit 方法的核心在于将权重矩阵压缩到1bit,并引入两个 FP16格式的值向量以弥补精度损失。通过新的参数初始化方法 SVID 和知识迁移,成功将高精度预训练模型的能力转移到1bit 量化模型上。实验结果表明,OneBit 方法相较于其他2bit 量化方法,在验证集困惑度和 Zero-shot 准确度上表现更为优秀。

该研究的意义在于,成功突破了2bit 量化的障碍,为在 PC 和智能手机上部署大模型提供了新的可能性。未来,随着技术的不断进步,将有望实现将大型语言模型等大模型压缩到极低位宽,并实现在移动设备上高效运行的愿景。

论文地址:https://arxiv.org/pdf/2402.11295.pdf

(责任编辑:热点)

相关内容
  • 贾扬清的500行代码,掀翻了Perplexity5.2亿的桌子?
  • 外挂变焦环!刘作虎秀出OPPO Find X7 Ultra概念版
  • ​Zoom 进行大规模更新,搭载生成式人工智能技术
  • 男子豪掷70万练功券送女友买房 后续:已被警方批评教育
  • 图领域通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东
  • 年轻人开始整顿卧铺车厢了 挂帘子不让坐:专家呼吁让边界更清晰一点
  • 学大教育CEO金鑫陪同民进中央领导赴黑龙江边境调研职业教育发展情况
  • Suno AI挑战者出现!音乐平台间的竞争,Udio已经Next Level
推荐内容
  • 全年打车免单!滴滴《原神》跨界联动
  • 出门问问预计4月24日上市 发售价不超过每股4.10港元
  • 4000万粉丝IP,倒在了2024年春天
  • 50万内量产车没对手!博主实测小米SU7零百加速2.95秒:最快
  • 智心云言体验入口 AI智能对话与绘画工具在线使用地址
  • 利物浦都在用的AI教练,真能拯救国足吗?