会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 北大字节提出图像生成新范式VAR 超越Sora核心组件DiT!

北大字节提出图像生成新范式VAR 超越Sora核心组件DiT

时间:2024-07-02 03:31:49 来源:带水拖泥网 作者:知识 阅读:240次

北大字节提出图像生成新范式VAR 超越Sora核心组件DiT

CSS站长资源(ChinaZ.com)4月15日 消息:北大与字节跳动AI Lab联合提出了一种图像生成新范式——VAR(Visual Autoregressive Modeling),字节组件这一新方法的提出图像核心在于预测下一级分辨率,而非传统的生成式预测下一个token。VAR的新范提出不仅在图像生成质量上超越了Sora的核心组件Diffusion Transformer(DiT),而且在推理速度上也实现了20倍以上的核心提升。这一成果已经在GitHub上开源,字节组件迅速获得了1.3k的提出图像标星,并登上了GitHub趋势榜。生成式

项目地址:https://github.com/FoundationVision/VAR

论文:https://arxiv.org/abs/2404.02905

VAR的新范工作流程分为两个阶段。在第一阶段,核心VAR引入了多尺度离散表示,字节组件通过VQ-VAE将连续图像编码为不同分辨率的提出图像离散token map。

在第二阶段,生成式VAR Transformer通过预测更高分辨率的新范图像来进一步优化模型。具体来说,核心模型从最低分辨率的token map开始,逐步预测到更高分辨率的完整token map,直至生成最高分辨率的图像。

在这一过程中,模型会综合考虑之前所有步骤生成的映射信息,从而提高预测的准确性。与传统自回归模型不同,VAR在每个尺度内并行预测所有位置的token,这一特点显著提高了生成效率。

VAR的提出,不仅在图像生成领域首次击败了DiT,而且在实验中显示出了大语言模型类似的Scaling Laws和零样本任务泛化能力。在ImageNet256×256的数据集上,VAR将FID(Fréchet Inception Distance,一种衡量生成图像质量的指标)从18.65降到了1.8,IS(Inception Score,衡量生成图像多样性的指标)从80.4提高到了356.4,这些结果表明VAR在图像生成质量和多样性上都有显著提升。此外,VAR只需要350个训练周期,远少于DiT-XL/2所需的1400个周期,显示出更高的数据效率。

VAR的研究成果已经在GitHub上公开,包括推理示例、demo、模型权重和训练代码,供研究者和开发者使用和参考。VAR的提出,不仅为图像生成领域带来了新的研究方向和技术突破,也可能为未来的AI应用开辟新的可能性。同时,VAR的开源也体现了学术界与工业界合作的积极成果,有助于推动整个AI领域的发展和创新。

(责任编辑:自媒体)

相关内容
  • 微信更新了几个视频号新功能!
  • 魔搭社区开源多智能体框架AgentScope
  • 母亲将银镯打成首饰送2个女儿:家族情感的传承
  • 男子买彩票凭感觉改2个号码中830万:自认为有偏财运
  • 教你用AI制作微信红包封面,分分钟躺赚千元(附红包封面)
  • 张颂文发文回应《猎冰》争议 导演转发感谢发声
  • 苹果iOS 18升级名单首曝:24款机型可升 iPhone XR不死!
  • 马斯克用两个表情回应苹果取消造车 附上“致敬”表情包
推荐内容
  • 武汉冻雨形成雨凇景观 城市变“冰糖之城”
  • 上海到北京仅需2.5小时引热议:其实时间不能这样算
  • 苹果放弃造车 何小鹏:没想到苹果2024年出了这样的牌
  • 400名大学生回曹县小镇卖马面裙:春节期间供不应求
  • 泰国小镇被3500只猴子占据 昔日繁荣已荡然无存
  • 2月电影票房破110亿 进入中国影史单月票房TOP3