会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 AI 框架Ambient Diffusion:从图像中获取灵感,而非复制!

AI 框架Ambient Diffusion:从图像中获取灵感,而非复制

时间:2024-07-02 03:53:29 来源:带水拖泥网 作者:小程序 阅读:912次

AI 框架Ambient Diffusion:从图像中获取灵感,而非复制

划重点:

🔍 德克萨斯大学奥斯汀分校的而非复制研究队开发了一种框架,通过对无法辨认的框架图像进行训练,来训练 AI 模型。从图

📝 这一新提出的像中框架名为 Ambient Diffusion,它通过仅训练扰乱后的灵感图像数据,绕过了这个问题。而非复制

💡 这一框架不仅对艺术领域有用,框架还有潜力应用于科学和医学领域,从图如黑洞成像和某些 MRI 扫描。像中

CSS站长资源(ChinaZ.com)5月21日 消息:强大的灵感人工智能模型有时会出现错误,包括虚构错误信息或将他人作品作为自己的而非复制。为了解决后者的框架问题,德克萨斯大学奥斯汀分校的从图研究团队开发了一种名为 "Ambient Diffusion" 的框架。该框架通过对无法辨认的像中图像数据进行训练,绕过了 AI 模型复制他人作品的灵感问题。

DALL-E、Midjourney 和 Stable Diffusion 是文本到图像扩散生成的人工智能模型,它们能够将任意用户文本转化为高度逼真的图像。这三个模型都面临着艺术家提起诉讼的问题,他们声称生成的样本复制他们的作品。这些模型是通过训练数十亿个图像 - 文本对来实现的,这些对外不公开,它们能够生成高质量的图像,但可能会使用版权图像并复制它们。

"Ambient Diffusion" 框架的提出解决了这个问题,通过仅通过扰乱后的图像数据对扩散模型进行训练。初步实验表明,该框架仍然能够生成高质量的样本,而不需要看到任何可识别为原始源图像的内容。研究团队首先在一组3000张名人图片上训练了一个扩散模型,然后使用该模型生成了新的样本。

在实验中,用清晰的数据训练的扩散模型明显复制了训练样本。但当研究人员对训练数据进行扰乱,随机遮挡图像中的个别像素,然后用新的方法对模型进行重新训练时,生成的样本保持了高质量,但看起来完全不同。该模型仍然可以生成人脸,但生成的人脸与训练图像有明显的区别。

研究人员表示,这指向了一个解决方案,尽管可能会改变性能,但永远不会输出噪声。这一框架为学术研究人员如何推进人工智能以满足社会需求提供了一个示例。德克萨斯大学奥斯汀分校已将2024年宣布为 "AI 之年",这是今年的一个关键主题。该研究团队还包括加州大学伯克利分校和麻省理工学院的成员。

论文:https://arxiv.org/abs/2305.19256

关联项目:https://github.com/giannisdaras/ambient-tweedie?tab=readme-ov-file

(责任编辑:短视频)

相关内容
  • 不挣钱还做自媒体吗?B站什锦区UP主LKs的创作思考
  • 6000mAh续航巨无霸!华为畅享70S官宣:5月28日上市
  • 因销量下滑:曝特斯拉上海工厂Model Y产量已减少20%
  • doge表情包柴犬去世 生前患有白血病和肝病
  • 全年打车免单!滴滴《原神》跨界联动
  • 马斯克称自己是外星人:人类将在五年内重返月球
  • 荣耀200系列将配备两种悬浮四曲屏:直屏体验 曲屏手感
  • 方程豹豹5百公里18升油后续 比亚迪法务部:起诉当事人索赔500万
推荐内容
  • 肯德基、美团无人机合作:深圳两店率先实现“空投吃鸡”
  • 周鸿祎:只要支持国产品牌  埃尔法、雷克萨斯就加不了价
  • 研究发现 52% 的 ChatGPT 编程问题回答错误
  • 燃油管路出现问题!数千“匹”野马跑车将被召回
  • 法拉利2023全年销售13663辆:今年将推3款新车
  • 刘强东:长期业绩不好、从来不拼搏的人 不是我兄弟