量子位 10-18
比Flux更强大的文生图模型来了!秘诀是“集百家之长”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

打造更强大文生图模型新思路有——

面对 Flux、stable diffusion、Omost 等爆火模型,有人开始主打" 集各家所长 "。

具体来说,清北、牛津、普林斯顿等机构的研究者提出了⼀个全新文生图框架 IterComp

它能提取不同模型在各自领域的优势,同时不引入额外的复杂指令或增加计算开销。

论文一经发布,即在(前推特)获得 AI 论文领域大 V 转发,吸引大量关注。

那么,研究人员具体是如何实现的呢?

全新文生图框架:IterComp

⾃ 2022 年以来,基于 diffusion 的文生图模型取得了快速发展,尤其在复杂组合生成(complex/compositional generation)任务上取得了显著进展。

例如,今年 8 月发布的 Flux 展现出了十分震撼的复杂场景生成能力与美学质量;

RPG 通过 MLLM 的辅助,将复杂的组合生成任务分解为简单子任务;

InstanceDiffusion 通过布局控制(layoutbased),实现了与布局分布高度一致的精确图像生成。

然而,这些模型的优势仅限于某些特定的组合生成任务,且存在诸多局限

基于文本的生成方法(如 SDXL、SD3、Flux 等),由于其训练数据和框架的优势,在物体与场景的模拟上表现出色,特别在美学质量、属性绑定和非空间关系(non-spatial relationships)方面具有显著优势。

然而,当涉及多个物体,且存在复杂的空间关系时,这类模型往往表现出明显不足。

基于大语言模型(LLM-based)的生成方法,如 RPG 和 Omost,通常需要对 LLM 进⾏额外训练或设计复杂的提示。

然而,对于 LLM 处理后的复杂指令,diffusion backbone 并不具备精确生成的能力。

基于布局(layourbased)的生成方法,如 Instancediffusion 和 LMD+,虽然提供了精确的控制,但在图像的美学质量和真实性上存在明显下降,并且需要人为设计布局。

因此,一个值得深⼊探讨的问题是:

能否设计出一个强大的模型,在上述多个方面都表现出⾊,同时不引入额外的复杂指令或增加计算开销?

基于此,研究人员提出一个全新的文生图框架:IterComp

要充分解决这⼀问题,研究面临两大难点

1、如何提取不同模型在各自领域的优势,并引导模型进行有效学习?

针对该问题,研究人员首先构建了模型库(model gallery ) ,其包含多种在不同方面表现出色的模型,每个模型都具备特定的组合生成偏好(composition-aware model preference)。

研究人员尝试通过扩散模型对齐方法,将 base diffusion model 与模型库中的组合生成偏好进行对齐。

团队聚焦于 compositional generation 的三个关键方面:

属性绑定(attribute binding)

空间关系(spatial relationship)

⾮空间关系(non-spatial relationship)

为此,研究人员收集了不同模型在这些方面的偏好数据,并通过人工排序,构建了⼀个面向组合生成的模型偏好数据集(composition-aware model preference dataset)。

针对这三个方面,团队分别训练三个 composition-aware reward models,并对 base 模型进行多奖励反馈优化

2、组合生成任务很难优化,如何更充分地学习到不同模型的组合偏好?

研究人员在 diffusion 领域创新地引入迭代式学习框架(iterative feedback learning),实现 reward models 与 base diffusion model 之间 " 左脚踩右脚登天 "。

具体来说,在上述第一轮优化后,团队将 optimized base diffusion model 以及额外选择的其他模型(例如 Omost 等)添加进 model gallery。

对新增模型进行偏好采样,与初始 model gallery 中的图像按照预训练的 reward model 构建图像对。

这些图像对被用于进⼀步优化奖励模型,随后继续用更新的奖励模型优化基础扩散模型。

具体的流程如下伪代码所示:

实验

定性实验中,与其他三类 compositional generation 方法相比,IterComp 取得了显著的组合质量的提升,并且不会引入额外的计算量。

从定量结果中可以看出,IterComp 在 T2I-CompBench 上取得了各方面的领先。

另外,针对图像真实性以及美学质量,IterComp 也表现出色。

然而 IterComp 的应用潜力不限于此,其可以作为强大的 backbone 显著提升 Omost, RPG 等模型的生成能力。

更多细节欢迎查阅原论文。

论文地址:

https://arxiv.org/abs/2410.07171

代码地址:

https://github.com/YangLing0818/IterComp

模型地址:

https://huggingface.co/comin/IterComp

Civitai:

https://civitai.com/models/840857

—    —

投稿请发邮件到:

ai@qbitai.com

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容‍

附上论文 / 项目主页链接,以及联系方式哦

我们会(尽量)及时回复你

点这里关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~  

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

ai rpg
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论