文生图到图像编辑充满挑战,图像编辑需要保留原始图片大部分信息,而对于文生图,只要prompt稍微更改将导致生成完全不同图像。当前SOTA方法用户需要提供编辑位置的mask,忽略mask区域内容。作者探究一种仅通过文本进行编辑的框架,对此对条件文本模型进行深入探究,发现cross-attention层控制图像空间布局与prompt中每个word之间的相关性。作者通过仅编辑纹理prompt进行图像生成,包括:替换单词进行局部编辑、增加明细进行全局编辑、甚至精细化控制哪个单词映射到图像中哪部分。
对于依据文本
p
r
o
m
p
t
P
prompt P
promptP生成图像
I
I
I,通过编辑的
p
r
o
m
p
t
P
∗
prompt P^*
promptP∗,生成编辑后图像
I
∗
I^*
I∗。
作者发现生成图像的结构与外观不仅依赖于随机种子还依赖于像素及文本embedding之间交互。注入输入图
I
I
I的cross-attention层使得保留原始构图和结构,整体结构如图3所示。
噪声图经过映射得到查询矩阵
Q
Q
Q、
p
r
o
m
p
t
prompt
prompt分别经过映射得到
K
、
V
K、V
K、V,
a
t
t
e
n
t
i
o
n
m
a
p
M
attention map M
attentionmapM计算如式1,cross-attention输出为
M
V
MV
MV,用于更新空间特征
ϕ
(
z
t
)
\phi(z_t)
ϕ(zt)。
像素与文本交互如图4,第一行展示每个单词的attention mask,第二行展示随着扩散过程,attention map变化。我们发现在扩散早期阶段图像结构已经确定。
用户将原始prompt中个别词替换。该问题挑战为保存原始结构同时与新prompt内容一致,将原图attention map直接引入可能会过于几何形状。因此作者提出softer attention,如下式,
τ
\tau
τ为时间戳,
此情况表示用户在prompt中增加新的token。为保留共同细节,作者仅将attention注入共同token,使用对齐功能A,对于目标
p
r
o
m
p
t
P
∗
prompt P^*
promptP∗token index输出
P
P
P中对应token index,编辑功能如下式,
此情况适用于用户希望加强或削弱某个token对生成图影响。对此作者通过参数
c
∈
[
−
2
,
2
]
c \in [−2, 2]
c∈[−2,2]将token j对应attention map放大,如下式,
图2上展示通过引入原始prompt的attention map可保留物体结构,同时背景区域得到还不错保留。
图7下及图8展示保留原始目标位置及特性的同时,对全局进行编辑。
图9展示通过增加或降低特定词权重所产生影响。
编辑真实图像需要找到初始噪声,通过扩散过程可生成输入图。常规方法是对输入图添加高斯噪声,进行扩散,但容易导致失真,因此作者使用一种改进的反向方法,如图10,可生成满意效果;
如图11,许多情况反向过程不够准确。这归因于乱序与编辑的均衡,降低prompt权重提升重建能力,但编辑能力。
因此作者使用mask仅对无编辑区域进行重构。如图12
作者揭示了文生图扩散模型中cross-attention层强大能力。作者展示通过操纵prompt可进行本地或全局编辑。
:
1、当前反向过程导致在一些测试集出现失真;
2、attention map为低分辨率,这了进行精确本地化编辑的能力;作者建议在高分辨率增加cross-attention层。
3、当前方法不能对图中物体进行空间移动。
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- ovod.cn 版权所有 湘ICP备2023023988号-4
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务